~~NOCACHE~~
/* DO NOT EDIT THIS FILE */
/* THIS FILE WAS GENERATED */
/* EDIT THE FILE "indexheader" INSTEAD */
/* OR ACCESS THE DATABASE */
{{page>.:indexheader}}
\\ ==== Next talks ====
[[en:seminaires:SemDoc:index|Doctoral Seminar]]\\
Thursday November 13, 2025, 5:30PM, Sophie Germain - Salle 1013 (1er étage)\\
**Lucas Ketels + Yihao Pang** //Bias-Optimal Bounds for Stochastic Gradient Descent: A Computer-Aided Lyapunov Analysis + Convergence de la soupe de boucles de marche aléatoire sous des hypothèses générales//
\\
The analysis of Stochastic Gradient Descent (SGD) often relies on making some assumption on the
variance of the stochastic gradients, which is usually not satisfied or difficult to verify in practice. This paper contributes
to a recent line of works which attempt to provide guarantees without making any variance assumption, leveraging only
the (strong) convexity and smoothness of the loss functions. In this context, we prove new theoretical bounds derived
from the monotonicity of a simple Lyapunov energy, improving the current state-of-the-art and extending their validity to
larger step-sizes. Our theoretical analysis is backed by a Performance Estimation Problem analysis, which allows us to
claim that, empirically, the bias term in our bounds is optimal, which moreover is supported by theoretical guarantees
La soupe de boucles de marche aléatoire, introduite par Lawler et Trujillo-Ferreras(2004), est un analogue discret de la soupe de boucles brownienne: c'est une collection aléatoire de boubles sur un graphe planaire. Dans leur article, les auteurs ont démontré que la soupe de boucles de marche aléatoire sur $\mathbb{Z}^2$ converge vers la soupe de boucles brownienne, via une approximation de type KMT. Dans cet exposé, nous étudions cette convergence dans un cadre plus général. Nous supposons que les graphes vérifient: (i)la marche aléatoire converge vers le mouvement brownien, (ii)une estimation de type Russo-Seymour-Welsh, et (iii)la densité bornée. Ces hypothèses sont introduites par Berestycki, Laslier et Ray(2018). Sous ces hypothèses, nous montrons que la soupe de boucles de marche aléatoire converge vers la soupe de boucles brownienne, au sens d'une topologie en ignorant la paramétrisation des boucles ainsi que les boucles microscopiques.
Organisation : Sacha Quayle, Thomas Le Guerch, Nina Drobac, Pierre Faugere, Maxime Guellil, Eyal Vayness
[[en:seminaires:SemDoc:index|Doctoral Seminar]]\\
Thursday November 20, 2025, 5:30PM, Jussieu - Salle Paul Lévy (16-26 209)\\
**Non Encore Annoncé + Lucas Prates** //Non encore annoncé + Non encore annoncé//
\\
Organisation : Sacha Quayle, Thomas Le Guerch, Nina Drobac, Pierre Faugere, Maxime Guellil, Eyal Vayness
[[en:seminaires:SemDoc:index|Doctoral Seminar]]\\
Thursday December 4, 2025, 5:30PM, Sophie Germain - Salle 1016 (1er étage)\\
**Non Encore Annoncé + Non Encore Annoncé** //Non encore annoncé + Non encore annoncé//
\\
Organisation : Sacha Quayle, Thomas Le Guerch, Nina Drobac, Pierre Faugere, Maxime Guellil, Eyal Vayness
[[en:seminaires:SemDoc:index|Doctoral Seminar]]\\
Thursday December 18, 2025, 5:30PM, Jussieu - Salle Paul Lévy (16-26 209)\\
**Chloé Hashimoto-Cullen + Emmanuel Gnabeyeu** //Non encore annoncé + Non encore annoncé//
\\
Organisation : Sacha Quayle, Thomas Le Guerch, Nina Drobac, Pierre Faugere, Maxime Guellil, Eyal Vayness
{{page>.:info}}
\\ ==== Previous talks ====
\\ === Year 2025 ===
{{page>.:semdoc2025}}
\\ === Year 2024 ===
{{page>.:semdoc2024}}
\\ === Year 2023 ===
{{page>.:semdoc2023}}
\\ === Year 2022 ===
{{page>.:semdoc2022}}
\\ === Year 2021 ===
{{page>.:semdoc2021}}
\\ === Year 2020 ===
{{page>.:semdoc2020}}
\\ === Year 2019 ===
{{page>.:semdoc2019}}
\\ === Year 2018 ===
{{page>.:semdoc2018}}