Laboratoire de Probabilités, Statistique et Modélisation (LPSM, UMR 8001)




Le LPSM est une unité mixte de recherche (UMR 8001) dépendant du CNRS, de Sorbonne Université et de l’Université Paris Cité. Le laboratoire compte environ 200 personnes (dont env. 90 permanents), répartis sur deux sites (Campus P. et M. Curie de Sorbonne Université et Campus Paris Rive Gauche de l’Université Paris Cité).

Les activités de recherche du LPSM couvrent un large spectre en Probabilités et Statistique, depuis les aspects les plus fondamentaux (qui incluent notamment l'Analyse Stochastique, la Géométrie Aléatoire, les Probabilités Numériques et les Systèmes Dynamiques) jusqu’aux applications à la Modélisation dans diverses disciplines (Physique, Biologie, Sciences des Données, Finance, Actuariat, etc), applications qui incluent des partenariats en dehors du monde académique.

Le LPSM est un laboratoire relativement récent. Cependant, ses composantes sont anciennes et proviennent du développement des « mathématiques du hasard » dans le centre de Paris, depuis le premier quart du 20ième siècle (voir ici pour plus de détails).

NB: Site largement inspiré de celui de l'IRIF (merci à eux pour la mise à disposition de leur maquette).

livre-pages.jpg

1.2.2024
Le livre Marginal and Functional Quantization of Stochastic Process, écrit par Harald Luschgy et Gilles Pagès, vient d'être publié.

baladi.jpg

27.2.2024
Viviane Baladi est lauréate du prix "Teubner Foundation Science Prize for the Promotion of Mathematical Sciences". Félicitations Viviane!

SORBONNE_FAC_SCIENCES_CMJN

12.2.2024
Arrêté électoral portant sur les élections du conseil de l'UFR de Mathématiques: arrêté.

Huyên Pham

10.1.2024
Huyên Pham a été élu vice-président de la Bachelier Finance Society. Félicitations Huyên!

Nicole El Karoui

30.11.2023
Nicole El Karoui est lauréate du prix Risk Awards 2024 Lifetime achievement. Félicitations Nicole!

SORBONNE_FAC_SCIENCES_CMJN

12.3.2024
Arrêté portant report des élections au conseil de l'UFR 929 de Mathématiques: arrêté.


(Ces actualités sont présentées selon un classement mêlant priorité et aléatoire.)

Séminaire du LPSM
Jeudi 25 avril 2024, 9 heures 30, Salle Paul Lévy (Jussieu)
Isabelle Gallagher (UPC et ENS) Sur la dynamique des gaz dilués

L'évolution d'un gaz peut être décrite par différents modèles selon l'échelle d'observation. Une question naturelle, soulevée par Hilbert dans son sixième problème, est de savoir si ces modèles fournissent des prédictions cohérentes. Dans le cas des gaz de sphères dures, Lanford a montré en 1974 que l'équation de Boltzmann apparaît comme une loi des grands nombres dans la limite de faible densité, au moins pour des temps très courts. Dans cet exposé nous présenterons le résultat de Lanford, et quelques extensions plus récentes permettant de comprendre les fluctuations et les grandes déviations autour de l'équation de Boltzmann.

Séminaire de statistique
Mardi 30 avril 2024, 9 heures 30, Jussieu en salle 15-16.201
Spencer Frei (UC Davis) Learning linear models in-context with transformers

Attention-based neural network sequence models such as transformers have the capacity to act as supervised learning algorithms: They can take as input a sequence of labeled examples and output predictions for unlabeled test examples. Indeed, recent work by Garg et al. has shown that when training GPT2 architectures over random instances of linear regression problems, these models' predictions mimic those of ordinary least squares. Towards understanding the mechanisms underlying this phenomenon, we investigate the dynamics of in-context learning of linear predictors for a transformer with a single linear self-attention layer trained by gradient flow. We show that despite the non-convexity of the underlying optimization problem, gradient flow with a random initialization finds a global minimum of the objective function. Moreover, when given a prompt of labeled examples from a new linear prediction task, the trained transformer achieves small prediction error on unlabeled test examples. We further characterize the behavior of the trained transformer under distribution shifts. Talk based on joint work with Ruiqi Zhang and Peter Bartlett.

Bio: Spencer Frei is an Assistant Professor of Statistics at UC Davis. His research is on the foundations of deep learning, including topics related to large language models, benign overfitting, and implicit regularization. Prior to joining UC Davis he was a postdoctoral fellow at UC Berkeley hosted by Peter Bartlett and Bin Yu and received his Ph.D in Statistics at UCLA. He was a co-organizer of a tutorial at NeurIPS 2023 on benign overfitting and of the 2022 Deep Learning Theory Workshop and Summer School at the Simons Institute for the Theory of Computing.

Séminaire de Théorie Ergodique
Mardi 30 avril 2024, 10 heures 30, Jussieu, Salle Neveu, 16-26 113
Christophe Leuridan À la recherche d'isomorphismes explicites entre isomorphismes du tore et décalages de Bernoulli.

(attention à la salle inhabituelle)

Soit $A$ une matrice $d \times d$ à coefficients entiers, dilatante (i.e. toutes les valeurs propres de $A$ sont de module > 1). L'application $x \mapsto Ax$ définit un endomorphisme du tore $\mathbb{R}^d/\mathbb{Z}^d$. Cet endomorphisme préserve la mesure de Haar $\eta$.

Mihailescu a montré en 2011 que cet endomorphisme est isomorphe à un décalage de Bernoulli uniforme sur $\{0,\ldots,r-1\}^{\mathbb{N}}$, mais sa preuve est non-constructive. Nous verrons deux approches différentes qui fournissent une application facteur dans un sens ou dans l'autre, qui est \og $s$ en un \fg pour un certain entier naturel $s \ge 1$. Lorsque $A^{-1}$ est contractante pour la norme $|\cdot|_\infty$ sur $\mathbb{R}^d$, ces applications facteurs sont des isomorphismes.

Les probas du vendredi
Vendredi 3 mai 2024, 11 heures, Jussieu, Salle Paul Lévy, 16-26 209
Maxime Ligonnière (Institut Denis Poisson (Univ. de Tours)) Non encore annoncé.

Soutenances d'habilitation
Lundi 13 mai 2024, 14 heures 30, 15-16 101 et Teams
Nicolas Bousquet (LPSM) Contributions to the statistical quantification of uncertainties affecting the use of numerical models

Séminaire de statistique
Mardi 14 mai 2024, 9 heures 30, Jussieu en salle 15-16.201
Rafaël Pinot (LPSM Sorbonne Université) Non encore annoncé.

Les probas du vendredi
Vendredi 17 mai 2024, 11 heures, Jussieu, Salle Paul Lévy, 16-26 209
Irene Ayuso Ventura (Univ. Gustave Eiffel) Non encore annoncé.

Séminaire de Théorie Ergodique
Mardi 21 mai 2024, 10 heures 30, Jussieu, Salle Paul Lévy, 16-26 209
François Le Maître Le théorème de Belinskaya pour les flots

Le théorème de Belinskaya est un résultat puissant de dynamique discrète: étant données deux bijections préservant la mesure d'un espace de probabilité standard, ergodiques avec les mêmes orbites, si le cocycle qui permet de passer de l'une à l'autre est intégrable, alors les deux bijections sont conjuguées, quitte à remplacer l'une par son inverse. C'est d'autant plus remarquable que le théorème de Dye garantit à l'inverse que à conjugaison près, toutes les bijections ergodiques préservant la mesure ont les mêmes orbites. Dans cet exposé, on s'intéressera à une version continue du théorème de Belinskaya, obtenue en collaboration avec Kostya Slutsky.

Séminaire Modélisation et Probabilités
Mercredi 22 mai 2024, 14 heures 15, Sophie Germain 1013
Nicolas Chenavier (Université du Littoral Côte d'Opale) Approximation par Poisson composé pour un processus beta-mélangeant

Dans cet exposé, nous présentons un résultat d'approximation par Poisson composé pour un processus ponctuel, appelé processus des excédents. Ce dernier consiste en l'ensemble des points d'un processus sous-jacent en lesquels un événement de type extrême apparait. La convergence associée à l'approximation est quantifiée en termes de distance de Wasserstein et permet d'étudier divers problèmes d'extrêmes en géométrie aléatoire. Deux applications sont données, la première concernant la distance au plus proche voisin pour un processus non Poissonnien et le second portant sur les petits angles dans une triangulation de Delaunay. Travail joint avec M. Otto.