Laboratoire de Probabilités, Statistique et Modélisation (LPSM, UMR 8001)




The LPSM is a research unit jointly supported by CNRS, Sorbonne Université and Université Paris Cité. The unit hosts about 200 members (about 90 faculty) and is located at two sites (Campus P. et M. Curie of Sorbonne Université et Campus Paris Rive Gauche of Université Paris Cité).

The LPSM research activities cover a broad spectrum in Probability and Statistics, from the most fundamental aspects (which, in particular, include Stochastic Analysis, Random Geometry, Numerical Probabilities and Dynamical Systems) to applications in the Modelling in various disciplines (Physics, Biology, Data Sciences, Finance, Insurance, etc). Applications involve partnerships with the non-academic sector.

While the unit LPSM is relatively recent, its components have deep roots in the rich history of the “mathematics of randomness” that has unfolded in Paris during the 20th century (see here for more details).

NB: This website is largely inspired by the one of IRIF.

9.12.2025
L'Académie des Sciences a décerné à Nicole El Karoui la médaille de section “Applications des Sciences”. Félicitations!

france2030.jpg

9.12.2025
L'équipe composée de Claire Boyer (Saclay), Francis Bach (Inria) et Gérard Biau (LPSM) est lauréate de l'AAP “Mathématiques de l'apprentissage profond” du PEPR IA, pour le projet Géné-Pi. Félicitations!


(Ces actualités sont présentées selon un classement mêlant priorité et aléatoire.)

/* TBA. */

/* Nombre limité d'évènements durant les vacances de printemps. Nombre limité d'évènements durant les vacances d'été. Nombre limité d'évènements durant les vacances de Noël. Tous les évènements sont actuellement organisés à distance. */

Séminaire de statistique
Mardi 6 janvier 2026, 10 heures 45, Jussieu en salle 15-16 201
Scott Pesme (INRIA) (Old school) deep learning theory through the lens of diagonal linear networks

Surprisingly, many optimisation phenomena observed in complex neural networks also appear in so-called 2-layer diagonal linear networks. This rudimentary architecture—a two-layer feedforward linear network with a diagonal inner weight matrix—has the advantage of revealing key training characteristics while keeping the theoretical analysis clean and insightful.In this talk, I’ll provide an overview of various theoretical results for this architecture, while drawing connections to experimental observations from practical neural networks. Specifically, we’ll examine how hyperparameters such as the initialisation scale, step size, and batch size impact the optimisation trajectory and influence the generalisation performance of the recovered solution.

Séminaire Modélisation et Probabilités
Mercredi 7 janvier 2026, 14 heures 15, Sophie Germain 1013
Zoé Varin (IRIF) Un algorithme probabiliste d'apprentissage par renforcement pour la recherche de plus courts chemins sur un graphe

On étudie un processus d’apprentissage par renforcement, pour la recherche de plus courts chemins dans un graphe, dans lequel des fourmis partent d’un nid (aléatoire, N1 ou N2) et font une marche aléatoire (pondérée par les poids des arêtes) jusqu’à une source de nourriture F. À leur retour, elles renforcent les arêtes (en ajoutant 1 à leur poids) appartenant au chemin aller auquel on a enlevé les boucles inutiles. Ce modèle a déjà été étudié sur divers graphes dans le cas où le nid est déterministe, notamment les graphes séries-parallèles, mais aussi pour d’autres politiques de renforcements (articles de Kious, Mailler et Schapira). Nous étudions le cas à deux nids, dans des graphes obtenus en joignant trois graphes séries-parallèles pour former un triangle.

On montre que les poids des arêtes (normalisés) convergent, vers des variables aléatoires nulles si les arêtes associées n’appartiennent pas à un plus court chemin d’un sommet de {N1 , N2 , F } à un autre.

Nous présenterons plusieurs outils utiles pour prouver cette convergence, notamment la comparaison avec des processus d'urnes, et quelques résultats sur les approximations stochastiques.

La présentation se basera sur un travail en commun avec Cécile Mailler.

Séminaire Modélisation aléatoire du vivant
Mercredi 7 janvier 2026, 11 heures, 16-26.209
Valentin Schmutz (Univ. College London) Concentration of measure in “low-rank” biological neural networks

Recurrent neural networks with low-rank connectivity matrices are general and tractable models of collective dynamics in large networks. This class of models dates back to the seminal works of J. Hopfield (1982) and S. Amari (1972), and it still plays an instrumental role in computational neuroscience today. To highlight the analytical tractability of these models, I will first review some recent theoretical results concerning the case where the low-rank connectivity is random, the rank is kept fixed, and the number of neurons tends to infinity. In this case, we find that (i) the dynamics of the network converges to a neural field equation, (ii) the dynamics can be reduced to a latent, low-dimensional dynamical system, and (iii) the latent dynamics can be fully solved in certain special cases. In the second part of the presentation, I will show that low-rank connectivity is associated with remarkable concentration of measure phenomena in networks of biological neurons. Considering a feedforward network setup where neurons in the first layer, modelled as Cox processes, transmit stochastic spikes, I will present a theorem stating that the network can behave as if each spiking neuron were transmitting its subthreshold membrane potential as both the rank of the connectivity and the number of neurons tend to infinity. This result could explain how, at the network level, neurons can transmit their subthreshold membrane potential fluctuations through sparse spikes. The proof of the theorem involves the so-called thin shell phenomenon, a well-known concentration phenomenon in high-dimensional probability.

Séminaire du LPSM
Jeudi 15 janvier 2026, 9 heures 30, A préciser
Mathilde Mougeot (EnsIIE & ENS Paris-Saclay) Transfer and physics-informed learning to overcome data scarcity

In recent years, considerable progress has been made in implementing decision support procedures based on machine learning methods through the use of very large databases and learning algorithms. In many application areas, the available databases are modest in size, raising the question of whether it is reasonable, in this context, to seek to develop powerful tools based on machine learning techniques. This presentation introduces models that leverage various types of knowledge through pre-trained alternative models, targeted observations, or physics in order to implement effective machine learning models in a context of data scarcity. Several industrial applications are used to illustrate benefits of these approaches.

Séminaire sur les processus de Hawkes
Lundi 19 janvier 2026, 14 heures, Jussieu, Salle Emile Borel, 15-26 201
Matthias Kirchner (PH NMS Bern) TBS

Séminaire de statistique
Mardi 20 janvier 2026, 10 heures 45, Sophie Germain en salle 1013
Laurent Oudre (ENS Paris Saclay) Non encore annoncé.