Laboratoire de Probabilités, Statistique et Modélisation (LPSM, UMR 8001)




Le LPSM est une unité mixte de recherche (UMR 8001) dépendant du CNRS, de Sorbonne Université et de l’Université Paris Cité. Le laboratoire compte environ 200 personnes (dont env. 90 permanents), répartis sur deux sites (Campus P. et M. Curie de Sorbonne Université et Campus Paris Rive Gauche de l’Université Paris Cité).

Les activités de recherche du LPSM couvrent un large spectre en Probabilités et Statistique, depuis les aspects les plus fondamentaux (qui incluent notamment l'Analyse Stochastique, la Géométrie Aléatoire, les Probabilités Numériques et les Systèmes Dynamiques) jusqu’aux applications à la Modélisation dans diverses disciplines (Physique, Biologie, Sciences des Données, Finance, Actuariat, etc), applications qui incluent des partenariats en dehors du monde académique.

Le LPSM est un laboratoire relativement récent. Cependant, ses composantes sont anciennes et proviennent du développement des « mathématiques du hasard » dans le centre de Paris, depuis le premier quart du 20ième siècle (voir ici pour plus de détails).

NB: Site largement inspiré de celui de l'IRIF (merci à eux pour la mise à disposition de leur maquette).

12.9.2024
Lancement du séminaire sur les processus de Hawkes, qui aura lieu les mardis à 11h sur le site de Jussieu. Programme ici.

evt_timeseries.jpg

4.10.2024
Le livre Extreme Value Theory for Time Series, écrit par Thomas Mikosch et Olivier Wintenberger, vient d'être publié.

vernier.jpg

9.9.2024
Le projet “New algebraic structures in quantum integrability: towards 3D” porté par Eric Vernier à reçu un financement JCJC de l'ANR, ainsi qu'un financement Emergence de l'Université Paris Cité.

zambotti.jpg

9.9.2024
Lorenzo Zambotti est lauréat du Prix Frontiers of Science pour son article Algebraic renormalisation of regularity structures paru dans Inventiones Mathematicae. Félicitations à Lorenzo!


(Ces actualités sont présentées selon un classement mêlant priorité et aléatoire.)

Séminaire doctoral du LPSM
Lundi 9 décembre 2024, 17 heures 30, Jussieu, Salle Paul Lévy, 16-26 209
Paul Liautaud + Dounia Essaket (LPSM) Minimax Adaptive Boosting for Online Nonparametric Regression (P. Liautaud) + What's The Price Tag to Curb Carbon Emissions? (D. Essaket)

Paul Liautaud - Minimax Adaptive Boosting for Online Nonparametric Regression

In this talk, we will explore boosting in the context of adversarial online nonparametric regression with general convex losses. After a brief introduction to online learning, I will present a parameter-free online gradient boosting (OGB) algorithm and show that its application to chaining trees, achieves minimax optimal regret against Lipschitz functions. Although competing with nonparametric function classes is challenging, these classes often exhibit local patterns, such as local Lipschitzness, which online algorithms can leverage to enhance performance. By applying OGB over a core tree structure based on chaining trees, I will show how this approach effectively adapts to all prunings aligned with varying Lipschitz profiles, achieving optimal dependence on local regularities. As a result, this work introduces the first computationally efficient algorithm that attains locally adaptive optimal rates for online regression in adversarial settings. Link to the paper: https://arxiv.org/abs/2410.03363

Dounia Essaket - What's The Price Tag to Curb Carbon Emissions?

I will present a comprehensive analytical solution to the optimal control formulation of the carbon tax problem introduced by Golosov et al. (2014) within a central planning framework. Unlike the original approach, which relied on first-order necessary conditions, we derive the explicit value function. This refinement enhances rigor and completeness, while enabling direct computation of the carbon tax as the derivative of the value function—adjusted for Lagrangian constraints—with respect to atmospheric carbon stock. In contrast, Golosov et al. inferred the carbon tax indirectly by comparing the central planning problem with a decentralised equilibrium framework. Additionally, I will provide numerical applications to illustrate the insights this approach offers into the dynamics of optimal carbon taxation.

Séminaire de Probabilités
Mardi 10 décembre 2024, 14 heures, Jussieu, Salle Paul Lévy, 16-26 209
Loren Coquille (Université Grenoble Alpes) Glassyness of the Ising free state on regular trees

At low temperature, the free state of the Ising model is not extremal. On a lattice, it is a convex sum of the « plus » and the « minus » phases, while on a regular tree, its extremal decomposition is a continuous measure, supported on (uncountably many) inhomogeneous extremal states. I will present a proof of this result, which provides explicit concentration bounds on ”branch overlaps”, playing the role of an order parameter for typical extremals. This gives the free state a flavour of a spin glass.

(This is a joint work with Christof Külske (Bochum) and Arnaud Le Ny (Paris-Est Créteil))

Séminaire de Théorie Ergodique
Mardi 10 décembre 2024, 10 heures 30, Jussieu, Salle Paul Lévy, 16-26 209
Lucas Kaufmann (Institut Denis Poisson - Université d'Orléans) Vitesse d'équidistribution de points périodiques en dynamique polynomiale

Soit f:ℂ→ℂ une application polynomiale de degré d≥2. Nous montrons que les points périodiques de f de période n s'équidistribuent vers la mesure d'équilibre de f exponentiellement vite lorsque n tend vers l'infini. Ceci quantifie un théorème de Lyubich. Il s'agit d'un travail en commun avec T.-C. Dinh.

Séminaire sur les processus de Hawkes
Mardi 10 décembre 2024, 11 heures, Jussieu, Salle Emile Borel, 15-26 201
Manon Costa (IMT) Some limit theorem for inhibited Hawkes processes with finite memory.

In this talk, I will present some recent result on the long-time behaviour of inhibited Hawkes processes both in continuous and discrete time. In particular, we will stress the complex role of inhibition in the stability of Hawkes processes.

Séminaire Modélisation et Probabilités
Mercredi 11 décembre 2024, 14 heures 15, Sophie Germain 1013
Francesco Pedrotti (CEREMADE) Contractive coupling rates and curvature lower bounds for reversible Markov chains

Ricci curvature lower bounds for Riemannian manifolds have been linked to many functional inequalities: this has motivated the seminal independent works of Sturm and Lott and Villani, who extended the notion of curvature lower bound and many of its consequences to a large class of metric measure spaces. In spite of its generality, this theory does not apply to Markov chains on discrete spaces; for this reason, several adapted notions of curvature have been proposed, based on different equivalent characterizations of curvature of Riemannian manifolds. Different notions have different pros and cons: e.g., the entropic curvature of Erbar and Maas is hard to compute in some examples, while Ollivier’s coarse Ricci curvature does not imply a modified logarithmic Sobolev inequality. In the present work, adapting arguments of a recent article by Conforti, we show how contractive coupling rates (a concept naturally connected to Ollivier’s curvature) can be used to establish entropic curvature lower bounds for some examples of reversible Markov chains.

Soutenances de thèse
Mercredi 11 décembre 2024, 9 heures 30, salle Paul Lévy, 16-26 209 et visioconférence
Jean-David Jacques (LPSM) Structures algébriques relatives aux structures de régularités et au calcul stochastique

Résumé: L’objectif de cette thèse est de dévoiler des structures algébriques utiles pour la renormali- sation des equations aux dérivées partielles stochastiques, ainsi que pour l’étude des processus stochastique. Cette thèse est découpée en deux parties : • La première partie a pour objectif d’établir un cadre algebrique solide afin de construire une theorie des structures de régularités, inspirée par celle de F.Otto et co-auteurs [LOT23]. Nous commençons dans un premier temps par définir un cadre algébrique autour d’une algèbre post-Lie que nous définissons et que nous étudions. Dans un deuxième temps, nous appliquons les outils algébriques généraux développés afin de définir un espace de modèles et un groupe de structure adaptés à une certaine classe d’equations aux dérivées partielles stochastiques semi-linéaires. Cette partie est en partie issue d’un projet commun avec L.Zambotti et a donné naissance à un article: J.-D. Jacques and L. Zambotti. “Post-Lie algebras of derivations and regularity structures”. In: arXiv preprint arXiv:2306.02484 (2023). • La deuxième partie a pour objectif de donner un point de vue unificateur sur les récents développement dans l’étude algébrique des processus à temps discret ou continus. Nous commençons par une exploration des propriétés algébriques d’algèbres tridendriformes apparaissant dans l’études des processus stochastiques ou déterministes et provenant de différentes théories de l’integration. Nous calculons quelques formules combinatoires que nous appliquons ensuite à l’étude de la signature de chemins, ainsi que pour l’étude des moments et cumulants conditionnés (par le temps) dans le cadre d’un espace de probabilités filtré.

Mots-clés : Algèbres de Hopf, algèbres post-Lie, algèbres pre-Lie, algèbres tridendri- formes, structures de régularités, groupe de structure, chemins rugueux, signature d’intégrales itérées.

Soutenances de thèse
Mercredi 11 décembre 2024, 14 heures, salle Paul Lévy, 16-26 209 et visioconférence
Nicolas Bouchot (LPSM) Localisation de polymères en milieux aléatoires : obstacles de Bernoulli ou entrelacs aléatoires

Résumé: Ce manuscrit a pour objet des modèles de marches aléatoire contrainte par un environnement répulsif, lui-même aléatoire. L'objectif est d'obtenir une description en temps long de cette marche à travers des limites d'échelle ou des couplages avec des structures connues.

On considère dans une première partie un polymère en dimension une, que l'on place dans un champ d'obstacles de Bernoulli, qui est une version de la marche simple pénalisée par son volume. On montre une limite d'échelle pour les extrémités du polymère ainsi que pour les fluctuations de sa taille. On identifie ainsi une transition de phase entre un régime à fluctuations gaussiennes et un régime sans fluctuation. On abordera ensuite une généralisation de ce modèle, en considérant que les probabilités de présence d'obstacle sont des variables i.i.d. Un travail antérieur montre une limite d'échelle pour la taille du polymère. On montrera alors de nouveau une limite d'échelle pour les extrémités du polymère, ainsi que pour leurs fluctuations.

La seconde partie du manuscrit s'intéresse à un polymère de longueur t_N piégé dans un grand domaine D_N, de taille typique N. En le voyant comme une marche aléatoire piégée jusqu'à un temps t_N, on se propose d'en étudier la géométrie du polymère à l'intérieur de D_N, qui peut être modélisé par la marche confinée dans D_N : une marche sur conductances modélisant la marche simple conditionnée à toujours rester dans D_N. Les conductances sont données par phi_N le premier vecteur propre de Dirichlet du laplacien discret sur D_N. On montre que pour un sous-ensemble interne Lambda_N, la trace de la marche confinée peut être couplée pour coïncider avec un entrelac modifié par les conductances de la marche confinée sur Lambda_N. L'entrelac est un sous-ensemble aléatoire de Z^d, introduit par Sznitman, qui peut se voir comme une soupe de trajectoires de marches aléatoires dont la densité est contrôlée par un paramètre u > 0. Pour montrer ce couplage, nous étudions les propriétés de phi_N dans un travail co-écrit avec Quentin Berger, et obtenons des résultats utiles indépendamment de notre travail sur la marche confinée. En application de ces deux travaux, on montre une asymptotique pour le temps de recouvrement de Lambda_N par la marche confin

Soutenances de thèse
Jeudi 12 décembre 2024, 14 heures, Salle 1016 à Sophie Germain et visioconférence
Van Tuan Nguyen (LPSM) Integrating longitudinal data for enhanced survival analysis: methods and applications

Abstract: The increasing availability of longitudinal data offers significant opportunities to improve survival models by allowing dynamic updates to risk assessments over time. However, the integration of this data into survival models remains limited due to the complexity of longitudinal data, computational challenges posed by high-dimensional datasets, and difficulties in interpretation. This limitation creates a critical gap in the field, restricting the ability to make accurate and real-time predictions in situations where risk factors change over time. This thesis aims to bridge this gap by developing new frameworks for survival analysis that effectively incorporate censored survival data alongside multivariate longitudinal data. The first framework develops a new joint model where a key feature is the use of generic features extracted from the longitudinal data directly in the survival model. In addition, these generic features are independent of assumptions in the longitudinal model making it suitable for high-dimensional longitudinal markers. The second framework leverages recent advances in deep learning and differential equations to learn data-driven latent states, which are then used to model the intensity function of counting processes. These proposed methods demonstrate strong predictive performance in extensive real-time survival analysis experiments and are designed to be both user-friendly and scalable for high-dimensional problems. The practical application of these frameworks is illustrated through their use in churn prediction at Califrais. By effectively integrating customer order data, these models provide more accurate predictions of churn risk, allowing businesses to take proactive measures to retain customers. This research contributes to the field by providing advanced tools for survival analysis and establishes a foundation for further developments aimed at fully integrating longitudinal data into survival models in various applied domains.

Soutenances de thèse
Jeudi 12 décembre 2024, 9 heures, Salle 105, bâtiment Olympe de Gouges, Université Paris Cité
Xuanye Song (LPSM) Mean-field reinforcement learning in continuous time: theoretical and numerical aspects, and applications

Abstract: In this thesis, we conduct research on the reinforcement learning method to solve the mean-field control problem in continuous time, providing theoretical analysis and illustrating the results with numerical examples. This thesis contains five chapters.

In the first chapter, we study the Euler-Maruyama scheme to numerically solve the stochastic differential equation of the mean-field McKean-Vlasov type. We demonstrate the convergence of this numerical method and show the convergence rate under suitable conditions.

In the second chapter, we investigate the policy gradient method for the mean-field control problem in continuous time in a model-free setting, where the parameters of the model are not accessible. By considering randomized policies with entropy regularization, we derive a gradient expectation representation of the value function, which is amenable to actor-critic type algorithms, where the value functions and the policies are learned alternately based on observation samples of the stateand model-free estimation of the population state distribution. In the linear-quadratic mean-field framework, we obtain theoretical optimal solutions and provide an exact parameterization of the actor and critic functions defined on the Wasserstein space. Finally, we present some concrete examples and numerically test the algorithm to illustrate its performance.

In the third chapter, we study the policy gradient method for the mean-field control problem with common noise in continuous time, also in a model-free setting. The research in this chapter is from the perspective of a social planner who can directly observe the population state distribution. We derive a gradient expectation representation of the value function and design the actor-critic algorithms, where the value functions and policies are learned alternately based on direct observation samples of the population state distribution. We theoretically derive optimal solutions in the linear-quadratic case and provide an exact parameterization of the actor and critic functions defined on the Wasserstein space. As in the previous chapter, we illustrate the results of our algorithms with numerical examples.

In the last two chapters, we study the reinforcement learning methods for finding optimal policies in linear-quadratic mean-field control problems over an infinite horizon in continuous time, with common noise and entropy regularization. We first demonstrate convergence in a model-based setting by establishing a suitable gradient domination condition. Then, we provide a comprehensive error analysis, where we prove the global linear convergence and sample complexity of the policy gradient algorithm with two-point gradient estimates in a model-free setting with unknown parameters. In this setting, the parameterized optimal policies are learned from samples of the states and the population distribution. Finally, we provide numerical evidence supporting the convergence of our implemented algorithms

Les probas du vendredi
Vendredi 13 décembre 2024, 11 heures, Jussieu, Salle Paul Lévy, 16-26 209
Armand Riera (LPSM) Arbres markoviens autosimilaires

Le but de cet exposé est de présenter un travail récent, réalisé en collaboration avec Jean Bertoin et Nicolas Curien, où nous introduisons les arbres markoviens autosimilaires. Ces arbres constituent une famille remarquable d'arbres réels compacts aléatoires, décorés d'une fonction positive. Les arbres markoviens autosimilaires englobent une grande variété d'arbres aléatoires réels ayant été étudiés au cours des dernières décennies, tels que l'arbre brownien, les arbres de Lévy stables, les arbres de fragmentation et les arbres de croissance-fragmentation. Ils apparaissent également comme limites d'échelle de divers modèles combinatoires : excursion de marches aléatoires, arbres de Galton-Watson, cartes aléatoires (avec ou sans modèles de physique statistique), géométries hyperboliques aléatoires …

Cette présentation sera divisée en deux séances. Lors de la première séance, nous donnerons un aperçu général des grandes lignes de ce travail, ainsi que de ses différentes applications et motivations. Cette partie sera entièrement auto-contenue et ne nécessitera aucun prérequis. Lors de la deuxième séance, nous approfondirons certains aspects spécifiques, choisis au préalable par l'auditoire.

Séminaire de Probabilités
Mardi 17 décembre 2024, 14 heures, Jussieu, Salle Paul Lévy, 16-26 209
Nicolas Fournier (LPSM) A venir

Séminaire de statistique
Mardi 17 décembre 2024, 10 heures 45, Sophie Germain en salle 1016
Vincent Brault (LJK) Segmentation du “Parsimonious Oscillatory Model of Handwriting” et application à la détection d'enfants dysgraphiques

La maîtrise de l'écriture manuscrite reste essentielle pour une intégration réussie dans la société, mais elle repose sur un long processus d'apprentissage. Les troubles de l'écriture, appelés dysgraphies, peuvent donc avoir des conséquences graves, de la petite enfance à l'âge adulte. En France, la détection de ces troubles se fait généralement à l'aide du test Brave Handwriting Kinder (ou BHK ; voir voir Hamstra-Bletzet al. (1987) et son adaptation française par Charles et al. (2004))) consistant à faire écrire des enfants pendant 5 minutes et à faire évaluer ce texte selon 13 critères par un spécialiste en psychomotricité. L'un des inconvénients de cette procédure est qu'elle est longue et fastidieuse et qu'un certain nombre d'enfants peuvent ne pas être diagnostiqués.

Pour contourner ce problème, l'une des pistes explorée dans le cadre du post-doc de Yunjiao Lu est de s'appuyer sur le Parsimonious Oscillatory Model of Handwriting (ou modèle POMH ; voir André et al. (2014)) qui part du principe que l'écriture est le résultat de deux oscillateurs orthogonaux composés de fonctions constantes par morceaux. En trouvant les instants où les fonctions changent de valeurs, les auteurs reconstruisent les traces faites par les enfants. Dans son post-doc, Yunjiao Lu montre que l'estimation du nombre et des emplacements des ruptures dans ces fonctions influent sur la reconstruction et semblent varier suivant la qualité de l'écriture (voir Lu et al. (2022)) ; elle essaie notamment d'estimer l'influence des paramètres de filtrage sur l'aide à la prédiction d'un diagnostic de dysgraphie.

Dans cet exposé, nous étudierons une autre piste pour estimer les emplacements de ruptures. Après avoir exposé la problématique, nous montrerons que le modèle POMH peut être vu comme un modèle de segmentation où la programmation dynamique permet d'estimer les emplacements de ruptures. Nous démontrerons également que la forme particulière du modèle permet au maximum de vraisemblance d'être un estimateur consistant de l'emplacement mais surtout du nombre de ruptures. Nous terminerons par une étude de cette modélisation sur la détection de la dysgraphie.

Séminaire Modélisation et Probabilités
Mercredi 18 décembre 2024, 14 heures 15, Sophie Germain 1013
Matteo Tanzi (King's College London) Non encore annoncé.