Soutenances


PHD defences
Wednesday December 11, 2024, 9:30AM, salle Paul Lévy, 16-26 209 et visioconférence
Jean-David Jacques (LPSM) Structures algébriques relatives aux structures de régularités et au calcul stochastique

Résumé: L’objectif de cette thèse est de dévoiler des structures algébriques utiles pour la renormali- sation des equations aux dérivées partielles stochastiques, ainsi que pour l’étude des processus stochastique. Cette thèse est découpée en deux parties : • La première partie a pour objectif d’établir un cadre algebrique solide afin de construire une theorie des structures de régularités, inspirée par celle de F.Otto et co-auteurs [LOT23]. Nous commençons dans un premier temps par définir un cadre algébrique autour d’une algèbre post-Lie que nous définissons et que nous étudions. Dans un deuxième temps, nous appliquons les outils algébriques généraux développés afin de définir un espace de modèles et un groupe de structure adaptés à une certaine classe d’equations aux dérivées partielles stochastiques semi-linéaires. Cette partie est en partie issue d’un projet commun avec L.Zambotti et a donné naissance à un article: J.-D. Jacques and L. Zambotti. “Post-Lie algebras of derivations and regularity structures”. In: arXiv preprint arXiv:2306.02484 (2023). • La deuxième partie a pour objectif de donner un point de vue unificateur sur les récents développement dans l’étude algébrique des processus à temps discret ou continus. Nous commençons par une exploration des propriétés algébriques d’algèbres tridendriformes apparaissant dans l’études des processus stochastiques ou déterministes et provenant de différentes théories de l’integration. Nous calculons quelques formules combinatoires que nous appliquons ensuite à l’étude de la signature de chemins, ainsi que pour l’étude des moments et cumulants conditionnés (par le temps) dans le cadre d’un espace de probabilités filtré.

Mots-clés : Algèbres de Hopf, algèbres post-Lie, algèbres pre-Lie, algèbres tridendri- formes, structures de régularités, groupe de structure, chemins rugueux, signature d’intégrales itérées.

Lien Zoom :

https://zoom.us/j/94725065550?pwd=TFvcDcxfFwaaoVX8PiHAI5NcUCli7R.1

PHD defences
Wednesday December 11, 2024, 2PM, salle Paul Lévy, 16-26 209 et visioconférence
Nicolas Bouchot (LPSM) Localisation de polymères en milieux aléatoires : obstacles de Bernoulli ou entrelacs aléatoires

Résumé: Ce manuscrit a pour objet des modèles de marches aléatoire contrainte par un environnement répulsif, lui-même aléatoire. L'objectif est d'obtenir une description en temps long de cette marche à travers des limites d'échelle ou des couplages avec des structures connues.

On considère dans une première partie un polymère en dimension une, que l'on place dans un champ d'obstacles de Bernoulli, qui est une version de la marche simple pénalisée par son volume. On montre une limite d'échelle pour les extrémités du polymère ainsi que pour les fluctuations de sa taille. On identifie ainsi une transition de phase entre un régime à fluctuations gaussiennes et un régime sans fluctuation. On abordera ensuite une généralisation de ce modèle, en considérant que les probabilités de présence d'obstacle sont des variables i.i.d. Un travail antérieur montre une limite d'échelle pour la taille du polymère. On montrera alors de nouveau une limite d'échelle pour les extrémités du polymère, ainsi que pour leurs fluctuations.

La seconde partie du manuscrit s'intéresse à un polymère de longueur t_N piégé dans un grand domaine D_N, de taille typique N. En le voyant comme une marche aléatoire piégée jusqu'à un temps t_N, on se propose d'en étudier la géométrie du polymère à l'intérieur de D_N, qui peut être modélisé par la marche confinée dans D_N : une marche sur conductances modélisant la marche simple conditionnée à toujours rester dans D_N. Les conductances sont données par phi_N le premier vecteur propre de Dirichlet du laplacien discret sur D_N. On montre que pour un sous-ensemble interne Lambda_N, la trace de la marche confinée peut être couplée pour coïncider avec un entrelac modifié par les conductances de la marche confinée sur Lambda_N. L'entrelac est un sous-ensemble aléatoire de Z^d, introduit par Sznitman, qui peut se voir comme une soupe de trajectoires de marches aléatoires dont la densité est contrôlée par un paramètre u > 0. Pour montrer ce couplage, nous étudions les propriétés de phi_N dans un travail co-écrit avec Quentin Berger, et obtenons des résultats utiles indépendamment de notre travail sur la marche confinée. En application de ces deux travaux, on montre une asymptotique pour le temps de recouvrement de Lambda_N par la marche confin

PHD defences
Thursday December 12, 2024, 2PM, Salle 1016 à Sophie Germain et visioconférence
Van Tuan Nguyen (LPSM) Integrating longitudinal data for enhanced survival analysis: methods and applications

Abstract: The increasing availability of longitudinal data offers significant opportunities to improve survival models by allowing dynamic updates to risk assessments over time. However, the integration of this data into survival models remains limited due to the complexity of longitudinal data, computational challenges posed by high-dimensional datasets, and difficulties in interpretation. This limitation creates a critical gap in the field, restricting the ability to make accurate and real-time predictions in situations where risk factors change over time. This thesis aims to bridge this gap by developing new frameworks for survival analysis that effectively incorporate censored survival data alongside multivariate longitudinal data. The first framework develops a new joint model where a key feature is the use of generic features extracted from the longitudinal data directly in the survival model. In addition, these generic features are independent of assumptions in the longitudinal model making it suitable for high-dimensional longitudinal markers. The second framework leverages recent advances in deep learning and differential equations to learn data-driven latent states, which are then used to model the intensity function of counting processes. These proposed methods demonstrate strong predictive performance in extensive real-time survival analysis experiments and are designed to be both user-friendly and scalable for high-dimensional problems. The practical application of these frameworks is illustrated through their use in churn prediction at Califrais. By effectively integrating customer order data, these models provide more accurate predictions of churn risk, allowing businesses to take proactive measures to retain customers. This research contributes to the field by providing advanced tools for survival analysis and establishes a foundation for further developments aimed at fully integrating longitudinal data into survival models in various applied domains.

Lien Zoom :

https://u-paris.zoom.us/j/85721101757?pwd=bjKQxVMLLpe26yvqAkypTfnY3Pg1aB.1

ID: 857 2110 1757 Mot de passe: 791378

PHD defences
Thursday December 12, 2024, 9AM, Salle 105, bâtiment Olympe de Gouges, Université Paris Cité
Xuanye Song (LPSM) Mean-field reinforcement learning in continuous time: theoretical and numerical aspects, and applications

Abstract: In this thesis, we conduct research on the reinforcement learning method to solve the mean-field control problem in continuous time, providing theoretical analysis and illustrating the results with numerical examples. This thesis contains five chapters.

In the first chapter, we study the Euler-Maruyama scheme to numerically solve the stochastic differential equation of the mean-field McKean-Vlasov type. We demonstrate the convergence of this numerical method and show the convergence rate under suitable conditions.

In the second chapter, we investigate the policy gradient method for the mean-field control problem in continuous time in a model-free setting, where the parameters of the model are not accessible. By considering randomized policies with entropy regularization, we derive a gradient expectation representation of the value function, which is amenable to actor-critic type algorithms, where the value functions and the policies are learned alternately based on observation samples of the stateand model-free estimation of the population state distribution. In the linear-quadratic mean-field framework, we obtain theoretical optimal solutions and provide an exact parameterization of the actor and critic functions defined on the Wasserstein space. Finally, we present some concrete examples and numerically test the algorithm to illustrate its performance.

In the third chapter, we study the policy gradient method for the mean-field control problem with common noise in continuous time, also in a model-free setting. The research in this chapter is from the perspective of a social planner who can directly observe the population state distribution. We derive a gradient expectation representation of the value function and design the actor-critic algorithms, where the value functions and policies are learned alternately based on direct observation samples of the population state distribution. We theoretically derive optimal solutions in the linear-quadratic case and provide an exact parameterization of the actor and critic functions defined on the Wasserstein space. As in the previous chapter, we illustrate the results of our algorithms with numerical examples.

In the last two chapters, we study the reinforcement learning methods for finding optimal policies in linear-quadratic mean-field control problems over an infinite horizon in continuous time, with common noise and entropy regularization. We first demonstrate convergence in a model-based setting by establishing a suitable gradient domination condition. Then, we provide a comprehensive error analysis, where we prove the global linear convergence and sample complexity of the policy gradient algorithm with two-point gradient estimates in a model-free setting with unknown parameters. In this setting, the parameterized optimal policies are learned from samples of the states and the population distribution. Finally, we provide numerical evidence supporting the convergence of our implemented algorithms



Year 2024

PHD defences
Tuesday December 3, 2024, 2PM, 15-16 201 et visioconférence
Guillaume Boutoille (LPSM) La quantification optimale par des divergences de Bregman et applications industrielles

Résumé: Cette thèse a été réalisée dans le cadre d’une convention de collaboration CIFRE entre le LPSM et l'entreprise Fotonower. Motivés par des problématiques industrielles comme la labellisation automatique de photos, les travaux réalisés partent sur l'étude des propriétés des quantifieurs optimaux d'une distribution où la mesure de dissimilarité est une divergence de Bregman induite par une fonction convexe F. Dans le cas où la fonction F est une distance Euclidienne au carré, on retombe dans le cadre d'une quantification Euclidienne standard et on retrouve des propriétés largement étudiées. Le choix des divergences de Bregman est en parti motivé par le fait qu'elles apparaissent naturellement dans le cadre d'un clustering où la distribution source est un mélange de lois de la famille exponnentielle. Dans un premier temps nous établissons les propriétés fondamentales d'existence et de caractérisations des quantifieurs optimaux avec la divergences de Bregman. Nous établissons de nouveaux résultats d’existence de quantifieurs optimaux sous des hypothèses un peu relaxées sur la fonction $F$ (à travers sa divergence de Bregman) par rapport à la littérature existante. Par la suite, nous reprenons des résultats de type “Zador”, étudiant le comportement asymptotique de l'erreur de quantification lorsque le niveau de quantification tend vers l'infini, pour l'étendre au cas des champs matricielles positifs et au cas des divergences de Bregman. Cela nous permet de retrouver la vitesse de convergence fine attendu pour les quantifieur asymptotiquement optimaux. Puis nous exposons les théorèmes compagnons qui découlent du théorème de “Zador” pour les divergences de Bregman et montrent la convergence de mesures empiriques associées aux quantifieurs optimaux permettant de reconstruire la distribution source. Nous proposons un algorithme de Lloyd adapté à la divergence de Bregman dont nous établissions la convergence sous certaines hypothèses. Enfin, nous présentons les résultats obtenus de cet algorithme de clustering avec différentes divergences de Bregman sur différents projets de classification semi-supervisés d’images et proposons une analyse de ses performances au vu des objectifs fixés.

PHD defences
Thursday November 14, 2024, 10AM, Salle 1013, Sophie Germain
Lionel Sopgoui (LPSM) Pricing and Hedging of Transition Risk in Credit Portfolio

Résumé: L'objectif de cette thèse est d'étudier l'impact de la transition climatique sur les portefeuilles de crédit. Il s'agit précisément de calculer, quand on introduit le prix du carbone dans une économie, les déformations des mesures de risques d'un portefeuille de crédits. Ces derniers peuvent être garantis ou non garantis. Ils sont contractés par des entreprises appartenant à une économie organisée en secteurs, dirigée par une productivité dynamique et stochastique, et soumise à la transition climatique modélisée à l'aide d'un processus dynamique et déterministe représentant le prix du carbone. La principale nouveauté de notre approche est que nous proposons une méthodologie de bout en bout, partant d'un scénario de transition modélisation par le prix du carbone, jusqu'à l'impact sur différentes mesures de risque de crédit. Elle est divisée en trois chapitres. Dans le premier chapitre, nous modélisons l'environnement économique dans lequel opèrent les entreprises d'un portefeuille de crédits supposés tous non collatéralisés. Dans cet Dans le deuxième chapitre, nous utilisons la méthode Discounted Cash Flow (DCF) pour déterminer la valeur des firmes opérant dans l'économie décrite précédemment. Nous utilisons ensuite cette valeur dans un modèle structurel de crédit. Cela nous permet de calculer différentes mesures de risques d'un portefeuille de crédits. Dans le troisième chapitre, nous travaillons en temps continu. Le problème est le même, mais les prêts peuvent être garantis. Les mesures de risques dépendent par conséquent de la valeur des garanties qui subissent, de même que les entreprises prêteuses, la transition climatique. Nous proposons dans ce contexte une modélisation de deux exemples de garanties: l'une mobilière (un actif financier) et l'autre matérielle (un bien immobilier).

Abstract: The objective of this thesis is to quantify the impact of climate transition on credit portfolios. It is specifically about calculating, when introducing the carbon price into an economy, the distortions in the risk measures of a credit portfolio. They are contracted by firms belonging to an economy divided in sectors, driven by a dynamic and stochastic productivity (modelled as a vector autoregressive process or a multidimensional Ornstein-Uhlenbeck process), and subject to climate transition modeled using a dynamic and deterministic process representing the carbon price. The main contribution of our approach is that we propose an end-to-end methodology, starting from a transition scenario modeled by the carbon price, to the impact on different credit risk measures. It is divided into three chapters. In the first chapter, we model the economic environment in which the companies of a portfolio of credits, all assumed unsecured, operate. In the second chapter, we use the Discounted Cash Flow (DCF) method to determine the value of firms operating in the previously described economy. We then use this value into a structural credit model. This allows us to calculate different risk measures of a credit portfolio: the probability of default of each firm, as well as the expected and unexpected losses. In the third chapter, we work in continuous time. The problem remains the same, but the loans can be secured. Consequently, the risk measures depend on the value of the collateral, which, like the lending companies, undergoes the climate transition. In this context, we propose modeling two examples of collateral: one financial asset and one real estate property.

PHD defences
Tuesday November 12, 2024, 9:30AM, Salle Paul Lévy, 16-26 209 et visioconférence
Miguel Martinez Herrera (LPSM) Inférence des processus de Hawkes non-linéaires ou à observations imparfaites

Résumé: Le processus ponctuel de Hawkes est un outil statistique très répandu pour analyser des dynamiques temporelles. Les applications modernes des processus de Hawkes proposent des extensions du modèle initial pour prendre en compte certaines caractéristiques spécifiques à chaque domaine d'étude, ce qui complexifie les tâches d'inférence. Dans cette thèse, nous proposons différentes contributions à l'estimation paramétrique de deux variantes du processus de Hawkes dans les cadres univarié et multivarié. Motivée par la modélisation d'interactions complexes au sein d'une population de neurones, notre première étude porte sur la prise en compte conjointe d'effets excitateurs et inhibiteurs entre les signaux émis par les neurones au cours du temps, modélisés par un processus de Hawkes non-linéaire. Dans ce modèle, nous obtenons une expression explicite de la log-vraisemblance qui nous permet d'implémenter une procédure de maximum de vraisemblance. Nous établissons également une méthode de sélection de modèle qui fournit notamment une estimation du réseau d'interactions dans le cadre multivarié. La deuxième partie de cette thèse est consacrée à l'étude des processus de Hawkes bruités par deux types d'altérations : l'ajout ou la suppression de certains points. Le manque d'information lié à ces mécanismes de bruit rend les méthodes classiques d'inférence non-applicables ou numériquement coûteuses. Notre solution consiste à s'appuyer sur l'analyse spectrale des processus ponctuels afin d'établir un estimateur obtenu en maximisant la log-vraisemblance spectrale. Nous obtenons l'expression des densités spectrales des processus bruités et, après avoir établi des conditions d'identifiabilité pour nos différents modèles, nous montrons que cette méthode d'inférence ne nécessite pas de connaître la structure du bruit, contournant ainsi le problème d'estimation. Notre étude sur les processus bruités donne accès à une méthode de sous-échantillonnage qui nous permet d'améliorer les approches d'estimation en introduisant un paramètre de pénalisation. Nous illustrons la performance des différentes méthodes proposées à travers des implémentations numériques reproductibles.

Abstract: The Hawkes point process is a popular statistical tool to analyse temporal patterns. Modern applications propose extensions of this model to account for specificities in each field of study, which in turn complexifies the task of inference. In this thesis, we advance different approaches for the parametric estimation of two submodels of the Hawkes process in univariate and multivariate settings. Motivated by the modelling of complex neuronal interactions observed from spike train data, our first study focuses on accounting for both inhibition and excitation effects between neurons, modelled by the non-linear Hawkes process. We derive a closed-form expression of the log-likelihood in order to implement a maximum likelihood procedure. As a consequence of our approach, we gain access to a goodness-of-fit scheme allowing us to establish ad hoc model selection methods to estimate the interaction network in the multivariate setting. The second part of this thesis focuses on studying Hawkes process data noised by two different alterations: adding or removing points. The absence of knowledge on the noise dynamics makes classical inference procedures intractable or computationally expensive. Our solution is to leverage the spectral analysis of point processes to establish an estimator obtained by maximising the spectral log-likelihood. By deriving the spectral densities of the noised processes and by establishing identifiability conditions on our model, we show that the spectral inference method does not necessitate any information on the structure of the noise, effectively circumventing this issue. An additional result of the study of Hawkes processes with missing points is that it gives access to a subsampling paradigm to enhance the estimation methods by introducing a penalisation parameter. We illustrate the efficiency of all of our methods through reproducible numerical implementations.

PHD defences
Tuesday October 8, 2024, 10AM, 15-25 104 et Zoom
Alexis Ayme (LPSM) Supervised learning with missing values: a non-asymptotic point of view

Abstract: Missing values are common in most real-world data sets due to the combination of multiple sources and inherently missing information, such as sensor failures or unanswered survey questions. The presence of missing values often prevents the application of standard learning algorithms. This thesis examines missing values in a prediction context, aiming to achieve accurate predictions despite the occurrence of missing data in both training and test datasets.

The focus of this thesis is to theoretically analyze specific algorithms to obtain finite-sample guarantees. We derive minimax lower bounds on the excess risk of linear predictions in presence of missing values. Such lower bounds depend on the distribution of the missing pattern, and can grow exponentially with the dimension. We propose a very simple method consisting in applying Least-Square procedure on the most frequent missing patterns only. Such a simple method turns out to be near minimax-optimal procedure, which departs from the Least-Square algorithm applied to all missing patterns. Following this, we explore the impute-then-regress method, where imputation is performed using the naive zero imputation, and the regression step is carried out via linear models, whose parameters are learned via stochastic gradient descent. We demonstrate that this very simple method offers strong finite-sample guarantees in high-dimensional settings. Specifically, we show that the bias of this method is lower than the bias of ridge regression. As ridge regression is often used in high dimensions, this proves that the bias of missing data (via zero imputation) is negligible in some high-dimensional settings. These findings are illustrated using random features models, which help us to precisely understand the role of dimensionality. Finally, we study different algorithm to handle linear classification in presence of missing data (logistic regression, perceptron, LDA). We prove that LDA is the only model that can be valid for both complete and missing data for some generic settings.

PHD defences
Thursday September 19, 2024, 9AM, 16-26 113
Arsen Sultanov (LPSM) Generative Model-Based Exploration of Chemical Space for Crystals

Abstract: Machine learning is a powerful tool for approximating and partially replacing resource-intensive computations. It is known to play an important role in modern materials science and especially in materials design. In this work, we develop and employ generative machine learning approaches as a means to find new potentially stable crystal structures. As our main contribution we develop a model that is capable of generating new crystals with predefined symmetries and composition. We also propose an algorithm that chooses the best symmetry constraints given a chemical composition. We then illustrate the proposed methods on some chemical systems of interest, showcasing its potential uses in practical tasks.

PHD defences
Monday September 9, 2024, 2PM, Salle Paul Lévy, 16-26 209
Nikolai Kuchumov (LPSM) Limit shapes of the dimer model in multiply-connected domains

Abstract: This thesis consists of three parts, the goal of the first part is to study random domino tilings of a multiply-connected domain with a height function defined on the universal covering space of the domain. We establish a large deviation principle for the height function in two asymptotic regimes. The first regime covers all domino tilings of the domain. A law of large numbers for height change in this regime will also be derived. The second regime covers domino tilings with a given asymptotic height change. The second part of thesis is an extension of the first part. We prove the existence of a limit shape for the dimer model on planar periodic bipartite graphs with an arbitrary fundamental domain and arbitrary periodic weights. The third part is devoted to computation of the arctic curve of the multiply-connected Aztec diamond in two regimes. The first regime, called an unconstrained case, corresponds to the uniform measure on a set of domino tilings. The second regime, constrained case, puts a condition on the height change of domino tilings.

PHD defences
Friday July 12, 2024, 9AM, 15-25 102
Camila Fernandez (LPSM) Contributions and applications to survival analysis

Résumé: L’analyse de survie a suscité l’intérêt de diverses disciplines, allant de la médecine et de la maintenance prédictive à diverses applications industrielles. Sa popularité croissante peut être attribuée aux avancées significatives en matière de puissance de calcul et à la disponibilité accrue des données. Des approches variées ont été développées pour répondre au défi des données censurées, allant des outils statistiques classiques aux techniques contemporaines d’apprentissage automatique. Cependant, il reste encore une marge considérable pour l’amélioration. Cette thèse vise à introduire des approches innovantes qui fournissent des insights plus profonds sur les distributions de survie et à proposer de nouvelles méthodes avec des garanties théoriques qui améliorent la précision des prédictions. Il est notamment remarquable de constater l’absence de modèles capables de traiter les données séquentielles, une configuration pertinente en raison de sa capacité à s’adapter rapidement à de nouvelles informations et de son efficacité à gérer de grands flux de données sans nécessiter d’importantes ressources mémoire. La première contribution de cette thèse est de proposer un cadre théorique pour la modélisation des données de survie en ligne. Nous modélisons la fonction de risque comme une exponentielle paramétrique qui dépend des covariables, et nous utilisons des algorithmes d’optimisation convexe en ligne pour optimiser la vraisemblance de notre modèle, une approche qui est novatrice dans ce domaine. Nous proposons un nouvel algorithme adaptatif de second ordre, SurvONS, qui assure une robustesse dans la sélection des hyperparamètres tout en maintenant des bornes de regret rapides. De plus, nous introduisons une approche stochastique qui améliore les propriétés de convexité pour atteindre des taux de convergence plus rapides. La deuxième contribution de cette thèse est de fournir une comparaison détaillée de divers modèles de survie, incluant les modèles semi-paramétriques, paramétriques et ceux basés sur l’apprentissage automatique. Nous étudions les caractéristiques des ensembles de données qui influencent la performance des méthodes, et nous proposons une procédure d’agrégation qui améliore la précision et la robustesse des prédictions. Enfin, nous appliquons les différentes approches discutées tout au long de la thèse à une étude de cas industrielle : la prédiction de l’attrition des employés, un problème fondamental dans le monde des affaires moderne. De plus, nous étudions l’impact des caractéristiques des employés sur les prédictions d’attrition en utilisant l’importance des caractéristiques par permutation et les valeurs de Shapley.

Abstract: Survival analysis has attracted interest from a wide range of disciplines, spanning from medicine and predictive maintenance to various industrial applications. Its growing popularity can be attributed to significant advancements in computational power and the increased availability of data. Diverse approaches have been developed to address the challenge of censored data, from classical statistical tools to contemporary machine learning techniques. However, there is still considerable room for improvement. This thesis aims to introduce innovative approaches that provide deeper insights into survival distributions and to propose new methods with theoretical guarantees that enhance prediction accuracy. Notably, we notice the lack of models able to treat sequential data, a setting that is relevant due to its ability to adapt quickly to new information and its efficiency in handling large data streams without requiring significant memory resources. The first contribution of this thesis is to propose a theoretical framework for modeling online survival data. We model the hazard function as a parametric exponential that depends on the covariates, and we use online convex optimization algorithms to minimize the negative log-likelihood of our model, an approach that is novel in this field. We propose a new adaptive second-order algorithm, SurvONS, which ensures robustness in hyperparameter selection while maintaining fast regret bounds. Additionally, we introduce a stochastic approach that enhances the convexity properties to achieve faster convergence rates. The second contribution of this thesis is to provide a detailed comparison of diverse survival models, including semi-parametric, parametric, and machine learning models. We study the dataset characteristics that influence the methods performance, and we propose an aggregation procedure that enhances prediction accuracy and robustness. Finally, we apply the different approaches discussed throughout the thesis to an industrial case study: predicting employee attrition, a fundamental issue in modern business. Additionally, we study the impact of employee characteristics on attrition predictions using permutation feature importance and Shapley values.

PHD defences
Monday July 1, 2024, 2:30PM, Salle Paul Lévy, 16-26 209
Francesco Bonacina (LPSM) Advanced statistical approaches for the global analysis of influenza virus circulation

Abstract: The mitigation of human Influenza remains a challenge due to the complexities characterizing its spread. Multiple types and subtypes of influenza viruses co-circulate globally, with a dynamic characterized by annual epidemics and occasional shifts due to major epidemiological events. This thesis develops statistical tools to study some key aspects of influenza spatiotemporal ecological dynamics, proposing unconventional approaches in epidemiology. The analyses are based on data from FluNet, a comprehensive dataset provided by the World Health Organization that includes weekly counts of influenza samples from over 150 countries, categorized by type and subtype. The first two research projects included in the thesis have an applied focus, while the third study is theoretically oriented, although it includes an application to influenza surveillance data. The first study examines the decline of influenza during the COVID-19 pandemic, assessing the magnitude of the decline by country globally and using regression tree-based techniques to identify country-level factors associated with the decline. The second study examines the coupled dynamics of influenza (sub)types, focusing on their relative abundance across countries and years through the lens of Compositional Data Analysis. It provides evidence of the changes in (sub)type mixing during the COVID-19 pandemic and develops probabilistic forecasting algorithms to predict (sub)type composition one year in advance. The third study formulates a conditional copula model to describe the dependencies of multivariate data conditionally upon certain covariates. The asymptotic consistency of the model is then investigated. Finally, the model is used to classify countries and years characterized by similar dependencies in the relative abundances of influenza (sub)types.

PHD defences
Monday May 13, 2024, 2PM, Salle Paul Lévy, 16-26 209 et Zoom
Lucas Ducrot (LPSM) Réseaux bayésiens et analyse de survie pour l’estimation de courbes de pénétrance du cancer broncho-pulmonaire lié à des prédispositions génétiques

Résumé: Cette thèse se concentre sur l’estimation de courbes de pénétrance de maladies génétiques à partir de données de pédigrée, avec un intérêt particulier pour la prédisposition génétique au cancer broncho-pulmonaire. Dans ce contexte, elle vise à proposer des résultats à la fois cliniques et épidémiologiques ainsi que des résultats méthodologiques.

Les consultations en génétique sont proposées aux patients ayant des antécédents familiaux sévères de maladies génétiques. Les médecins généticiens doivent sélectionner, parmi ces patients, lesquels se voient proposer un test génétique, ainsi qu’évaluer les risques de survenue de maladie pour ces patients et leurs familles. La progression des connaissances en génétique est rapide et le nombre de variants pathogènes identifiés pour différentes maladies augmentent chaque année. Cela entraîne un besoin d’outils de prédiction et d’évaluation de risque important, en particulier dans le cadre du cancer broncho-pulmonaire. En effet, les liens entre ce dernier et des variants pathogènes sur les gènes SFTPA1 /SFTPA2 , TP53 et EGFR sont connus mais encore peu décrits.

Les méthodes existantes pour évaluer le risque de survenue de maladies reposent sur les courbes de pénétrance, mais leur estimation présente des défis en raison du faible nombre de patients et du biais de sélection omniprésent dans les jeux de données collectés en génétique. Pour surmonter ces obstacles, la thèse explore l’utilisation de données familiales, en utilisant un ensemble d’outils statistiques dont les réseaux bayésiens, les modèles de mélange et l’analyse de survie, ainsi que des modèles existants, pour lesquels elle tente d’affaiblir certaines hypothèses.


Year 2023

PHD defences
Friday December 15, 2023, 2PM, Salle Paul Lévy, 16-26 209 et Zoom
Emilien Bodiot (LPSM) Conditions aux bords pour les champs gaussiens markoviens discrets : une approche opéradique

Résumé: Les chaînes de Markov ont le bon goût de se réduire à de l'algèbre linéaire. En effet, les lois de ces champs unidimensionnels sont localement données par leurs matrices de transition et leurs conditions aux bords par des vecteurs. La mesure invariante d'une chaîne de Markov correspond au vecteur propre de Perron-Frobenius de sa matrice de transition. De tels ponts entre probabilités et algèbre n'existent pas dans la littérature pour les champs markoviens en plus grandes dimensions. Les récents travaux de D. Simon comblent ce manque et proposent une description algébrique des bords invariants pour les champs markoviens discrets sur le réseau carré Z^2. Cette théorie s'accompagne d'objets algébriques nouveaux, encore peu compris et qui n'ont pas encore été mis en évidence dans le cadre d'une application non triviale. Dans ce manuscrit, l'objectif est d'exhiber et de comprendre ces structures dans le cas particulier des champs gaussiens markoviens sur le réseau carré Z^2. Ce faisant, nous donnons une description algébrique des bords invariants pour de tels champs, qui constituent la brique de base de nombreux modèles en théorie des champs, motivant ainsi le présent travail. Ce manuscrit est naturellement divisé en deux parties.

Dans un premier temps, nous nous intéressons au cas unidimensionnel des champs gaussiens markoviens sur Z. Nous décomposons les conditions aux bords invariantes dans une base non triviale issue de l'étude précise des singularités d'une fonction méromorphe \Psi à valeurs matricielles. Cet apport s'accompagne d'un algorithme simple permettant le calcul explicite des conditions aux bords invariantes. Nous en profitons pour montrer que, sous ces conditions aux bords, nous retrouvons les quantités d'intérêt habituellement calculées par transformée de Fourier (énergie libre, fonction de corrélation et autres). Par ailleurs, nous appliquons nos résultats pour obtenir une version “invariante” du théorème limite de Szegő dans le cas simple des polynômes trigonométriques à valeurs matricielles.

Dans un second travail, mené conjointement avec D. Simon, nous abordons le cas des champs gaussiens markoviens sur le réseau carré Z^2 et exhibons de nouveaux objets et structures de bord, qui constituent le premier exemple non trivial de la théorie développée par D. Simon. Pour ce faire, nous bâtissons des outils originaux, dont cette récente théorie est dépourvue. Ces approches sont basées sur des techniques classiques de mécanique statistique et de calcul gaussien mais aussi sur des méthodes nouvelles. En particulier, nous revisitons la très classique matrice de transfert, objet unidimensionnel, que nous adaptons pour produire tous les objets purement bidimensionnels introduits par D. Simon. Les constructions opéradiques de D. Simon sont ici réalisées sur des espaces de formes quadratiques par l'intermédiaire de compléments de Schur. Nous montrons que tous ces objets vérifient des équations de type “vecteurs propres” à des morphismes d'opérade près, assurant que, une fois recombinés, ces objets constituent bien le bord invariant recherché pour nos champs gaussiens.

Abstract: Markov chains reduce to linear algebra. Indeed, the laws of these one-dimensional fields are locally given by their transition matrices and their boundary conditions by vectors. In particular, one knows that the invariant measure associated to a Markov chain corresponds to the Perron-Frobenius eigenvector of its transition matrix. Such bridges between probability theory and algebra don't exist in the literature for higher dimensional Markov fields. The work of D. Simon fills this gap by proposing an algebraic description of invariant boundary conditions associated to discrete Markov fields defined on the square lattice Z^2. This theory comes with new algebraic objects which have not been constructed on any non trivial model yet. In the present manuscript, the main objective is to exhibit and understand these structures in the particular case of Gaussian Markov fields on the lattice Z^2. By doing so, we give an algebraic description of invariant boundary conditions for such fields. This thesis is naturally divided into two parts.

We start by focusing on one-dimensional Gaussian Markov fields on Z. We decompose invariant boundary conditions in a non trivial basis obtained from the precise study of a meromorphic and matrix-valued function \Psi. This brings a simple algorithm for computing explicitly the invariant boundary conditions. Moreover, under these boundary conditions, we show that we recover the values of classical quantities of interest, such as free energy or correlation function, generally computed using Fourier transform. As a little application, we give an “invariant” version of the Szegő's limit theorem in the simple case of matrix-valued trigonometric polynomials.

Secondly, in a joint work with D. Simon, we study the case of Gaussian Markov fields on the square lattice Z^2 and exhibit new objects and boundary structures for Gaussian fields. It is the very first non trivial example for the theory introduced by D. Simon. To do so, we give new tools, missing in the theory. These approaches are based on classical tools from statistical mechanics and Gaussian calculus but also from original methods. For instance, we adapt the so-called transfer matrix, a one-dimensional object, to produce all the two-dimensional objects introduced by D. Simon. In this context, operadic constructions of D. Simon are given by Schur complements on quadratic forms spaces. We show that these objects verify “eigenvector-type” equations up to an operadic morphism. This ensures that, once being combined, they produce the desired invariant boundary associated to our Gaussian fields.

PHD defences
Thursday December 14, 2023, 2:30PM, Salle Paul Lévy, 16-26 209
Benjamin Bonnefont (LPSM) Champs gaussiens hiérarchiques et mesures de Gibbs

Résumé: Ce travail est consacré à l’étude des processus branchants gaussiens et leur lien avec une classe de modèle en physique statistique appelés champs gaussiens hiérarchiques.

Le premier chapitre est dédié à l’étude de l’overlap à deux températures lorsque les énergies sont données par les positions des particules d’un mouvement brownien branchant. On montre notamment que l’overlap à deux températures surcritiques diffère du cas indépendant (Random Energy Model) -différence que l’on n’observe pas à une seule température- en établissant une inégalité stricte entre leurs valeurs moyennes.

Le deuxième chapitre est issu d’un travail en commun avec Michel Pain et Olivier Zindy. Nous prolongeons l’analyse des effets des processus de décoration sur l’overlap à deux températures dans l’esprit de Derrida et Mottishaw [44] et sur la susceptibilité en température. Nous montrons qu’au voisinage de la température critique, l’overlap moyen a un comportement plus régulier que son homologue indépendant. Nous étab- lissons également des estimées fines concernant le comportement de la susceptibilité au voisinage de la température critique.

Enfin, le dernier chapitre est l’exposé d’un travail avec Vincent Vargas qui concerne la martingale dérivée sous-critique de la marche aléatoire branchante binaire gaussienne et dans lequel nous répondons à la conjecture [72, Conjecture 1] dans le cadre d’un champ gaussien hiérarchique. Nous obtenons des estimées précises sur le comportement de la queue à gauche de leur distribution dans la phase dite L4.

Abstract: This work is devoted to the study of Gaussian branching processes and their link with a class of models in statistical physics, called hierarchical Gaussian fields.

The first chapter is dedicated to the study of the overlap at two temperatures when the energies are given by the positions of the particles in a branching Brownian motion. In particular, it is shown that the over- lap at two supercritical temperatures differs from the independent case (Random Energy Model) - a difference not observed at a single temperature - by establishing a strict inequality between their mean values.

The second chapter is the result of a joint work with Michel Pain and Olivier Zindy. We extend our analysis of the repercussions of the dec- oration processes on two-temperature overlaps in the spirit of Derrida and Mottishaw [44] and temperature susceptibility. We show that in the vicinity of the critical temperature, the average overlap behaves more regularly than its independent counterpart. We also establish fine esti- mates on the behavior of the susceptibility in the vicinity of the critical temperature.

Finally, in the last chapter, we present a joint work with Vincent Vargas on the subcritical derivative martingale of the binary Gaussian branching random walk and in which we answer the conjecture [72, Conjecture 1] in the framework of a hierarchical Gaussian field. There, we obtain precise estimates of the behavior of the left tail of their distribution in the so-called L4 phase.

PHD defences
Tuesday December 12, 2023, 2PM, Visioconférence Zoom
Ibrahim Merad (LPSM) Algorithmes robustes et autres contributions à l'apprentissage statistique

Résumé: Cette thèse traite d’aspects théoriques et méthodologiques de l’apprentissage automatique. Cette discipline a trouvé de nombreuses applications grâce aux grandes quantités de données disponibles. Cependant, des constats empiriques suggèrent souvent des distributions à queue lourde et de la corruption dans les jeux de données ce qui pourrait compromettre les performances des modèles. Ceci a motivé le développement de la statistique robuste qui cherche des méthodes plus fiables sous des hypothèses affaiblies sur les données. Nous présentons des algorithmes d’apprentissage efficaces et robustes avec une analyse théorique établissant la convergence de leur optimisation et les propriétés statistiques de leurs estimateurs. La première contribution propose d’utiliser la descente de gradient par coordonnées (CGD) avec estimation robuste des dérivées partielles pour effectuer de l’apprentissage robuste. Cela permet d’éviter les calculs coûteux liés à l’estimation de moyenne vectorielle robuste grâce à des estimateurs scalaires. Le procédé obtenu est robuste aux queues lourdes et à la corruption comme attesté par les bornes d’erreur de généralisation établies pour des fonctions convexes et gradient-Lipschitz. De plus, le surplus de calcul est minime vu que la complexité est la même que les méthodes non robustes. Nous proposons une implémentation efficace dans la librairie Python linlearn et confirmons les avantages de CGD robuste à travers des expériences numériques. La seconde contribution traite le cas en haute dimension où l’optimisation se fait par méthode non-Euclidienne. Nous développons un cadre d’apprentissage en haute dimension adapté à plusieurs fonctions objectif qui utilise des méthodes d’estimation de gradient robustes adaptées aux métriques non-Euclidiennes spécifiques à chaque problème. Dans le cas de l’estimation éparse standard, on obtient un algorithme efficace et fortement robuste. En plus de l’analyse théorique établissant ces propriétés, nous implémentons cet algorithme dans la librairie linlearn et confirmons ses performances à travers des expériences sur données réelles. La contribution suivante apporte une solution pour les flux de données où les échantillons ne sont accessibles qu’individuellement et séquentiellement. Nous proposons un algorithme SGD tronqué pour l’optimisation stochastique utilisant comme seuils des quantiles de norme de gradient. Grâce à des outils de chaînes de Markov, nous prouvons que l’itération est robuste aux queues lourdes et aux données corrompues et qu’elle converge vers une distribution limite concentrée autour d’un optimum. Dans un autre chapitre, nous utilisons des outils similaires pour étudier les propriétés de convergence et concentration de l’itération SGD classique. En particulier, nous obtenons une borne de concentration non asymptotique pour les moyennes de Polyak-Ruppert. Nos contributions comprennent également un nouvel algorithme de forêt aléatoire appelé WildWood. Ce dernier ajoute un mécanisme d’agrégation par arbre utilisant les échantillons bootstrap pour calculer une prédiction moyenne sur les sous-arbres. Ce calcul est précis et efficace grâce à l’algorithme de context tree weighting. Un résultat théorique montre que cette agrégation permet d’approcher la performance du meilleur sous-arbre. Nous proposons une implémentation efficace dans la librairie Python wildwood et montrons expérimentalement sa compétitivité avec des méthodes d’ensemble connues comme les forêts aléatoires standards et les algorithmes de boosting. Enfin, nous présentons un algorithme non Bayésien efficace pour la régression logistique en ligne qui peut atteindre le regret optimal et fournissons une analyse préliminaire pour ce dernier.

Abstract: This thesis deals with theoretical and methodological aspects of machine learning. This discipline has found numerous applications thanks to the availability of vast amounts of data. However, empirical evidence suggests that heavy-tailed distributions and corruption can often emerge in training datasets and may compromise the performances of machine learning models. This has motivated the development of robust statistics which seek more dependable methods when data assumptions are weakened. In this thesis, we propose computationally efficient robust learning algorithms and back them up with theoretical analyses establishing their optimization convergence and the statistical properties of their estimates. In our first contribution, we propose to use coordinate gradient descent (CGD) with robust scalar estimators of the partial derivatives in order to perform robust learning. This allows to avoid the computational cost of robust vector mean estimation by using only scalar estimates. The resulting procedure is robust to heavy-tails and corruption as attested by the generalization error bounds we show for smooth convex objectives. Moreover, computational overhead is minimal since the complexity is the same as non robust methods. We efficiently implement this method in a Python library called linlearn and confirm the advantages of robust CGD through extensive numerical experiments. Our next contribution deals with robust learning in the high-dimensional setting where optimization is carried out using non-Euclidean methods. We develop a robust high-dimensional learning framework suitable for smooth and non-smooth objectives which uses robust gradient estimation methods tailored to problem-specific non-Euclidean metrics. For the particular case of Vanilla sparse estimation, we obtain an efficient solution algorithm with strong robustness properties. Besides the theoretical analysis establishing these properties, we implement this algorithm in the linlearn library and demonstrate its performance through experiments on real data. The third contribution brings a solution for the streaming data setting where samples are only seen once in a sequential fashion. We propose a clipped SGD algorithm for stochastic optimization using gradient norm quantiles as thresholds. Using Markov chain tools, we prove that the iteration is robust to heavy tails and corrupted data and converges to a limit distribution concentrated around an optimum. In another chapter, we leverage similar tools to study the convergence and concentration properties of standard SGD. In particular, we obtain a non asymptotic concentration bound for Polyak-Ruppert averaging of a tail SGD sequence. Our contributions also include a new random forest algorithm called WildWood. The latter adds an aggregation mechanism within each tree of a forest which uses out-of-bag samples to compute average predictions over all subtrees. This computation is precise and efficient thanks to the context tree weighting algorithm. As we show theoretically, this allows to nearly match the performance of the best subtree. We propose an efficient implementation in the Python library wildwood and experimentally demonstrate the algorithm’s competitiveness with popular ensemble methods such as classical random forests and boosting algorithms. Finally, we present an efficient non Bayesian algorithm for online logistic regression which may achieve optimal regret and provide a preliminary analysis for it.

PHD defences
Tuesday December 12, 2023, 2PM, 15-16-201 et Zoom
Bastien Chassagnol (LPSM) Application de modèles de convolution et de mélange gaussiens pour l'identification des biomarqueurs clés sous-jacents à la variabilité des profils transcriptomiques et à la diversité des réponses thérapeutiques

Résumé: La diversité des phénotypes et des conditions observées au sein de l'espèce humaine est le résultat de multiples processus biologiques interdépendants. Cependant, dans le contexte de la médecine personnalisée et du traitement de maladies de plus en plus complexes, systématiques et hétérogènes, il est crucial de développer des approches qui capturent de manière exhaustive la complexité des mécanismes biologiques sous-jacents à la variabilité des profils biologiques. Cela s'étend du niveau individuel au niveau cellulaire, englobant les tissus et les organes. Une telle précision et une telle granularité sont essentielles pour que les cliniciens, les biologistes et les statisticiens comprennent les causes sous-jacentes de la diversité des réponses aux traitements cliniques et puissent prédire d'éventuels effets indésirables. Afin d'aborder de manière exhaustive la complexité hiérarchique et stratifiée des systèmes biologiques, nous avons considéré deux niveaux d'étude dans ce manuscrit. Au niveau de granularité le plus bas, nous examinons les processus conduisant aux variations observées ans les profils d'expression transcriptomiques entre individus. Notamment, pour tenir compte de la variabilité non expliquée observée entre patients affectés par la même maladie, nous introduisons une variable latente discrète. Pour identifier les sous-groupes non observés, dépendant de cette variable cachée, nous utilisons des modèles de mélange paramétriques. Plus précisément, nous supposerons que chaque profil transcriptomique peut être décrit à partir d'une distribution gaussienne multivariée, dont les paramètres ne peuvent pas être directement estimés dans la population générale. Ensuite, nous nous intéressons à un niveau de granularité plus détaillé, en passant en revue les méthodes canoniques permettant d'estimer la composition de tissus hétérogènes. En particulier, nous présenterons une méthode originale de déconvolution cellulaire, nommé « DeCovarT ». Cette dernière permet notamment une meilleure caractérisation des populations cellulaires fortement corrélées, en intégrant les réseaux de co-expression spécifiques de chaque type cellulaire purifié, et modélisées par le biais de matrices de précision creuses.

Abstract: The diversity of phenotypes and conditions observed across human organisms results from multiple interdependent biological processes. However, within the context of personalized medicine and the treatment of increasingly complex, and multi-faceted diseases, it is crucial to develop approaches that comprehensively capture the complexity of the biological mechanisms underlying variability in biological profiles. This extends from the individual to the cellular level, encompassing tissues and organs. Such precision and granularity are indeed essential for clinicians, and statisticians to understand the underlying causes of diverse responses to clinical treatments and to predict potential adverse effects. To comprehensively address the hierarchical and stratified complexity of biological systems, we considered two levels of resolution in this manuscript. At the lowest granularity level, we examine the processes leading to variations observed in transcriptomic expression profiles among individuals. To account for unexplained variability observed among patients affected by the same disease, we introduce a discrete latent variable, modelled by parametric mixture models. Specifically, we assume that each transcriptomic profile can be described using a multivariate Gaussian distribution, whose parameters cannot be directly estimated in the general population. Subsequently, we delve into a more detailed level of granularity by reviewing canonical methods for estimating the composition of heterogeneous tissues. We present an original, standalone method for cell deconvolution called 'DeCovarT', applied to bulk transcriptomic profiles. This method notably allows for a better characterization of strongly correlated cell populations by integrating co-expression networks specific to each purified cell type, modeled through sparse precision matrices.

PHD defences
Monday December 4, 2023, 2PM, 15-16 201 et visioconférence
Sébastien Farkas (LPSM) Mathématiques appliquées à l'assurance des risques numériques

Résumé: L’émergence des produits d’assurance couvrant les risques numériques s’accompagne d’interrogations relatives à la maîtrise des engagements souscrits par les organismes d’assurance. La volatilité des coûts, la dépendance entre les garanties et les potentielles accumulations de sinistres sont autant de spécificités que nous considérons pour proposer des modèles mathématiques adaptés aux enjeux. Nous introduisons d’abord des arbres de régression permettant de comprendre l’hétérogénéité des queues de distribution des risques. Ensuite, nous étudions l’estimation de copules dans un contexte de données censurées pour préciser l’impact des interactions entre les garanties sur les engagements globaux. Enfin, nous proposons une analyse de la fréquence des sinistres numériques par des processus ponctuels adaptés aux phénomènes d’accumulation. Nos contributions suggèrent des méthodes d’analyse pour la souscription, le provisionnement et la gestion des risques numériques.

PHD defences
Thursday November 30, 2023, 10AM, Salle Paul Lévy, 16-26 209 et Zoom
Iqraa Meah (LPSM) Controlling false discovery proportion in structured data sets

Abstract: The present work proposes new methodologies for controlling the False Discovery Proportion (FDP) while accommodating different types of data structures arising from the underlying scientific context. Since the seminal work of Benjamini and Hochberg (1995) (BH) introducing the FDP, multiple testing procedures have found widespread applications across diverse domains. The BH procedure has facilitated the identification of significant variables within large data sets, providing insights to scientific questions in fields such as biology, medicine, or marketing research, by ensuring guarantees on the proportion of false discoveries. However, the BH procedure has several limitations, among which e.g. the fact that it is most effective for uniform p-values under the null; it is developed within a batch framework requiring simultaneous availability of all p-values; the false discoveries control guarantee is only in expectation. These limitations can lead to a range of unfavorable outcomes – spanning from reduced interpretability, loss of statistical power, to potential inflation of the Type I error rate – particularly in contexts where we perceive the data as possessing inherent “structure.” This work aims to push back those limits by providing new procedures and methodologies that adapt to settings where p-values can be discrete, online, preordered, or weighted. This ultimately gives the practitioner more effective tools for identifying significant variables in structured data sets as we illustrate in various numerical experiments.

PHD defences
Monday November 20, 2023, 2PM, Amphithéâtre 55A, Campus Pierre et Marie Curie et Zoom
Antonio Ocello (LPSM) Dynamic optimisation of branching diffusion processes

Chères âmes, amis et connaissances,
C'est votre Antonio, sans complaisance.
Durant ces années, j'ai inondé vos boîtes mail,
Avec des spams, des histoires sans faille.


Si vous vous souvenez de mes randonnées passées,
Alors aujourd'hui, soyez préparés,
Car je viens en paix, sans aucun remords,
Pour révéler enfin la raison de mon effort.

Mon doctorat, il est temps de le partager,
Une invitation, je vous la fais parvenir.
Le 20 novembre à 14 heures , soyez au rendez-vous,
À l' amphi 55A , campus de Jussieu.

Ma thèse, un titre long mais plein de sens,
“ Dynamic optimisation of branching diffusion processes ,”
Le contrôle stochastique, la clé de l'énigme,
Sur les systèmes de particules, ma thèse déprime.

Je vous implore, soyez là pour moi ce jour-là,
Pour écouter mes mots, même avec mon accent étrange,
Promis, des récompenses vous attendent après,
Mais seulement si vous endurez mon italien qui dérange.

Alors réservez la date, n'ayez pas peur,
On parlera de population, de contrôle et de bonheur.
Une discussion captivante, je vous le garantis,
Et un pot convivial pour célébrer avec vos amis.

J'attends votre présence avec impatience,
Pour partager ce moment de science.
R.S.V.P. pour que je puisse vous compter,
À ma thèse, soyez prêts à assister !

Hey there, folks, it's your Antonio in your inbox once more,
Three years of Ph.D. spam, you could not ignore!
For my faithful readers, you maybe recall my past hikes,
But now, a chance for newbies, no need for dislikes.

Today, I'm breaking the norm, so let's be clear,
Revealing why I'm here, with no more spam to fear.
I'm thrilled to announce, it's a day of celebration,
On November 20th , in Amphi 55A , no hesitation!

Join me at 2 PM , Jussieu's campus is the place,
To discuss my thesis, let's embrace this space.
The title's a mouthful, but don't be perplexed,
“ Dynamic optimization of branching diffusion ,” I'm vexed!

Stochastic Control's lens on particle systems we'll explore,
And scaling limits, I promise, won't be a bore.
I hope to see you there, in the crowd so bright,
Sharing this cherished moment, feels just right!

Great rewards await, a potluck, you see,
But only for those who can endure listening to me.
Chatting 'bout optimal control, expanding populations,
In my typical Italian accent, no hesitations!

Mark the date, save the time, and RSVP,
Let's make this day unforgettable, just you and me.
For science, laughs, and a celebration so grand,
Together we'll conquer, hand in hand!

PHD defences
Monday November 20, 2023, 5:30PM, Salle Paul Lévy, 16-26 209 et Zoom
Pierre Marion (LPSM) Mathematics of deep learning: generalization, optimization, continuous-time models

PHD defences
Wednesday November 8, 2023, 2PM, Salle Paul Lévy, 16-26 209
Sara Rejeb (LPSM) Méthodes d’apprentissage statistique pour l’analyse de données de production et de performances des moteurs d’avion

Résumé: Le processus de fabrication de pièces de moteurs turbofan génère des dérogations dues à des dépassements de côtes en fonderie, tissage ou en usinage. Ces dépassements entraînent la nécessité de pratiquer quasi systématiquement des mesures de métrologie lentes et coûteuses. L’objectif principal de la thèse est l’analyse statistique des données de production et des performances des moteurs d’avion afin de détecter et anticiper au plus tôt des dérives de production à risque. On cherche notamment à comprendre l’impact des différentes caractéristiques géométriques des pièces moteurs sur les performances. Différentes méthodes d’apprentissage statistique sont proposées afin de modéliser au mieux les performances moteurs tenant en compte des spécificités des données. La première partie de la thèse est consacrée à l’exploration et à la visualisation des données partiellement observées. Nous proposons une adaptation des cartes auto-organisatrices pour des données incomplètes qui vise à optimiser simultanément la carte et l’imputation des valeurs manquantes. L’algorithme missSOM proposé améliore la qualité de la carte auto-organisatrice et la représentation des données partiellement observées. La deuxième partie de la thèse est dédiée à la modélisation statistique des performances moteurs à partir de la production des pièces. Une étude et une comparaison de plusieurs modèles d’apprentissage statistiques sont réalisées et révèlent de fortes dépendances liées aux conditions d’essais et à la production des pièces moteurs. La troisième partie de la thèse traite la présence de données manquantes dans un outil d’analyse d’influence qui vise à identifier les principales causes d’une dérive de production. Il s’agit d’étudier l’impact des données manquantes sur les résultats d’analyse d’influence. Différentes approches sont considérées afin d’adapter l’outil aux données incomplètes et sont évaluées selon plusieurs scénarios.

PHD defences
Monday November 6, 2023, 2:30PM, Salle Paul Lévy, 16-26 209 et Zoom
Robin Khanfir (LPSM) Limites d’échelle de marches branchantes critiques à valeurs dans des arbres, et du nombre de Horton-Strahler d’arbres de Galton-Watson

Résumé: Dans cette thèse, on étudie des phénomènes discrets de branchement aléatoire et on cherche à les mettre en relation avec des structures métriques fractales continues. Les arbres de Galton-Watson, qui décrivent l’histoire généalogique d’une population asexuée dont les individus se reproduisent sous la même loi et indépendamment les uns des autres, constituent notre modèle principal.

Dans un premier temps, on se consacre à l’étude d’une marche aléatoire (dite biaisée critique) sur un arbre infini (appelé l’environnement) et indexée par un arbre de Galton-Watson critique conditionné à être grand (appelé la généalogie). On suppose que la loi de reproduction de la généalogie est dans le domaine d’attraction d’une loi stable d’indice α ∈ (1, 2]. On traite d’une part du cas où l’environnement est un arbre régulier enraciné, et d’autre part du cas où il s’agit d’un arbre de Galton-Watson sur-critique modifié de façon à être de profondeur infinie. Sous une certaine hypothèse de moments pour l’environnement, on montre que le nombre de points visités par la marche croît linéairement, et à vitesse déterministe, en fonction de la taille de la généalogie lorsque cette dernière tend vers l’infini. En outre, on prouve que le sous-arbre des points visités par la marche branchante admet une limite d’échelle. Auparavant introduit dans le contexte de l’étude des cartes planaires aléatoire, cet espace métrique limite est le cactus brownien (réfléchi) avec mécanisme de branchement α-stable. La comparaison de cette étude nouvelle avec les travaux antérieurs sur les marches aléatoires indexées par le temps ou à valeurs dans un réseau euclidien illustre l’influence des branchements de la généalogie et de l’environnement.

Dans un second temps, on s’intéresse à la complexité de branchement des arbres de Galton-Watson en étudiant leurs nombres de Horton-Strahler. Cet outil combinatoire, aussi appelé fonction de registre, a été originellement introduit en hydrogéologie mais a été redécouvert et appliqué par de nombreuses autres disciplines scientifiques par la suite. Ici, on donne un équivalent asymptotique déterministe du nombre de Horton-Strahler d’un arbre de Galton-Watson critique conditionné par la taille et dont la loi de reproduction est dans le domaine d’attraction d’une loi stable d’indice α ∈ [1, 2]. Cette estimation ne dépend que de α lorsque α ̸= 1, mais les cas α = 1 sont modèle-dépendants et sujets à des comportements plus complexes. On examine ensuite les fluctuations du nombre de Horton-Strahler chez la famille spécifique des arbres de Galton-Watson stables, qui contient l’arbre de Galton-Watson critique binaire. On est alors amené à introduire une variante continue du nombre de Horton-Strahler, et on montre que celle-ci converge après recentrage vers une caractéristique métrique de la limite d’échelle des arbres. On étudie les propriétés de cette quantité nouvelle qui joue le rôle d’un analogue du nombre de Horton-Strahler pour les arbres continus.

Abstract: In this thesis, we study discrete random branching phenomena and seek to relate them to continuum fractal metric structures. Galton-Watson trees, which describe the genealogical history of an asexual population whose individuals reproduce under the same law and independently of each other, are our main model.

In the first part, we focus on the study of a random walk (said critical biased) on an infinite tree (called the environment) and indexed by a critical Galton-Watson tree conditioned to be large (called the genealogy). The offspring distribution of the genealogy is assumed to be in the domain of attraction of a stable law of index α ∈ (1, 2]. We both consider the case where the environment is a regular rooted tree and the case where it is a supercritical Galton-Watson tree modified to have an infinite depth. Under some hypothesis of moments for the environment, we show that the number of points visited by the random walk grows linearly, and at a deterministic speed, with respect to the size of the genealogy when the latter tends to infinity. Furthermore, we prove that the subtree of points visited by the branching random walk admits a scaling limit. Previously introduced in the context of the study of random planar maps, this limit metric space is the (reflected) Brownian cactus with α-stable branching mechanism. Comparison of this new study with earlier work about random walks indexed by a linear time or taking values in a Euclidean lattice illustrates the influence of the branching nature of the genealogy and the environment.

In the second part, we study the branching complexity of Galton-Watson trees by considering their Horton-Strahler numbers. This combinatorial tool, also known as the register function, was originally introduced in hydrogeology but was subsequently rediscovered and applied by many other scientific disciplines. Here, we give a deterministic asymptotic equivalent of the Horton-Strahler number of a size-conditioned critical Galton-Watson tree whose offspring distribution is in the domain of attraction of a stable law of index α ∈ [1, 2]. This estimate depends only on α when α ̸= 1, but the α = 1 cases are model-dependent and subject to more complex behaviors. We then examine the fluctuations of the Horton-Strahler number for the specific family of stable Galton-Watson trees, which contains the binary critical Galton-Watson tree. To do so, we introduce a continuous variant of the Horton-Strahler number that converges after recentering towards a metric characteristic of the scaling limit of the trees. We study the properties of this new quantity, which acts as a continuum analog of the Horton-Strahler number.

PHD defences
Friday October 20, 2023, 3PM, 15-25 102 et Zoom
Ludovic Arnould (LPSM) When Random Forests Meet Neural Networks - A finite sample analysis

In essence, this Ph.D. strives to fathom the crossroads of traditional tree-based methods and modern neural architectures, exploring potential synergies, benefits, and theoretical underpinnings from a statistical perspective. The theoretical setting is generally that of non-parametric regression with finite samples. Two pieces of work (Chapters 2 and 3) involve the Deep Forest algorithm (DF, Zhou et al. 2017), which stacks Random Forests (RF) in a Neural Network (NN) fashion. We theoretically analyse the benefit of stacking trees in a simplified DF architecture (Chapter 2), while numerically we use pre-trained DF, among other tree-based methods, to initialize NN training and thereby boost their performances (Chapter 3).

In a further development, we examine the behaviour of RF algorithms in the interpolation regime, thus extending the study of interpolating estimators (such as neural networks and kernel methods) to random forests. Rates of convergence are established for interpolating median RF, and the influence of interpolation on the prediction performances is also measured through the volume of the interpolation zone, characterized for interpolating Breiman forests (Chapter 4).

Finally, we present an ongoing implementation work consisting in training neural networks with different objectives inspired from the PAC-Bayes framework in order to reach faster optimisation and better generalisation performances.

PHD defences
Wednesday October 18, 2023, 2PM, Salle 15-25-104 et Zoom
Loïc Béthencourt (LPSM) Limite de diffusion fractionnaire et problème de persistance

Résumé: Les travaux de cette thèse portent sur l’étude asymptotique de certaines fonctionnelles de processus de Markov. Plus précisément, on s’intéresse à deux types de problèmes : (i) établir des limites d’échelles et (ii) étudier asymptotiquement des probabilités de persistance , encore appelées probabilités de survie . Ce travail est divisé en cinq parties.

Dans un premier temps, nous établissons un théorème central limite α-stable pour des fonctionnelles additives de diffusions unidimensionnelles. Le cas des fluctuations gaussiennes est un problème classique et de nombreux résultats existent à ce sujet. Mais de manière surprenante, très peu de résultats concernent les limites d’échelles α-stable, pour α ∈ (0, 2).

Dans un second travail en commun avec Quentin Berger et Camille Tardif, nous nous intéressons au problème de persistance pour des fonctionnelles additives de processus de Markov, i.e. nous caractérisons asymptotiquement la probabilité que cette fonctionnelle reste en dessous d’un certain niveau jusqu’au temps t. Divers résultats y sont établis. Lorsque le processus de Markov sous-jacent est récurrent positif, nous donnons une condition nécessaire et suffisante pour que la probabilité de persistance soit à variations régulières. Lorsque le processus est récurrent nul, il nous faut des hypothèses supplémentaires pour établir le comportement asymptotique. Ces hypothèses étant un peu abstraites, nous les simplifions ensuite pour une sous-classe de processus appelés diffusions généralisées . Ceci nous amène dans une dernière partie à établir l’asymptotique de la queue de probabilité du temps de retour en zéro de la fonctionnelle, ce qui nous permet de construire la fonctionnelle additive conditionnée à rester négative.

Dans un troisième temps, nous étudions la limite d’échelle d’un modèle cinétique de Fokker-Planck avec conditions de bord diffusives. Plus précisément, on considère une particule qui vit dans [0,\infty) dont la vitesse est une diffusion récurrente positive ayant une mesure invariante à queues lourdes lorsque la particule est strictement positive. Quand la particule touche la frontière x = 0, elle en ressort instantanément avec une vitesse strictement positive tirée aléatoirement selon une mesure de probabilité sur (0, \infty). Nous montrons que pour la particule réfléchie, la limite d’échelle est un processus α-stable réfléchi sur son infimum.

Dans un quatrième travail en commun avec Quentin Berger, nous revisitons le théorème de Sparre Andersen pour des variables aléatoires échangeables et invariantes par signe. Nous utilisons ensuite ce résultat pour obtenir des bornes sur des probabilités de persistance de certaines chaînes de Markov intégrées.

Enfin, dans une dernière partie, nous revisitons les résultats du Chapitre 1 concernant les limites d’échelles de fonctionnelles additives en utilisant les outils introduits dans les Chapitres 2 et 3.

PHD defences
Friday September 29, 2023, 2PM, Salle Paul Lévy, 16-26 209
Ariane Marandon (LPSM) Contributions to reliable machine learning via false discovery rate control

Abstract: The reliability of machine learning (ML) methods is critical in contexts that involve high-stakes decisions. However, while ML methods have achieved impressive results in a wide range of applications, none of them are able to provide a small error guarantee in any situation. Since models cannot be perfect, they should at least “know that they do not know”. While there have been many efforts in the literature to address this issue, whether in the field of probability calibration, or prediction sets, these solutions are not satisfactory when an actual decision is required. By contrast, a key to keeping the error rate (or risk) below a certain threshold is to make use of a type of abstention option, which amounts to abstain from making a decision when there is too much uncertainty. The goal of this thesis is to propose new methods for risk control, i.e. for keeping the risk below a certain user-specified threshold α, in several learning tasks: novelty detection, clustering and link prediction. Our general idea is to enhance the best existing ML methods by developing an additional layer on top of them that provides an interpretable guarantee on the error rate. This is achieved by formalizing risk control in a certain task as a type of false discovery rate (FDR) control problem, and by using tools from the multiple testing literature on FDR control. Our methods can be seen as wrappers that take as input an off-the-shelf ML technique, designed for a certain learning task, and return a set of decisions such that the FDR is controlled.

PHD defences
Thursday September 28, 2023, 3PM, Salle Paul Lévy, 16-26 209
Yazid Janati (LPSM) Monte Carlo methods for Machine Learning: practical and theoretical contributions for Importance Sampling and sequential methods

PHD defences
Friday September 22, 2023, 1:30PM, Salle 0010, Campus Paris Rive Gauche
Aaraona Rakotoarivony (LPSM) Quelques applications du contrôle stochastique au problème de financement des entreprises

Résumé: Cette thèse se situe au carrefour de la théorie des options réelles, de l'évaluation des options et du contrôle stochastique.Nous nous concentrons sur l'extension du théorème de Modigliani Miller et ses liens avec le modèle de gestion de trésorerie dont l'étude a été initiée par Jeanblanc al. et Shreve al. Dans leur article fondateur, Modigliani et Miller (MM) ont démontré que dans un monde sans friction, les décisions des entreprises telles que la politique de dividendes (1961) ou la structure du capital (1968) ne sont pas pertinentes: elles n'affectent pas la valeur des capitaux propres des actionnaires. Nous organisons le travail de la manière suivante, tout d'abord, nous considérons le problème de la structure du capital du point de vue du gestionnaire. Nous considérons un problème dans lequel le gestionnaire choisit entre l'émission de dettes ou de capitaux propres pour financer l'entreprise. Lorsque l'entreprise n'est pas en difficulté, le gestionnaire peut émettre des dividendes pour récompenser les actionnaires ou réduire l'encours de la dette, réduisant ainsi le montant payé au titre des intérêts sur la dette. On a pris le soin de distinguer les actifs de l'entreprise : les immobilisations et les réserves de trésorerie, et ses passifs : les dettes et les capitaux propres. En particulier, la détresse financière de l'entreprise peut être de nature structurelle ou être due à un manque de liquidité. Dans notre modèle, la maximisation des capitaux propres donne lieu à problème de contrôle stochastique singulier bidimensionnel non classique. Nous abordons le problème à l'aide de la théorie de la viscosité et fournirons une illustration numérique de nos résultats. Ensuite, nous nous concentrons sur l'évaluation de l'impact du sursis supplémentaire accordé aux entreprises en difficulté. Selon le code des faillites américain, une entreprise qui dépose son bilan peut demander la liquidation en vertu de l'article 7 ou protéger ses actifs des débiteurs en vertu de l'article 11. Une législation similaire est également courante dans les codes des faillites d'autres pays, comme la France et le Royaume-Uni : France, Royaume-Uni. En vertu de l'article 11, l'entreprise est autorisée à poursuivre ses activités pendant un certain temps, déterminé par un arbitre, afin de se réorganiser et de revenir à une situation financière stable. Nous présentons notre problème comme un problème de contrôle singulier. Nous soulignons la ressemblance de la fonction de valeur avec les options parisiennes, entre autres, cette ressemblance nous permet de dériver une formule explicite pour le cas d'un mouvement brownien avec dérive. Nous illustrons nos résultats par des simulations numériques approfondies.Enfin, nous considérons le problème de la politique optimale de dividendes et d'investissement en présence d'un cycleéconomique suivant une chaîne de Markov. L'innovation vient ici de la modélisation du processus d'investissement. Nous supposons que les opportunités d'investissement sont financées par l'émission de dettes. Cependant, ces propositions sont incertaines dans le sens où elles ne se produisent qu'à des moments aléatoires. Le gestionnaire a le droit mais pas l'obligation d'accepter ces opportunités d'investissement, ce qui a un impact sur le profil de risque et la structure du capital de l'entreprise. Ce problème donne lieu à un contrôle stochastique bidimensionnel d'une diffusion avec sauts.

Abstract: This thesis lies at the crossroads of real options theory, option pricing, and stochastic control. We focus on the extension of Modigliani Miller's theorem and its links with the cash management model whose study was initiated by Jeanblanc al. and Shreve al. In their seminal paper, Modigliani and Miller (MM) demonstrated that in a frictionless world, corporate decisions such as dividend policy (1961) or capital structure (1968) are irrelevant: they do not affect the value of shareholders' equity. We organize our work as follows: first, we consider the problem of capital structure from the manager's point of view. We consider a problem in which the manager chooses between issuing debt or equity to finance the firm. When the company is not in difficulty, the manager may issue dividends to reward shareholders, or reduce the amount of debt outstanding, thereby reducing the amount paid in interest on the debt. Care has been taken to distinguish between the company's assets: fixed assets and cash reserves, and its liabilities: debts, and shareholders' equity. In particular, the company's financial distress may be structural in nature or due to a lack of liquidity. In our model, equity maximization gives rise to a non-classical two-dimensional singular stochastic control problem. We approach the problem using viscosity theory and provide a numerical illustration of our results. Next, we focus on assessing the impact of the additional reprieve granted to distressed companies. Under the US Bankruptcy Code, a company filing for bankruptcy can file for liquidation under Section 7 or protect its assets from debtors under Section 11. Similar legislation is also common in the bankruptcy codes of other countries, such as France and the United Kingdom: France, United Kingdom. Under Article 11, the company is allowed to continue its activities for a certain period of time, determined by a referee, in order to reorganize and return to a stable financial situation. We present our problem as a singular control problem. We emphasize the similarity of the value function to Parisian options, among other things. This similarity enables us to derive an explicit formula for the case of Brownian motion with drift. Finally, we consider the problem of optimal dividend and investment policy in the presence of a Markov chain business cycle. The innovation here comes from the modeling of the investment process. We assume that investment opportunities are financed by issuing debt. However, these proposals are uncertain in the sense that they only occur at random times. The manager has the right but not the obligation to accept these investment opportunities, which have an impact on the company's risk profile and capital structure. This problem gives rise to a two-dimensional stochastic control of diffusion with jumps.

PHD defences
Monday September 11, 2023, 2PM, Salle 15-25 102 (campus Pierre et Marie Curie)
Pierre Bras (LPSM) Algorithmes adaptatifs de Langevin Monte Carlo pour l'optimisation stochastique et l'inférence Bayésienne

Résumé: Nous étudions les algorithmes adaptatifs de descente de gradient par dynamique de Langevin (SGLD) pour résoudre des problèmes d'optimisation et d'inférence. Les algorithmes SGLD consistent en une descente de gradient avec ajout de bruit exogène dans le but d'échapper aux minima locaux et points selle. Contrairement à l'équation différentielle stochastique de Langevin classique, nous nous concentrons sur le cas où le bruit exogène est adaptatif i.e. non constant et dépend de la position de la procédure. Dans une première partie, nous prouvons la convergence de ces algorithmes pour la distance de Wasserstein $L^1$ et pour la distance de la variation totale. Dans une seconde partie nous appliquons les algorithmes SGLD à des problèmes d'optimisation et d'inférence apparaîssant en apprentissage machine et en probabilités numériques et nous introduisons l'algorithme de Langevin par couches. Une dernière partie est consacrée à la simulation numérique de processus stochastiques.

Abstract: This thesis focuses on adaptive Stochastic Gradient Langevin Dynamics (SGLD) algorithms to solve optimization and Bayesian inference problems. SGLD algorithms consist in a stochastic gradient descent with exogenous noise added in order to escape local minima and saddle points. Contrary to the classic Langevin Stochastic Differential Equation, we study the case where the exogenous noise is adaptive i.e. not constant but depends on the position of the procedure. In a first part we prove the convergence of SGLD algorithms for the $L^1$-Wasserstein distance and for the Total Variation distance. In a second part we apply SGLD algorithms to optimization and inference problems arising in Machine Learning and in Numerical Probability and we introduce the Layer Langevin algorithm. A last part is devoted to the numerical simulation of stochastic processes.

PHD defences
Thursday June 29, 2023, 2PM, Salle Paul Lévy, 16-26 209 et Zoom
Yoan Tardy (LPSM) Etude des modèles stochastique et déterministe de Keller-Segel

Résumé: Dans cette thèse, nous étudions le modèle de Keller-Segel : à la fois l’EDP et le système de particules. Ce modèle a attiré beaucoup d’attention à cause du phénomène de compétition étroite entre diffusion et concentration qu’il modélise. Nous nous intéressons plus particulièrement au comportement de ces modèles autour de l’instant de formation d’une masse de Dirac (ou de l’instant d’apparition d’un cluster dont la masse représente une proportion positive du nombre total de particules). Ce travail est divisé en cinq parties. Dans une première partie, nous étudions finement le comportement des collisions pour le système de particules. Plus précisément ce système de particules consiste en N mouvements browniens dans le plan intéragissant en champ moyen via une intéraction de type Coulomb en θ/(N r) où r est la distance entre deux particules et θ un paramètre positif tel que N > 3θ. Selon les valeurs de θ et N il y a deux scénarios possibles, en voici un : le système de particules explose en temps fini en faisant émerger un cluster de k 0 particules, où k 0 est un entier déterministe dépendant de N et θ. Juste avant l’explosion, il y a une infinité de collisions impliquant k 0 − 1 particules parmi les k 0 impliquées dans le cluster de l’explosion. Puis avant chaque collision entre k 0 − 1 particules, il y a une infinité de collisions entre k 0 − 2 particules parmi les k 0 − 1 impliquées dans la collision à k 0 − 1 particules. De plus, avant chaque collision entre k 0 − 2 particules, il y a une infinité de collision de pair de particules impliquées dans la collision entre k 0 − 2 particules. Enfin, il n’y a aucune collision entre exactement k particules pour k ∈ {3, . . . , k 0 − 2}. Dans une deuxième partie, nous nous intéresserons à une preuve simplifiée de non explosion, i.e. d’existence globale, pour l’EDP de Keller-Segel, pour toute donnée initiale measure f 0 tel que f 0 (R 2 ) < 8π. La preuve repose sur un calcul de moment à deux particules. Dans une troisième partie, nous prouverons la convergence de la mesure empirique du sytème de particules de Keller-Segel le long d’une sous suite dans les cas sous-critique et critique vers la solution faible de l’EDP de Keller-Segel. On s’inspire dans cette partie du travail de la seconde et on utilise le même argument de moment à deux particules. Dans une quatrième partie, nous présenterons un projet en cours mais bien engagé. Il s’agit d’introduire une extension possible du système de particules au delà du temps d’explosion. Plus précisément, il s’agit du même système de particules pour tout les temps antérieurs au temps de formation du premier cluster, puis après ce temps, ce cluster est remplacé par une particule de masse équivalente à la somme des masses des particules impliquées dans ce cluster et on applique les lois d’intéraction entre les particules en tenant compte de la masse de chacune. On réitère ce procédé à chaque formation de cluster jusqu’à obtenir à la fin une seule particule équivalente de masse égale à la somme des masses de toute les particules, i.e égale à N. Nous montrerons en quoi cette extension peut être considérée comme naturelle. Enfin, dans une cinquième partie, nous présenterons des simulations qui illustrent les résultats de la première partie.

PHD defences
Friday March 10, 2023, 10AM, Salle Paul Lévy, 16-26 209
Jérémy Chichportich (LPSM) Some applications of Learning Algorithms in Quantitative Finance

Abstract: This thesis examines how information is the sinew of war in finance. Understanding the structure of financial data has become increasingly crucial for quantitative finance applications. Several directions in literature suggest that financial data should be considered partially observed due to the low signal to noise ratio. Throughout these thesis, two ways of processing financial information are examined and the problem of learning its structure is addressed. The first approach we take is to consider a discrete time mean field dynamics to address the partially observed dynamics problem. Through the application of discrete time mean field dynamics that leverage classical linear dynamics, we derive a general framework for addressing this optimal control problem. As another response to hidden information, this thesis turns to approximate inference. We focus on the factor graph under which a non-exhaustive review of the main Bayesian inference algorithm is presented as well as an introduction to optimal quantization theory. It culminates with the Optimal Quantized Belief Propagation algorithm. To demonstrate the effectiveness of the proposed algorithm, several applications using simulation data and true data are presented. Using the above results, recurrent networks are then used to learn the structure of financial data. One of the main challenges in equity quantitative research is to develop a stock ranking strategy that surpasses market performance and classical momentum strategies. A two-step procedure is involved in the proposed strategy: the first derived from contest theory to determine each financial asset’s skill while the second is based on a recurrent neural network coupled with attention mechanisms to learn the dynamics of skills for each asset. This leads to a robust stock picking strategy for large cap US stocks that outperforms both the market and classic momentum strategies.

PHD defences
Thursday January 5, 2023, 1:30PM, Salle Paul Lévy, 16-26 209
Jérôme Carrand Propriétés ergodiques des flots en basses dimensions incluant les billards dispersifs

Résumé: Cette thèse est divisée en deux parties. Dans la première partie, nous donnons une preuve courte montrant que les intégrales ergodiques d'un flot uniquement ergodique sur un tore en dimension deux admettant une section transverse dont l'application de Poincaré a un nombre de rotation de type constant croissent au plus logarithmiquement. Grâce au développement asymptotique de ces intégrales pour les flots de Giulietti-Liverani, nous retrouvons l'absence de résonance de Ruelle non triviale de module strictement supérieur à un. Nous donnons un exemple de flot sur le tore renormalisé par un difféomorphisme Axiome A satisfaisait ces hypothèses.

Dans la deuxième partie, nous construisons des états d'équilibre pour l'application de collision d'un billard dispersif, associés à des potentiels Holder par morceaux. Cette construction repose sur l'étude d'un opérateur de transfert pondéré agissant sur des espaces de Banach anisotropes. Nous montrons que, lorsque le potentiel satisfait certaines conditions techniques, il existe un état d'équilibre, unique, Bernoulli, adapté et de support total. Nous explicitons un potentiel tel que l'ensemble de ses états d'équilibre est en bijection avec l'ensemble des mesures d'entropie maximale du flot billard. Enfin, nous montrons que ce potentiel satisfait les hypothèses dégagées. Par suite, nous obtenons une condition suffisante pour que le flot billard ait une unique mesure d'entropie maximale, et montrons qu'elle est Bernoulli et adaptée. Nous donnons des exemples de billards qui satisfont cette condition.


Abstract: This thesis is divided into two parts. In the first part, we give a short proof showing that the ergodic integrals of a uniquely ergodic flow on a torus in dimension two admitting a transverse section whose Poincaré map has a rotation number of constant type grow at most logarithmically. Thanks to the asymptotic expansion of these integrals for Giulietti-Liverani flows, we retrieve the absence of non-trivial Ruelle resonance of modulus strictly greater than one. We give an example of a flow on the torus renormalized by an Axiom diffeomorphism that satisfies these assumptions. In the second part, we construct equilibrium states for the collision map of a dispersive billiard, associated to piecewise Holder potentials. This construction is based on the study of a weighted transfer operator acting on anisotropic Banach spaces. We show that, when the potential satisfies certain technical conditions, there exists a unique, Bernoulli, adapted and has full support. We explicit a potential such that the set of its equilibrium states is in bijection with the set of measures of maximal entropy of the billiard flow. Finally, we show that this potential satisfies the assumptions identified. As a result, we obtain a sufficient condition for the billiard flow to have a unique measure of maximal entropy, and show that it is Bernoulli and adapted. We give examples of billiard tables satisfying this condition.


Year 2022

PHD defences
Friday December 16, 2022, 2PM, Salle Paul Lévy, 16-26 209 et Zoom
Sergi Burniol Clotet Propriétés ergodiques des horosphères sur les variétés sans points conjugués

Résumé: Nous étudions les propriétés ergodiques des horosphères sur certaines classes de variétés sans points conjugués. Notre but est de généraliser plusieurs résultats déjà connus pour les variétés à courbure négative. Nous prouvons que, pour une grande classe de variétés de rang 1 à courbure négative ou nulle, certaines horosphères sont équidistribuées sous l'action du flot géodésique vers la mesure de Bowen-Margulis. Dans les surfaces à courbure négative ou nulle, on définit un flot horocyclique sur l'ensemble des horocycles contenant un vecteur de rang 1 récurrent sous l'action du flot géodésique et nous montrons que ce flot horocyclique a une unique mesure de probabilité invariante. Enfin, nous montrons que tout flot horocyclique sur une surface compacte de genre supérieur sans points conjugués et avec fibrés de Green continus est uniquement ergodique. Notre approche s'appuie sur des méthodes spécifiques aux flots géodésiques telles que le bord à l'infini et la construction de la mesure de Bowen-Margulis via la théorie de Patterson-Sullivan. L'ingrédient principal du théorème d'équidistribution est le mélange de la mesure de Bowen-Margulis. Concernant les flots horocycliques, nos résultats sont obtenus grâce à la définition d'une paramétrisation similaire à celle utilisée par B. Marcus en courbure négative.

Abstract: We study the ergodic properties of the horospheres on certain classes of manifolds without conjugate points. Our goal is to generalize several results already known for negatively curved manifolds. We prove that, for a large class of nonpositively curved rank 1 manifolds, certain horospheres are equidistributed under the action of the geodesic flow towards the Bowen-Margulis measure. In the case of nonflat nonpositively curved surfaces, we define a horocyclic flow on the set of horocycles containing a rank 1 vector that is recurrent under the action of the geodesic flow and we prove that this horocyclic flow has a unique invariant probability measure. Finally, we show that any horocyclic flow on a compact higher genus surface without conjugate points and with continuous Green bundles is uniquely ergodic. Our approach is based on methods specific to geodesic flows such as the boundary at infinity and the construction of the Bowen-Margulis measure via the Patterson-Sullivan theory. The main ingredient in the equidistribution theorem is the mixing of the Bowen-Margulis measure. Regarding the horocyclic flows, our results are obtained thanks to the definition of a uniformly expanding parametrization similar to the one used by B. Marcus in negative curvature.

PHD defences
Friday December 9, 2022, 9AM, Sophie Germain 0013
William Lefebvre Stochastic control methods applied to portfolio construction, control with delay and PDE solving

Abstract: The present thesis deals with stochastic control methods applied to the resolution of problems arising in the field of quantitative finance, such as portfolio selection and resolution of non linear PDEs associated to the construction of investment strategies and the pricing of derivative products. It is divided into three parts.

In the first part, we solve a mean variance portfolio selection problem where the portfolio is penalized by a distance between the wealth invested in each of its assets and the composition of a reference portfolio with fixed weights. The optimal control and value function are obtained in closed form and an analogue of the efficient frontier formula is obtained in the limit where the penalisation tends to zero. The robustness of this allocation is tested on simulated market prices with parameter misspecification.

The second part deals with the delayed control of stochastic differential equations. We solve a simple linear quadratic stochastic control problem where the control appears both in the drift and diffusion part of the state SDE and is affected by a delay. The expressions of the optimal control and value function are obtained in terms of the solution of a system of coupled Riccati PDEs for which the existence and uniqueness of a solution is proven, provided that a condition, combining the time horizon, the delay, the drift and the volatility of the state SDE is satisfied. A deep learning method is used to solve the system Riccati PDEs in the context of Markovitz portfolio selection with execution delay.

In the third part, three methods based on deep learning are defined in order to solve fully non linear PDEs with convex Hamiltonian. These methods use the stochastic representation form of the PDE, whose optimal control is approximated numerically, in order to obtain three different estimators of the PDE solution based on regression or pathwise versions of the martingale representation and its differential relation. The solution and its derivatives are then computed simultaneously. We further leverage our methods to design algorithms for solving families of PDEs with parametric terminal condition by means of DeepOnet neural networks.

PHD defences
Thursday December 8, 2022, 10AM, Visioconférence Zoom
Mohan Yang Méthodes numériques probabilistes pour la finance: valorisations des droits à polluer et approximation de couverture faible

Ce manuscrit étudie l’approximation des solutions des équations différentielles stochastiques progressifs et rétrogrades (EDSPRs) et des applications numériques au marché des émissions de carbone, et l’approximation de couverture faible.


Mots clé: EDSPRs, Algorithme SGD, Deep learning, Grande dimension, Schémas de Splitting, particules stochastiques, Transport optimal.

PHD defences
Thursday November 24, 2022, 10AM, Salle Paul Lévy, 16-26 209
Arthur Blanc-Renaudie Limites d'échelles d'arbres et de graphes inhomogènes

Dans cette thèse, on étudie certains modèles d’arbres ( D -arbre, P -arbre, ICRT) et de graphes (modèle de configuration, graphe multiplicatif) à suite de degrés fixés. Pour cela, on développe de nouveaux algorithmes qui construisent ces modèles en collant des branches les unes sur les autres. En analysant ces constructions, on obtient des résultats sur la géométrie de nos modèles.

Pour les analyser, on utilise principalement deux méthodes. Tout d’abord, on modifie nos algorithmes pour étudier les tailles des premières branches et là où elles sont collées. Ensuite, pour prouver que nos modèles sont proches de leurs premières branches, on utilise la méthode de chainage. Plus précisément, on divise nos algorithmes en grandes étapes, et on prouve qu’entre deux grandes étapes les objets que l’on construit ne changent pas beaucoup.

Dans le chapitre 2 , on étudie les ICRT et notamment leur compacité et dimension fractales. Dans le chapitre 3 , on prouve des limites d’échelles des arbres à suite de degrés fixés, et on majore leur hauteur. Dans le chapitre 4 , on prouve des limites d’échelles pour les multigraphes à suites de degrés fixés et surplus fixés, et on précise des connexions entre le modèle de configuration et les graphes multiplicatifs. Dans le chapitre 5 , on invente une théorie d’ R -arbre plan ce qui nous permet de définir et d’étudier les ICRT plans, leurs “arbres-boucles”, et des champs sur ces objets. Ce chapitre a pour but d’être appliqué à l’étude des cartes aléatoires à suite de face-degrés fixés.

PHD defences
Friday October 21, 2022, 2:30PM, 16-26 219
Bouazza Saadeddine Learning From Simulated Data in Finance: XVAs, Risk Measures and Calibration

Résumé français: L'émergence de cadres XVA complexes et de modèles d'évaluation coûteux en temps de calcul a encouragé les chercheurs et les praticiens de la finance à se pencher sur les méthodes d'apprentissage statistique pour accélérer leurs calculs. Cette thèse vise à proposer de nouvelles approches basées sur les réseaux de neurones. Tout d'abord, nous proposons un cadre XVA cohérent et une implémentation pratique utilisant des régressions par moindres carrés et des régressions quantiles/expected shortfall avec des réseaux de neurones et le calcul sur GPU. Notre implémentation évite les simulations Nested Monte Carlo et n'a pas besoin des approximations habituelles utilisées par les praticiens. Ensuite, nous abordons la question de l'apprentissage des espérances ou des mesures de risque conditionnelles en présence d'événements de défaut dans un cadre général. Nous proposons pour cela un nouveau schéma de simulation et fournissons une analyse de convergence statistique et des expériences numériques démontrant son efficacité. Nous étudions également la convergence statistique d'une approche d'apprentissage de quantile et expected shortfall en deux étapes et nous proposons des schémas d'apprentissage basés sur des réseaux de neurones pour les cas à un et plusieurs quantiles. Nous abordons aussi la question du croisement des quantiles. Motivés par le fait que la fongibilité du capital à risque avec la marge de variation dans les calculs XVA donne lieu à des équations différentielles stochastiques rétrogrades anticipées, nous proposons un schéma d'apprentissage explicite pour de telles équations. Enfin, nous proposons une approche de projection pour approximer le prix des options vanilles dans un contexte de calibration de modèles pour accélérer cette dernière. Notre méthode, basée sur la différenciation à pas complexe, enrichit l'apprentissage en cherchant à projeter des dérivées directionnelles stochastiques.

English abstract: The emergence of complex XVA frameworks and time-consuming pricing models has encouraged researchers and finance practitioners to look at statistical learning methods to accelerate their calculations. The present thesis aims to contribute new approaches based on neural networks. First, we propose a consistent XVA framework along with a practical implementation using neural networks least-squares and quantile/expected shortfall regressions and GPU computing. Our implementation avoids Nested Monte Carlo simulations and does not need the usual approximations used by practitioners. Then, we address the issue of learning conditional expectations or risk measures in the presence of default events in a general framework. For this, we propose a new simulation scheme and provide a statistical convergence analysis and numerical experiments demonstrating its effectiveness. We also study the statistical convergence of a two-step quantile and expected shortfall learning approach and provide learning schemes based on neural networks for the single and multiple quantile learning cases. We address the quantile crossing issue as well. Motivated by the fact that the fungibility of the risk capital with variation margin in XVA calculations gives rise to anticipated backward stochastic differential equations, we devise an explicit learning scheme for such equations. Finally, we provide a projection approach to approximate the price of vanilla options in the context of model calibration to accelerate the latter. Our method, based on complex-step differentiation, augments the learning by seeking to project stochastic directional derivatives.

PHD defences
Thursday October 13, 2022, 2PM, 15-16 201
Lucas Broux Sewing, Reconstruction and Schauder in rough analysis and regularity structures

Résumé: Dans cette thèse, nous obtenons des résultats analytiques liés aux théories des chemins rugueux et des structures de régularité, du point de vue des germes, c'est-à-dire des familles d'approximations locales de fonctions ou distributions.

D'abord, nous établissons un lemme de couture dans le régime 0 < gamma ⇐ 1, donnant une construction qui n'est pas unique ni canonique mais tout de même continue. En corollaire, nous exhibons une paramétrisation bicontinue de l'ensemble des chemins rugueux par un produit d'espaces de Hölder, généralisant à la fois le théorème d'extension de Lyons–Victoir et un résultat récent de Tapia–Zambotti.

Ensuite, nous proposons un théorème de reconstruction dans le contexte des espaces de Besov, généralisant des résultats de Hairer–Labbé et Caravenna–Zambotti. En corollaire, nous donnons une nouvelle preuve du théorème de multiplication dans les espaces de Besov, sans utiliser de paraproduits.

Enfin, nous étudions les propriétés régularisantes des noyaux singuliers contre les germes. Un premier résultat est la construction d'une application de convolution qui agit sur les germes cohérents et homogènes. Nous revisitons ensuite les estimées de Schauder multiniveaux de Hairer, donnant une présentation et une preuve qui font référence aussi peu que possible au formalisme des structures de régularité.

Abstract: In this thesis, we derive analytic results related to the theories of Rough Paths and Regularity Structures, with the point of view of germs, that is, families of local approximations of functions or distributions.

We first establish a Sewing Lemma in the regime 0 < gamma ⇐ 1, giving a construction which is non unique nor canonical but still continuous. As a corollary, we exhibit a bicontinuous parametrisation of the set of Rough Paths by a product of Hölder spaces, generalising both the Lyons–Victoir extension theorem and a recent result by Tapia–Zambotti.

Secondly, we propose a Reconstruction Theorem in the context of Besov spaces, generalising results of Hairer–Labbé and Caravenna–Zambotti. As a corollary, we provide a new proof of the multiplication theorem in Besov spaces without relying on paraproducts. Finally, we study the regularising properties of singular kernels against germs. A first result is the construction of a convolution map which acts on general coherent and homogeneous germs. We also revisit Hairer's multilevel Schauder estimates, providing a presentation and a proof which make only minimal references to the formalism of regularity structures.

PHD defences
Monday October 10, 2022, 2PM, À distance
David Lee Le théorème de reconstruction et la technique d’extension

Résumé: Dans cette thèse, nous nous concentrons sur deux problèmes d’analyse et de probabilité. Le premier étant un probléme relatif au théoréme de reconstruction de Martin Hairer et le second relatif à la technique d’extension de Caffarelli et Silvestre.

Nous considérons d’abord la formulation alternative du théorème de reconstruction faite par Caravenna et Zambotti mais nous généralisons ce résultat dans le cadre de Besov.

Deuxiémement, nous développons un calcul fonctionnel en utilisant une généralisation de la technique d’extension grâce à Kwaśnicki et Mucha .

Enfin, nous nous concentrons sur une approche alternative de la technique d’extension de Kwaśnicki et Mucha utilisant la théorie des fonctionnelles additives continues. Profitant de cette approche, nous montrons comment nous pouvons obtenir des exemples explicites de techniques d’extension.

Abstract: In this thesis, we focus on two problems within analysis and probability. The first being a problem relating to the so-called reconstruction theorem due to Martin Hairer and the second relating to the extension technique due to Caffarelli and Silvestre.

We first consider the alternative formulation of the reconstruction theorem done by Caravenna and Zambotti but we generalize this result within the Besov framework.

Secondly, we develop a functional calculus using a generalization of the extension technique due to Kwaśnicki and Mucha.

Lastly, we focus on an alternative approach of the extension technique from Kwaśnicki and Mucha utilizing the theory of continuous additive functionals. Taking advantage of this approach we show how one can obtain explicit examples of extension techniques.

PHD defences
Thursday September 29, 2022, 2PM, Tour 16/26 Salle 113
Nicklas Hasseriis Werge Learning from time-dependent streaming data with online stochastic algorithms

In recent decades, intelligent systems, such as machine learning and artificial intelligence, have become mainstream in many parts of society. However, many of these methods often work in a batch or offline learning setting, where the model is re-trained from scratch when new data arrives. Such learning methods suffer some critical drawbacks, such as expensive re-training costs when dealing with new data and thus poor scalability for large-scale and real-world applications. At the same time, these intelligent systems generate a practically infinite amount of large datasets, many of which come as a continuous stream of data, so-called streaming data. Therefore, first-order methods with low per-iteration computational costs have become predominant in the literature in recent years, in particular the Stochastic Gradient (SG) descent (Robbins and Monro, 1951). These SG methods have proven scalable and robust in many areas ranging from smooth and strongly convex problems to complex non-convex ones, which makes them applicable in many learning tasks for real-world applications where data are large in size (and dimension) and arrive at a high velocity. Such first-order methods have been intensively studied in theory and practice in recent years (Bottou et al., 2018). Nevertheless, there is still a lack of theoretical understanding of how dependence and biases affect these learning algorithms. A central theme in this thesis is to learn from time-dependent streaming data and examine how changing data streams affect learning. To achieve this, we first construct the Stochastic Streaming Gradient (SSG) algorithm, which can handle streaming data; this includes several SG-based methods, such as the well-known SG descent and mini-batch methods, along with their Polyak-Ruppert average estimates (Polyak and Juditsky, 1992; Ruppert, 1988). The SSG combines SG-based methods’ applicability, computational benefits, variance-reducing properties through mini-batching, and the accelerated convergence from Polyak-Ruppert averaging. Our analysis links the dependency and convexity level, enabling us to improve convergence. Roughly speaking, SSG methods can converge using non-decreasing streaming batches, which break long-term and short-term dependence, even using biased gradient estimates. More surprisingly, these results form a heuristic that can help increase the stability of SSG methods in practice. In particular, our analysis reveals how noise reduction and accelerated convergence can be achieved by processing the dataset in a specific pattern, which is beneficial for large-scale learning problems. At last, we propose an online adaptive recursive estimation routine for Generalized AutoRegressive Conditional Heteroskedasticity (GARCH) models called AdaVol. The AdaVol procedure relies on stochastic algorithms combined with Variance Targeting Estimation (VTE); AdaVol has computationally efficient properties, while VTE overcomes some convergence difficulties due to the lack of convexity of the Quasi-Maximum Likelihood (QML) procedure. Empirical demonstrations show favorable trade-offs between AdaVol’s stability and its ability to adapt to time-varying estimates.

PHD defences
Wednesday September 28, 2022, 2PM, Tour 16/26 Salle 209 et sur Google Meet
Thibault Randrianarisoa Contributions à l’analyse théorique de méthodes d’apprentissage statistique et de quantification de l’incertitude

L'analyse moderne des données fournit aux scientifiques des algorithmes statistiques et d'apprentissage automatique aux performances impressionnantes. Face à leur utilisation intensive pour traiter des problèmes dont la complexité ne cesse de croître, il existe un réel besoin de comprendre les conditions dans lesquelles ceux-ci fonctionnent ou sont voués à l'échec. Ainsi, un cadre naturel pour développer une théorie mathématique de ces méthodes est celui de l'inférence non-paramétrique. Ce domaine de la statistique s'intéresse à l'inférence de quantités inconnues sous des hypothèses minimales avec la modélisation statistique en dimension infinie d'une quantité paramétrant la loi des données. Dans cette thèse, nous étudions les problèmes d'estimation de fonctions et de quantification de l'incertitude.

La première classe d'algorithmes que nous considérons est celle des méthodes bayésiennes basée sur des structures d'arbres. Elles reposent sur le principe de 'diviser pour mieux régner', en partitionnant l'espace des données pour estimer le paramètre localement. En régression, ces méthodes incluent BCART et BART, cette dernière étant un ensemble d'arbres ou “forêt“. En estimation de densité, les arbres de Pólya sont un exemple de telles lois a priori et constituent la base d'une myriade de constructions connexes. Nous proposons une nouvelle extension, DPA, qui est une “forêt de Pólya” et permet d'atteindre des vitesses de contraction minimax, de manière adaptative, en distance de Hellinger pour des régularités de Hölder arbitraires. Des vitesses adaptatives dans la norme infinie sont également obtenues pour la loi a priori des arbres de Pólya optionnel (OPT), similaire à BCART en régression, pour des fonctions de régularité Lipschitz.

Les processus gaussiens (GP) sont une autre classe populaire de lois étudiées en statistique bayésienne nonparamétrique et en apprentissage automatique. Motivés par la taille toujours croissante des bases de données, nous proposons un nouveau processus gaussien 'horseshoe' avec une couche de sélection de variables 'soft' pour pouvoir tirer parti d'une dimension des données plus petite que celle de l'espace ambiant. Nous dérivons des vitesses de contraction optimales pour les loi a posteriori tempérées. Les processus gaussiens profonds sont les homologues bayésiens des célèbres réseaux neuronaux profonds. Nous prouvons que, en tant qu'élément de base dans une telle construction, les GP ‘horseshoe' donnent également des vitesses adaptatives sous des hypothèses de structure de composition du paramètre.

En ce qui concerne la quantification de l'incertitude (UQ), les méthodes bayésiennes sont souvent louées pour la solution qu'elles fournissent avec la définition des ensembles de crédibilité. Nous prouvons que ces ensembles construits sous OPT sont des ensembles de confiance avec un niveau de confiance exact et une taille optimale (ou quasi-optimale) en norme infinie sous des conditions qualitatives d'auto-similarité. De plus, nous menons une étude théorique de l'UQ pour les distances de Wasserstein Wp et mettons en lumière un nouveau phénomène. En dimensions inférieures à 4, il est toujours possible de construire des ensembles de confiance dont les rayons en distance Wp, p⇐2, s'adaptent à n'importe quelles régularités (sans hypothèses qualitatives). Cela contraste fortement avec la théorie habituelle en norme Lp, où des concessions doivent toujours être faites.

PHD defences
Monday July 11, 2022, 1:30PM, salle 1009 à Sophie Germain
Sothea Has Modèles prédictifs par agrégation consensuelle et applications

This work aims at combining supervised and unsupervised information of data for prediction. Three important projects are presented. The first project is “KFC : a clusterwise supervised learning procedure based on aggregation of distances”. It is a three-step procedure for constructing prediction in supervised statistical learning problems. KFC stands for K-means/Fit/Combining. Several performances of the method are illustrated in this part on several synthetic and real energy data. The second project is “A kernel-based consensual aggregation method for regression”, which is inspired by the numerical experiments of the previous project. The method is a generalization of consensual aggregation method introduced by Biau et al. (2016) to regular kernel-based setting. The consistency inheritance property of the method is derived, and is confirmed through many numerical experiments on simulated and real datasets. Lastly, the third project is a study of consensual aggregation method on randomly projected high-dimensional features of predictions. The aggregation scheme is composed of two steps: the high-dimensional features of predictions are randomly projected into a small subspace in the first step, then the aggregation method is applied on the projected features in the second step. We numerically show that the consensual aggregation method upholds its performance on very large and highly correlated features of predictions. Moreover, we theoretically show that the performance of the method is almost preserved in much smaller subspaces of projection, with high probability. This shows the robustness of the method in a sense that several types of predictive models can be plainly constructed and directly combined without model selection or cross-validation technique.

PHD defences
Thursday July 7, 2022, 9:30AM, Par Zoom
Hiroshi Horii Large-time asymptotics of anomalous fluctuations in heavy-tailed renewal-reward processes

For example, how many times do we have to change the light bulb in a room in 10 years? Each light bulb has different lifetimes and they are distributed randomly according to, for example, the gamma distribution. Knowing this distribution, one can estimate not only how many light bulbs are needed on average during 10 years, but also the range of the number of required light bulbs with 95% probability.

This kind of random phenomenon can be explained using a renewal-reward process and by constructing the model, we can estimate the expected value and the fluctuations of the interested stochastic process. Also, this stochastic process becomes the generalization of Markov jump processes and it can contain memory effects. Thus, this is a useful model because the process can describe a broad spectrum of phenomena in physics and other fields, including a melt-up of the stock market and a super spreader in epidemics, where memory effects are known to be important.

In this thesis, our main motivation is to clarify the finite-time behavior of anomalous fluctuations. For studying the topic, we start by introducing the definition of a renewal-reward process and the large deviation theory. Afterward, we show the result of anomalous fluctuations behavior, especially the fluctuations of the renewal-reward process with memory effects, in renewal-reward processes with heavy-tailed waiting time distributions.

In the first work, we study the large time asymptotic of renewal-reward processes with a heavy-tailed waiting time distribution. It is known that the heavy tail of the distribution produces extremely slow dynamics, resulting in a singular large deviation function. This amounts to a “flattened” bottom of the large deviation function, manifesting anomalous fluctuations of the renewal-reward processes.

In the second work, we re-visit the flat part in the cumulant generating function by using a variational principle and a numerical simulation technique developed in large deviation theory. These techniques have been applied to study a singularity appearing in the large deviation function in, among others, kinetically constrained models and active matters. These models are defined using Markov processes, because of which the large deviation function of time-averaged quantities does not have any singularity whenever the system size (not the averaging time) is finite. Our focus is on how the same methodology can be extended to our non-Markovian problem to derive the flat part.

In the third work, by using the renewal theory, we discuss anomalous scaling of the cumulants with memory effects in a renewal-reward process instead of focusing on the probability of rare events. In particular, we analyze the variance of heavy waiting time distributions.

PHD defences
Wednesday June 22, 2022, 2PM, Tour 15/25 salle 104 et par zoom
Joseph De Vilmarest Modèles espace-état pour la prévision de séries temporelles. Application aux marchés électriques

L'électricité étant difficile à stocker, prévoir la demande est un enjeu majeur pour maintenir l'équilibre entre la production et la consommation. L'évolution des usages de l'électricité, le déploiement des énergies renouvelables, et plus récemment la crise du coronavirus, motivent l'étude de modèles qui évoluent au cours du temps, pour tenir compte des changements de comportements. L'objectif de ce travail est de proposer des méthodes adaptatives de prévision, et nous nous sommes intéressés tout spécialement au cadre des modèles espace-état. Dans ce paradigme, on représente l'environnement (ou le contexte) par un état caché. À chaque instant, la demande dépend de cet état que nous cherchons donc à estimer grâce aux observations dont nous disposons, et selon les hypothèses que l'on effectue sur la dynamique du système. L'estimation de l'état nous permet ensuite de prévoir la demande.

Un premier objectif de la thèse est de contribuer au lien entre l'optimisation et l'estimation dans les modèles espace-état. Nous interprétons en effet les méthodes que nous utilisons comme diverses façons de paramétrer un algorithme de descente de gradient de second ordre, et nous avons détaillé ce lien dans un cas particulier. Une seconde contribution de la thèse est de proposer différentes méthodes d'estimation dans les modèles espace-état. Le principal enjeu nous semble être de définir la dynamique avec lequel évolue l'état, et nous proposons deux méthodes dans ce but. Le troisième apport de ce manuscrit est d'appliquer ces méthodes espace-état à la prévision de consommation d'électricité. Nos prévisions s'appuient sur des modèles de prévision existants, par exemple le modèle additif généralisé, que nous cherchons à adapter. Ainsi, nous tirons parti de certaines dépendances complexes capturées par les modèles existants, par exemple la sensibilité de la consommation d'électricité à la température, tout en profitant de la faculté d'adaptation des modèles espace-état.

PHD defences
Monday June 20, 2022, 3:30PM, Bat Sophie Germain - salle 1003 et par zoom
Maximilien Germain Machine learning for stochastic control and partial differential equations in high dimension

This thesis studies several machine learning numerical schemes to solve nonlinear PDEs and mean-field control in moderate to high dimension and is divided in two parts.

The first part focuses on the resolution of parabolic nonlinear PDEs. We describe a multistep neural network scheme which improves existing methods from the literature. One of our contributions is the study of its approximation error together with the ones of existing methods in the semilinear case where the equation is linear with respect to the second order derivative. By using Lipschitz GroupSort neural networks, we are able to link the error to the number of layers and neurons of the approximating network. We also develop one-step and multistep schemes in the more challenging case of fully nonlinear PDEs, based on Malliavin weights and automatic differentiation. All the numerical schemes are tested on numerical examples to demonstrate their relevance.

The second part of this work is dedicated to mean-field control and McKean-Vlasov equations. We prove by probabilistic arguments a rate of convergence for the finite dimensional approximation of a PDE on the Wasserstein space. We then use symmetric DeepSet neural networks to solve symmetric PDEs in high dimension. Hence we are able to approximate numerically mean-field control problems by solving their optimality conditions in the form of a Master Bellman PDE in infinite dimension. We then consider mean-field control with probabilistic state constraints on the law of the controlled state. We represent the problem by an auxiliary unconstrained problem with exact penalisation which can be solved by the modification of an existing brute force deep learning scheme.

PHD defences
Tuesday May 31, 2022, 9AM, Salle 15/25 104 et par Zoom
Gloria Buritica Borda Assessing the time dependence of multivariate extremes for heavy rainfall modeling

Nowadays, it is common in environmental sciences to use extreme value theory to assess the risk of natural hazards. In hydrology, rainfall amounts reach high-intensity levels frequently, which suggests modeling heavy rainfall from a heavy-tailed distribution. In this setting, risk management is crucial for preventing the outrageous economic and societal consequences of flooding or landsliding. Furthermore, climate dynamics can produce extreme weather lasting numerous days over the same region. However, even in the stationary setting, practitioners often disregard the temporal memories of multivariate extremes. This thesis is motivated by the case study of fall heavy rainfall amounts from a station’s network in France. Its main goal is twofold. First, it proposes a theoretical framework for modeling time dependencies of multivariate stationary regularly varying time series. Second, it presents new statistical methodologies to thoughtfully aggregate extreme recordings in space and time.

To achieve this plan, we consider consecutive observations, or blocks, and analyze their extreme behavior as their lp-norm reaches high levels, for p > 0. This consideration leads to the theory of p-clusters, which model extremal lp-blocks. In the case p = ∞, we recover the classical cluster (of exceedances). For p < ∞, we built on large deviations principles for heavy-tailed observations. Then, we study in depth two setups where p-cluster theory appears valuable. First, we design disjoint blocks estimators to infer statistics of p-clusters, e.g., the extremal index. Actually, p-clusters are linked through a change of norms functional. This relationship opens the road for improving cluster inference since we can now estimate the same quantity with different choices of p. We show cluster inference based on p < ∞ is advantageous compared to the classical p = ∞ strategy in terms of bias. Second, we propose the stable sums method for high return levels inference. This method enhances marginal inference by aggregating extremes in space and time using the lp-norm, where α > 0 is the (tail) index of the series. In simulation, it appears to be robust for dealing with temporal memories and it is justified by the α-cluster theory.

PHD defences
Wednesday April 6, 2022, 9:30AM, Par Zoom
Yiyang Yu Apprentissage profond en santé publique, et contributions en apprentissage statistique

Le développement d'algorithmes efficaces pour apprendre des représentations appropriées de données structurées, telles que des séquences d'événements datés provenant de la vie réelle, est un défi majeur et central de l’apprentissage automatique. Dans cette optique, l’apprentissage profond est devenu populaire pour modéliser des données structurées, parfois combiné avec des techniques de pré-entraînement. En même temps, d'autres méthodes d'apprentissage statistique plus “classiques”, comme les forêts aléatoires ou la régression, occupent toujours une place importante dans la pratique à cause de leur efficacité. Dans cette thèse, nous apportons quelques contributions à l'étude théorique et numérique de certains problèmes de l'apprentissage statistique, ainsi que l'application de l'apprentissage profond aux données de la santé publique.

La première contribution consiste à introduire un nouveau modèle appelé ZiMM (Zero-inflated Mixture of Multinomial distributions), et une architecture Encodeur-Décodeur (ED) de réseaux de neurones profonds entraînés de-bout-en-bout, modélisant les parcours de soins pour la prédiction des complications post-chirurgicales. ZiMM-ED est appliqué aux données de santé de remboursement de soins provenant du Système National des Données de Santé (SNDS) en France, qui est une base de données non-clinique, contenant seulement les codes de remboursement datés d'achats de médicaments et des diagnostics hospitaliers. En particulier, nous considérons les complications jusqu'au 18e mois après la chirurgie, ce qui correspond à des observations “floues” car seulement observées à partir des achats de médicaments d'une famille spécifique. Nos expériences montrent les améliorations en termes de performance prédictive de ZiMM-ED par rapport à plusieurs modèles de référence. ZiMM-ED ouvre la voie de l'exploitation d'un tel jeu de données avec peu de pré-traitement à grâce aux réseaux de neurones profonds. Cette base de données est jusque-là utilisée principalement pour des raisons administratives (remboursement des soins de santé), et nous montrons le pouvoir prédictif des réseaux de neurones profonds dessus sur une telle base de données avec un cas précis.

La deuxième contribution porte sur l'étude théorique de l'apprentissage contrastif de représentation, une technique récemment devenue populaire et expérimentalement efficace pour l'entraînement auto-supervisé. En se basant sur quelques résultats proposant des cadres d'étude théoriques, nous étendons la garantie pour la qualité des représentations apprises dans la phase pré-entrainement non-supervisé avec une perte contrastive et de multiples échantillons négatifs, la qualité étant mesurée en termes de performance prédictive pour les tâches supervisées en aval. En outre, nous fournissons une garantie de convergence quant à la minimisation de la perte contrastive avec la descente de gradient pour un encodeur de réseaux de neurones sur-paramétré. Ces résultats théoriques, combinant des expériences numériques, ouvrent des portes pour une meilleure compréhension des pratiques de pré-entrainement - affinement très utilisées aujourd'hui en apprentissage profond.

La troisième contribution consiste à introduire un nouvel algorithme de type forêt aléatoire, que nous nommons WildWood. Alors que l'algorithme standard de forêt aléatoire utilise des échantillons bootstrap out-of-bag seulement pour calculer des scores, WildWood utilise ces échantillons pour améliorer les prédictions en calculant l'agrégation de tous les sous-arbres possibles de chaque arbre dans la forêt : ce calcul est exact et efficace grâce à l'algorithme de context tree weighting. Nous montrons que théoriquement, la perte induite par une telle agrégation est comparable à celle du meilleur sous-arbre possible. Nous proposons une implémentation Python open-source de WildWood avec une stratégie d'histogramme qui permet d'accélérer la recherche des coupures impliquées dans la construction des arbres. Notre implémentation est rapide et compétitive en comparaison avec d'autres algorithmes ensemblistes bien connus, par exemple la forêt aléatoire standard et les algorithmes d'extrême gradient boosting.

Enfin, le dernier chapitre de cette thèse est consacré à la régression logistique en ligne et considère le regret par rapport à la boule l2 de rayon B. Alors qu'il est connu que les algorithmes propres avec regret logarithmique en le nombre d'itérations n subissent nécessairement un facteur exponentiel en B dans leur borne de regret, quelques algorithmes impropres, bayésiens et non-bayésiens, ont été introduits récemment avec des meilleures garanties. Dans le but d'obtenir une garantie de regret optimale, nous proposons deux algorithmes impropres et non-bayésiens, OSMP et AOSMP, reposant sur une stratégie “minmax à une étape”, avec la fonction de perte exacte pour OSMP, et une fonction de perte approchée pour AOSMP. Nos analyses de regret s'appuient entre autres sur la propriété de self-concordance généralisée de la fonction logistique. Pour OSMP, malgré une borne supérieure obtenue pour les regrets instantanés, nous expliquons en quoi l'amélioration des bornes de regret est une question difficile, à laquelle AOSMP apporte une réponse comparable à l'état de l'art de la garantie de regret.

Mots clefs : Apprentissage statistique, Apprentissage profond, Données de santé, Apprentissage contrastif, Forêts aléatoires, Régression logistique en ligne

PHD defences
Tuesday March 29, 2022, 10:30AM, Salle 16/26 209 et par Zoom
William Da Silva Processus de croissance-fragmentation multitypes et excursions planaires.

This work is devoted to the study of growth-fragmentation processes, in connection with planar excursions and Liouville quantum gravity. In a seminal paper, Bertoin, Budd, Curien and Kortchemski study the branching structure of these particle systems, as well as a particular family obtained in the scaling limit from a Markov peeling process on large random planar maps. We first construct, on a half-planar excursion whose real part is a stable process, a signed version of the growth-fragmentation processes revealed by Bertoin, Budd, Curien and Kortchemski. We then establish the spinal decomposition of signed growth-fragmentation processes, and generalise this approach to processes with a finite number of types. We also focus on an extension to the spatial isotropic setting, where we see that a remarkable family of such processes appears in excursions away from the half-space. Finally, the last part of this thesis presents some advances towards understanding a certain space-filling SLE exploration of a quantum disc. These considerations are interpreted at the level of planar excursions through the Mating-of-trees. We characterise the growth-fragmentation process for a special parameter of the Liouville measure, called pure gravity.

PHD defences
Thursday March 24, 2022, 3PM, Bat Sophie Germain - salle 1014 et par zoom
Junchao Chen Schémas d’approximation numérique probabiliste en finance: méthodes d’apprentissage pour les EDSRs de grande dimension et algorithmes de Monte Carlo sans biais pour des modèles à volatilité stochastique

Ce manuscrit étudie les solutions des équations différentielles stochastiques rétrogrades (EDSRs) et des applications numériques dans le domaine de la finance avec à la fois l'algorithme SGD traditionnel et la méthode d'apprentissage en profondeur. et la représentation probabiliste des modèles de volatilité stochastique avec dérive non bornée. Mots clé: EDSRs, EDPs semi-linéaires, Sparse grids, Algorithme SGD, Deep learning, Grande dimension, Schémas de Runge-Kutta, Représentation probabiliste, Modèle de volatilité stochastique, Méthode de Monte Carlo.

PHD defences
Monday January 17, 2022, 2PM, Salle 16/26 - 209 et par ZOOM
Alexandra Lefebvre Modèles graphiques probabilistes pour la génétique et l’analyse de survie. Application au syndrome de Lynch


Year 2021

PHD defences
Wednesday December 15, 2021, 5:30PM, Bat Sophie Germain - salle 0013 et par zoom
Médéric Motte Les modèles de grande population contrôlée, les comportements économiques, et la publicité ciblée

Les problématiques sur internet donnent lieu à des mathématiques diverses et variées. Les utilisateurs sont constamment amenés à faire des choix sur Internet, et l’utilité associée à ces choix dépend souvent des choix des autres (théorie des jeu en grande population) où de l’aléa (modèles de choix risqué). De plus, la population sur Internet est contrôlées, du moins influencée, par l’action des agents publicitaires. La publicité digitale est en effet un outil stratégique pour les agents voulant diffuser une information, qui conduit naturellement à étudier des problèmes de contrôle en grande population, des algorithmes de prédiction de clic, et des problèmes d’enchère optimal pour la publicité digitale. La soutenance portera sur différents modèles mathématiques développés durant ma thèse pour chacune de ces applications

PHD defences
Monday December 6, 2021, 9:45AM, Couloir 15/25 salle 104 et par Zoom
Clément Bénard Forêts aléatoires et interprétabilité des algorithmes d’apprentissage

Cette thèse traite de l’interprétabilité des algorithmes d’apprentissage dans un contexte industriel. La production manufacturière et la conception de systèmes industriels sont deux exemples d’application où l’interprétabilité des méthodes d’apprentissage permet de comprendre comment les variables d’entrées influent sur la sortie d’un système et donc d’optimiser son efficacité. Malgré l’absence de consensus sur une définition précise de l’interprétabilité, il est possible d’identifier un certain nombre de notions fondamentales : “simplicité, stabilité, précision”, rarement vérifiées simultanément par les méthodes interprétables existantes. La structure et la stabilité des forêts aléatoires en font une approche particulièrement efficace pour améliorer les performances des algorithmes d’apprentissage interprétables. La première partie de cette thèse est consacrée aux méthodes post-hoc, et en particulier aux mesures d’importance de variables dans les forêts aléatoires. Le premier résultat de convergence du MDA de Breiman est établi, et met en évidence un biais important en s’appuyant sur l’analyse de sensibilité. L’algorithme Sobol-MDA est ensuite introduit pour remédier aux défauts du MDA d’origine, en remplaçant le mécanisme de permutation par des projections. Une extension aux indices de Shapley, une mesure d’importance efficace dans le cas d’entrées dépendantes, est proposée avec l’algorithme SHAFF. La deuxième partie de cette thèse est dédiée aux modèles de règles, des algorithmes simples et fortement prédictifs, très souvent instables vis-à-vis de petites perturbations des données d’apprentissage. L’algorithme SIRUS proposé est construit à partir de l’extraction d’un ensemble de règles d’une forêt aléatoire. SIRUS améliore considérablement la stabilité de la liste de règle par rapport aux méthodes concurrentes de l’état de l’art, tout en préservant leur simplicité et leur prédictivité.

PHD defences
Tuesday November 30, 2021, 2PM, Amphithéâtre 15
Pierre Bertrand Conditions de Monge, Transport Optimal et Pont Relationnel : propriétés, applications et extension du couplage d'indétermination

Le point de départ de cette thèse est la justification de la restriction à deux divergences canoniques dans un problème de projection d’une loi de probabilité sur un espace à marges fixées. La première mène au couplage d’indépendance, la seconde à celui dit d’indétermination. L’objet de la thèse est l’étude du second couplage. Le couplage d’indétermination est d’abord vu comme un équilibre grâce à son codage dit relationnel. En récrivant la propriété des matrices de Monge qu’il vérifie, une décomposition d’un tirage est proposée et mène à une propriété de réduction des collisions entre deux réalisations successives. Elle est appliquée à deux problèmes : celui de l’espion et du partitionnement de tâches. Dans le problème du clustering de graphe, la modularité classique est récrite comme un écart à l’indépendance et une modularité d’indétermination est construite. Les similitudes et différences des deux modularités sont étudiées sur les graphes de Gilbert. Une revue des critères de corrélation montre qu’ils s’écrivent comme un écart à l’un ou l’autre des équilibres canoniques. Une forme générale émerge et fait apparaitre un produit scalaire commun encodant la corrélation. Une distribution théorique de ce produit scalaire est établie. L’indétermination est étendue dans le cadre continu tout comme la notion de collision qui est transposée en vraisemblance moyenne. Il est montré qu’une copule associée ne peut être définie que localement. Enfin, un test statistique pour distinguer les deux équilibres est proposé et analysé.

PHD defences
Friday October 15, 2021, 9AM, Tour 15/25 salle 104
Adeline Fermanian Learning time-dependent data with the signature transform

Les applications modernes de l’intelligence artificielle amènent à travailler avec des données temporelles multivariées de grande dimension qui posent de nombreux défis. Par une approche géométrique des flux de données, la notion de signature, représentation d’un processus en un vecteur infini de ses intégrales itérées, est un outil prometteur. Ses propriétés développées dans le cadre de la théorie des chemins rugueux en font en effet un bon candidat pour jouer le rôle de features, ensuite injectées dans des algorithmes d’apprentissage. Si la définition de la signature remonte aux travaux de Chen (1960), son utilisation en apprentissage est récente et de nombreuses questions théoriques et méthodologiques restent à explorer. Nous nous intéressons donc à l’utilisation de la signature pour développer des algorithmes génériques et performants pour les données temporelles de grande dimension, ainsi que de leur fournir des garanties théoriques. Ce but se déploie principalement dans deux directions : d’une part, développer de nouveaux algorithmes prenant en entrée la signature des données, d’autre part utiliser la signature comme un outil théorique pour étudier les algorithmes existants d’apprentissage profond, via la notion récente de neural ordinary differential equation qui fait le lien entre apprentissage profond et équations différentielles.

PHD defences
Monday September 27, 2021, 9:30AM, Paul Levy
Florian Bechtold Regularization phenomena for stochastic (partial) differential equations via Itô- and pathwise stochastic calculi

In this thesis, we study three instances of regularization phenomena for stochastic (partial) differential equations (SPDEs). We first study semilinear SPDEs with unbounded diffusion terms: By deriving a generalization to the maximal inequality for stochastic convolutions harnessing the regularizing effect of the appearing semigroup, we are able to establish existence of strong solutions in the subcritical regime. We moreover use the associated sequence of subcritical solutions to establish existence of a martingale solution in the critical case via the Flandoli-Gatarek compactness method.

Secondly, we establish a law of large numbers for interacting particle systems without imposing independence or finite moment assumptions on the initial conditions: Towards this end, we establish a non-closed equation satisfied by the associated empirical measure in a mild sense that differs from the expected limiting McKean-Vlasov PDE only by a certain noise term. In treating said noise term, we employ pathwise rough path bounds and arguments based on Itô-calculus in a complementary fashion that allow to establish the desired law of large numbers.

Finally we investigate regularization phenomena through averaging along curves. Based on recent space-time regularity estimates for local times of fractional Brownian motion in one dimension, we study averaged transport equations in passing by their associated regularized characteristics. By employing a fixed point argument on the level of transport equations, we are able to subsequently pass to a Burgers' type equation averaged along paths of fractional Brownian motion. The arguments at each step are conditional on the Hurst parameter satisfying explicitly established conditions.

PHD defences
Thursday September 16, 2021, 2PM, En visio
Alexandre Legrand “Perturbations de la transition d'adsorption dans des modèles de polymères”

Cette thèse étudie deux modèles de polymères, chacun présentant un phénomène de transition de phase d'adsorption. Le premier modèle concerne un polymère interagissant avec son solvant et avec un mur dur. Si l'affinité chimique du polymère avec le solvant est suffisamment faible, le polymère s'effondre sur lui-même pour former un globule compact. Dans ce régime, nous étudions l'interaction entre le globule et le mur, et explicitons un phénomène de transition de surface. Nous donnons également un équivalent asymptotique exact de la fonction de partition du polymère effondré dans le cas où il n'y a pas de mur. Le second est une modélisation du phénomène de dénaturation des brins d'ADN, ou plus généralement de deux polymères pouvant s'accrocher entre eux. Nous étudions l'effet que des inhomogénéités dans la composition des polymères ont sur la transition de dénaturation, en terme de (non)-pertinence d'un champ de désordre fortement corrélé. Nous étudions également la limite d'échelle de désordre intermédiaire de ce modèle.

PHD defences
Tuesday June 29, 2021, 10AM, Salle Paul Lévy, 16-26 209
Aude Sportisse Handling heterogeneous and MNAR missing data in statistical learning frameworks: imputation based on low-rank models, online linear regression with SGD, and model-based clustering

PHD defences
Thursday June 24, 2021, 10AM, Salle Paul Lévy, 16-26 209
Guillaume Conchon-Kerjan Graphes aléatoires peu denses : de spécifications locales vers des phénomènes globaux

PHD defences
Tuesday March 30, 2021, 10AM, Salle Paul Lévy, 16-26 209
Houzhi Li Étude de méthodes numériques pour certaines équations différentielles stochastiques en finance et modélisation de la distribution du capital dans le marché financier

PHD defences
Friday March 12, 2021, 10AM, Salle Paul Lévy, 16-26 209
Othmane Safsafi Arbres couvrants minimums aléatoires inhomogènes, propriétés et limite

PHD defences
Friday January 15, 2021, 10:45AM, N/A
Félix Foutel-Rodier Scaling limits of branching and coalescing models arising in population biology


Year 2020

PHD defences
Friday December 18, 2020, 10AM, Salle Paul Lévy, 16-26 209
Rancy El Nmeir Quantification gloutonne: nouvelle approche et applications aux E.D.S. rétrogrades réfléchies

PHD defences
Friday December 18, 2020, 10AM, Salle Paul Lévy, 16-26 209
Armand Bernou Comportement en temps long d'équations cinétiques avec effets de bord

PHD defences
Wednesday December 9, 2020, 10AM, Salle Paul Lévy, 16-26 209
Malo Jezequel Théorie spectrale des dynamiques hyperboliques ultradifférentiables

PHD defences
Friday November 13, 2020, 10AM, Salle Paul Lévy, 16-26 209
Matthias Clery La théorie des probabilités et l’Institut Henri Poincaré (1918-1940) : construction d’un champ probabiliste et pratique d’un transfert culturel

PHD defences
Thursday October 29, 2020, 10AM, Salle Paul Lévy, 16-26 209
Thibaut Lemoine Théorie asymptotique des représentations et applications à la théorie de Yang-Mills

PHD defences
Wednesday October 14, 2020, 10AM, Salle Paul Lévy, 16-26 209
Fabio Coppini Weakly Interacting Diffusions on Graphs

PHD defences
Wednesday October 14, 2020, 10AM, Salle Paul Lévy, 16-26 209
Emilie Miranda Modélisation et caractérisation des risques extrêmes en fatigue des matériaux

PHD defences
Monday October 5, 2020, 10AM, Salle Paul Lévy, 16-26 209
Johann Nicolle Quelques contributions des méthodes d’apprentissage bayésien et algorithmique aux problèmes de sélection de portefeuilles

PHD defences
Friday October 2, 2020, 10AM, Salle Paul Lévy, 16-26 209
Vincent Margot Algorithmes interprétables pour la régression : Théorie et applications

PHD defences
Monday September 14, 2020, 10AM, Salle Paul Lévy, 16-26 209
Zhuchao Ji Fatou-Julia dichotomy and non-uniform hyperbolicity for holomorphic endomorphisms on P^2(C)

PHD defences
Wednesday July 8, 2020, 10AM, Salle Paul Lévy, 16-26 209
Barbara Dembin Percolation et percolation de premier passage : constante isopérimétrique, constante de temps, constante de flux

PHD defences
Wednesday July 8, 2020, 10AM, Salle Paul Lévy, 16-26 209
Nicolas Meyer High-dimensional Learning for Extremes

PHD defences
Thursday July 2, 2020, 10AM, Salle Paul Lévy, 16-26 209
Lea Longepierre Estimation par maximum de vraisemblance dans des modèles à blocs stochastiques dynamiques ou spatiaux

PHD defences
Wednesday June 24, 2020, 10AM, Salle Paul Lévy, 16-26 209
Thibaut Montes Numerical methods by optimal quantization in finance

PHD defences
Wednesday June 17, 2020, 10AM, Salle Paul Lévy, 16-26 209
Qiming Du Sequential Monte Carlo and Applications in Molecular Dynamics

PHD defences
Thursday February 27, 2020, 10AM, Salle Paul Lévy, 16-26 209
Marcel Brautigam Pro-cyclicality of Risk Measurements - Empirical Quantification and Theoretical Confirmation


Year 2019

PHD defences
Monday December 9, 2019, 10AM, Salle Paul Lévy, 16-26 209
Benjamin Havret On the Lyapunov exponent of random transfer matrices and on pinning models with constraints

PHD defences
Monday December 9, 2019, 10AM, Salle Paul Lévy, 16-26 209
Chnguang Liu Statistical inference for a partially observed interacting system of Hawkes processes

PHD defences
Monday December 9, 2019, 10AM, Salle Paul Lévy, 16-26 209
Babacar Diallo X-Valuation Adjustments Computations by Nested Simulation on Graphics Processing Units

PHD defences
Tuesday December 3, 2019, 10AM, Salle Paul Lévy, 16-26 209
Yating Liu Optimal quantization : Limit theorems, Clustering and Simulation of the McKean-Vlasov equation

PHD defences
Monday December 2, 2019, 10AM, Salle Paul Lévy, 16-26 209
Jean Jil Duchamps Phylogénies aléatoires structurées

PHD defences
Tuesday November 5, 2019, 10AM, Salle Paul Lévy, 16-26 209
Cyril Benezet Etude de méthodes numériques pour la couverture partielle et problème de switching avec incertitude sur les coûts

PHD defences
Tuesday October 22, 2019, 10AM, Salle Paul Lévy, 16-26 209
Yann Chiffaudel Etude de la diffusion des processus déterministes et faiblement aléatoires en environnement aléatoires

PHD defences
Friday October 4, 2019, 10AM, Salle Paul Lévy, 16-26 209
Yohann Le Faou Contributions à la modélisation des données de durée en présence de censure : application à l'étude des résiliations de contrats d'assurance santé

PHD defences
Monday September 30, 2019, 10AM, Salle Paul Lévy, 16-26 209
Simon Coste Grandes valeurs propres de graphes aléatoires dilués

PHD defences
Friday September 20, 2019, 10AM, Salle Paul Lévy, 16-26 209
Thomas Galtier Accelerated Monte-Carlo methods for Piecewise Deterministic Markov Processes

PHD defences
Friday September 13, 2019, 10AM, Salle Paul Lévy, 16-26 209
François Bienvenu Random graphs in evolution

PHD defences
Thursday September 5, 2019, 10AM, Salle Paul Lévy, 16-26 209
Laure Mareche Modèles avec contraintes cinétiques : convergence vers l'équilibre et résultats d'univrsalité

PHD defences
Friday July 12, 2019, 10AM, Salle Paul Lévy, 16-26 209
Carlo Bellingeri Formules d'Itô pour l'équation de la chaleur stochastique à travers les théories des chemins rugueux et des structures de régularité

PHD defences
Wednesday July 10, 2019, 10AM, Salle Paul Lévy, 16-26 209
Nicolas Gilliers Symétrie de jauge non-commutative et diffusions pseudo-unitaires

PHD defences
Wednesday July 10, 2019, 10AM, Salle Paul Lévy, 16-26 209
Nazih Benoumechiara Traitement de la dépendance en analyse de sensibilité pour la fiabilité industrielle

PHD defences
Friday June 28, 2019, 10AM, Salle Paul Lévy, 16-26 209
Clément Cosco Polymères dirigés et équation KPZ

PHD defences
Friday June 28, 2019, 10AM, Salle Paul Lévy, 16-26 209
Paul Melotti Modèles intégrables de mécanique statistique

PHD defences
Friday June 28, 2019, 10AM, Salle Paul Lévy, 16-26 209
Lucie Bernard Méthodes probabilistes pour l'estimation de probabilités de défaillance

PHD defences
Thursday June 27, 2019, 10AM, Salle Paul Lévy, 16-26 209
Assaf Shapira Percolation bootstrap et modèles aux contraintes cinétiques en environnements homogènes et aléatoires

PHD defences
Thursday June 27, 2019, 10AM, Salle Paul Lévy, 16-26 209
Come Hure Méthodes numériques pour le contrôle stochastique et les EDPs

PHD defences
Thursday June 20, 2019, 10AM, Salle Paul Lévy, 16-26 209
Lucas Benigni Dynamique de vecteurs propres de matrices aléatoires et valeurs propres de modèles non-linéaires de matrices

PHD defences
Thursday June 20, 2019, 10AM, Salle Paul Lévy, 16-26 209
Nicolas Thomas Stochastic numerical methods for Piecewise Deterministic Markov Processes. Applications in Neuroscience

PHD defences
Wednesday June 12, 2019, 10AM, Salle Paul Lévy, 16-26 209
Romain Mismer Convergence of Spike and Slad Bayesian posterior distributions in som high dimensional models

PHD defences
Wednesday June 5, 2019, 10AM, Salle Paul Lévy, 16-26 209
Michel Pain Mouvement brownien branchant et autres modèles hiérarchiques en physique statistique

PHD defences
Thursday April 18, 2019, 10AM, Salle Paul Lévy, 16-26 209
Henri Elad Altman Formules d'intégration par parties pour les lois des ponts de Bessel, et EDP stochastiques associées

PHD defences
Friday March 29, 2019, 10AM, Salle Paul Lévy, 16-26 209
Remi Degenne The Neighbourhood of Stochastic Multi-armed Bandits

PHD defences
Wednesday January 16, 2019, 10AM, Salle Paul Lévy, 16-26 209
Simon Bussy Introduction of high-dimensional interpretable machine learning models and their applications


Year 2018

PHD defences
Monday December 17, 2018, 10AM, Salle Paul Lévy, 16-26 209
Felix Balazard Contribution à la génétique et l'épidémiologie des maladies complexes pour une médecine personnalisée

PHD defences
Tuesday December 11, 2018, 10AM, Salle Paul Lévy, 16-26 209
Dimbihery Rabenoro Distribution asymptotique de vecteurs aléatoires indépendants conditionnés par leur somme

PHD defences
Tuesday November 27, 2018, 10AM, Salle Paul Lévy, 16-26 209
Xiaoli Wei Problème de contrôle de type McKean-Vlasov et apllications

PHD defences
Monday November 26, 2018, 10AM, Salle Paul Lévy, 16-26 209
Guillermo Durand Test multiples et bornes post hoc pour des données hétérogènes

PHD defences
Friday November 16, 2018, 10AM, Salle Paul Lévy, 16-26 209
Bastien Alonzo Seasonal Forecasting of Wind Energy Ressource and Production in France, and Associated Risk

PHD defences
Wednesday October 10, 2018, 10AM, Salle Paul Lévy, 16-26 209
Sophie Marque-Pucheu Gaussian process regression of two nested computer codes

PHD defences
Friday October 5, 2018, 10AM, Salle Paul Lévy, 16-26 209
Joseph Mure Bayesian analysis of Kriging models with anisotropic correlation kernel

PHD defences
Thursday September 27, 2018, 10AM, Salle Paul Lévy, 16-26 209
David Krief Méthodes Asymtotiques pour la Valorisation d'Options en Finance

PHD defences
Wednesday September 26, 2018, 10AM, Salle Paul Lévy, 16-26 209
Nikolas Tapia Directed Polymers and Rough Paths

PHD defences
Tuesday September 25, 2018, 10AM, Salle Paul Lévy, 16-26 209
Omar El Euch Quantitative Finance Under Rough Volatility

PHD defences
Friday September 21, 2018, 10AM, Salle Paul Lévy, 16-26 209
Adrien Genin Appoches Asymptotiques en Gestion des Risques Financiers

PHD defences
Friday September 7, 2018, 10AM, Salle Paul Lévy, 16-26 209
Veronica Miro Pina Equilibrium patterns of genetic diversity shuffled by migration and recombination

PHD defences
Tuesday July 3, 2018, 10AM, Salle Paul Lévy, 16-26 209
Mina Abdel-Sayed Représentation pour la détection d'anomalie, Application aux données vibratoires des moteurs d'avions

PHD defences
Tuesday March 27, 2018, 10AM, Salle Paul Lévy, 16-26 209
Franck Maunoury Conditions d'existence des processus déterminantaux et permanentaux

PHD defences
Thursday February 15, 2018, 10AM, Salle Paul Lévy, 16-26 209
Gilles Monneret Inférence de réseaux causaux à partir de données interventionnelles

PHD defences
Wednesday February 7, 2018, 10AM, Salle Paul Lévy, 16-26 209
Wangru Sun Modèle de forêts enracinées sur des cycles et modèle de perles via les dimères

PHD defences
Thursday January 18, 2018, 10AM, Salle Paul Lévy, 16-26 209
Olga Lopusanschi Chemins rugueux issus de processus discrets


Year 2017

PHD defences
Thursday December 21, 2017, 10AM, Salle Paul Lévy, 16-26 209
Guillaume Sall Quelques algorithmes rapides pour la finance quantitative

PHD defences
Friday December 15, 2017, 10AM, Salle Paul Lévy, 16-26 209
Ismail Amine Modélisation robuste de la volatilité : application à la valorisation de produits dérivés et à l’optimisation de portefeuille

PHD defences
Wednesday December 13, 2017, 10AM, Salle Paul Lévy, 16-26 209
Sarah Kaakai Nouveaux paradigmes en dynamique de populations hétérogènes : modélisation trajectorielle, agrégation, et données empiriques

PHD defences
Friday December 8, 2017, 10AM, Salle Paul Lévy, 16-26 209
Sandro Franceschi Approche analytique pour le mouvement brownien réfléchi dans des cônes

PHD defences
Wednesday December 6, 2017, 10AM, Salle Paul Lévy, 16-26 209
Saad Mouti Le management du risque pour les compagnies d'assurance : une approche marchés financiers

PHD defences
Wednesday December 6, 2017, 10AM, Salle Paul Lévy, 16-26 209
Yi Lu Calcul fonctionnel non-anticipatif et applications aux processus stochastiques

PHD defences
Wednesday November 29, 2017, 10AM, Salle Paul Lévy, 16-26 209
Pierre-Antoine Corre Processus de branchements et le graphe d'Erdös-Rényi

PHD defences
Tuesday July 11, 2017, 10AM, Salle Paul Lévy, 16-26 209
Clément Menasse Valorisation et stratégies optimales dans les marchés incomplets de l'énergie

PHD defences
Thursday June 29, 2017, 10AM, Salle Paul Lévy, 16-26 209
Liping Xu Contribution à l'étude de l'équation de Boltzmann homogène

PHD defences
Thursday June 8, 2017, 10AM, Salle Paul Lévy, 16-26 209
Florian Metzger Exposants de Lyapunov d'opérateurs de Schrödinger ergodiques

PHD defences
Friday June 2, 2017, 10AM, Salle Paul Lévy, 16-26 209
Daphné Giorgi Théorèmes limites pour estimateurs Multilevel avec et sans poids. Comparaisons et applications

PHD defences
Monday April 3, 2017, 10AM, Salle Paul Lévy, 16-26 209
Eric Adjakossa Analyse longitudinale mulivariée par modèles mixtes et application à l'épidémie de la malaria

PHD defences
Monday February 20, 2017, 10AM, Salle Paul Lévy, 16-26 209
Loïc De Raphelis Etude de marches aléatoires sur un arbre de Galton-Watson