Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
start [2025/04/03 09:52] Djalil Chafaï |
start [2025/05/08 18:03] (Version actuelle) Djalil Chafaï |
||
---|---|---|---|
Ligne 20: | Ligne 20: | ||
* 31 mars 2025. [[|Justin Salez (Dauphine)]]. **Une invitation au phénomène de cutoff pour les chaînes de Markov.**\\ //Le phénomène de cutoff est une transition abrupte vers l' | * 31 mars 2025. [[|Justin Salez (Dauphine)]]. **Une invitation au phénomène de cutoff pour les chaînes de Markov.**\\ //Le phénomène de cutoff est une transition abrupte vers l' | ||
* 7 avril 2025. [[|Antoine Jego (CNRS & Dauphine)]]. **Invariance conforme et géométrie fractale aléatoire.**\\ //Cet exposé propose une promenade dans l’univers de la géométrie fractale aléatoire, où règne une propriété de symétrie : l’invariance conforme. La motivation principale réside dans l’étude de la limite d’échelle des modèles de physique statistique (percolation, | * 7 avril 2025. [[|Antoine Jego (CNRS & Dauphine)]]. **Invariance conforme et géométrie fractale aléatoire.**\\ //Cet exposé propose une promenade dans l’univers de la géométrie fractale aléatoire, où règne une propriété de symétrie : l’invariance conforme. La motivation principale réside dans l’étude de la limite d’échelle des modèles de physique statistique (percolation, | ||
- | * 28 avril 2025. [[|Benjamin Gess (Berlin & Leipzig)]]. **Régularisation pour le bruit d'une EDP.**\\ //// | + | * 28 avril 2025. [[|Benjamin Gess (Berlin & Leipzig)]]. **Gradient flow structures and large deviations for porous media equations.**\\ //While the derivation of nonlinear but uniformly parabolic equations from microscopic dynamics, fluctuations around these limits, and the corresponding canonical choice of a gradient flow structure are now well-understood, |
- | * 5 mai 2025. [[|Giulio Biroli (LPENS)]]. **Titre à préciser.**\\ //// | + | * 5 mai 2025. [[|Giulio Biroli (LPENS)]]. **Random Energy Model, Kernel Density Estimation and Diffusion Models for Generative AI.**\\ //The Random Energy Model (REM), introduced by Derrida in 1981, has become a cornerstone in the study of disordered systems, with profound implications in both physics and probability theory. Kernel density estimation (KDE) is a fundamental non-parametric tool in statistics for estimating probability densities from data. Diffusion models have recently emerged as powerful generative methods in artificial intelligence, |
- | * 12 mai 2025. [[|Gérard Ben Arous (NYU)]]. **Titre à préciser.**\\ //// | + | In this talk, I will present a connection between these three distinct problems. By focusing on the asymptotic regime of high data dimensionality and large sample sizes, I will show how analytical techniques and theoretical insights from the REM can be leveraged to study both KDE and diffusion models. In particular, I will highlight how phase transitions observed in the REM, and their connection to extreme value theory and limiting laws of sums of i.i.d. random variables, have remarkable counterparts and consequences for these other problems in statistics and machine learning.// |
+ | * 12 mai 2025. [[|Gérard Ben Arous (NYU & IHES)]]. **Local geometry of high-dimensional mixture models: Effective spectral theory and dynamical transitions.**\\ //I will survey recent progress in the understanding of the optimization dynamics for high dimensional ML tasks, and in particular the local geometry of empirical risks in high dimensions in the case of classification tasks, via the spectral theory of their Hessian and information matrices. Joint work with Aukosh Jagannath, Jiaoyang Huang, Reza Gheissari.// | ||
* 2 juin 2025. Assemblée générale du projet PSL [[https:// | * 2 juin 2025. Assemblée générale du projet PSL [[https:// | ||