| Les deux révisions précédentes
Révision précédente
Prochaine révision
|
Révision précédente
|
start [2026/01/09 17:29] Djalil Chafaï |
start [2026/02/16 18:20] (Version actuelle) Igor Kortchemski |
| * 19 janvier 2026. **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **De la prédiction séquentielle à la géométrie des corps convexes.**\\ //L'objectif de la prédiction séquentielle probabiliste est de prédire une suite d'observations révélées une à une, en leur attribuant des probabilités aussi élevées que possible. Ce problème classique en apprentissage et en théorie de l'information est étroitement lié au codage universel et, plus récemment, à la prédiction du prochain token pour les modèles de langage. Dans cet exposé, je rappellerai d'abord des résultats classiques dus à Shtarkov et Rissanen dans les années 80–90. Une question centrale consiste à relier la complexité du problème à la "géométrie" du modèle sous-jacent. Pour l'aborder concrètement, je me restreindrai au cas de modèles gaussiens sous contrainte convexe. Je présenterai un résultat récent montrant que l'erreur optimale s'exprime alors en fonction de quantités de géométrie convexe, à savoir les volumes intrinsèques du corps considéré. Si le temps le permet, j'évoquerai aussi un lien avec la théorie des processus gaussiens. | * 19 janvier 2026. **[[https://jaouadmourtada.github.io/|Jaouad Mourtada (ENSAE/CREST)]]**. **De la prédiction séquentielle à la géométrie des corps convexes.**\\ //L'objectif de la prédiction séquentielle probabiliste est de prédire une suite d'observations révélées une à une, en leur attribuant des probabilités aussi élevées que possible. Ce problème classique en apprentissage et en théorie de l'information est étroitement lié au codage universel et, plus récemment, à la prédiction du prochain token pour les modèles de langage. Dans cet exposé, je rappellerai d'abord des résultats classiques dus à Shtarkov et Rissanen dans les années 80–90. Une question centrale consiste à relier la complexité du problème à la "géométrie" du modèle sous-jacent. Pour l'aborder concrètement, je me restreindrai au cas de modèles gaussiens sous contrainte convexe. Je présenterai un résultat récent montrant que l'erreur optimale s'exprime alors en fonction de quantités de géométrie convexe, à savoir les volumes intrinsèques du corps considéré. Si le temps le permet, j'évoquerai aussi un lien avec la théorie des processus gaussiens. |
| // | // |
| * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Titre à préciser.**\\ //// | * 16 février 2026. **[[https://www.normalesup.org/~basdevant/|Anne-Laure Basdevant (SU)]]**. **Problème d’Ulam et lignes d’Hammersley.**\\ //Le problème d’Ulam consiste à déterminer la longueur de la plus longue |
| * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **Titre à préciser.**\\ //// | sous-suite croissante d’une permutation aléatoire de taille n. |
| | Diverses méthodes ont permis de montrer que cette longueur est |
| | asymptotiquement équivalente à 2\sqrt{n}. Dans cet exposé, je |
| | présenterai une preuve de Cator et Groeneboom reposant sur un couplage |
| | probabiliste avec un modèle stationnaire. Je montrerai également |
| | comment cette approche peut être adaptée pour traiter d’autres |
| | problèmes connexes. |
| | // |
| | * 16 mars 2026. **[[https://marylou-gabrie.github.io/|Marylou Gabrié (LPENS)]]**. **De l’utilisation des modèles génératifs en échantillonnage.**\\ //Les modèles génératifs profonds paramètrent des familles de distributions très flexibles, capables de representer des ensembles de données complexes, tels que des images ou du texte. Ces modèles fournissent des échantillons indépendants provenant de distributions complexes de haute dimension à un coût négligeable. En revanche, échantillonner exactement une distribution cible, comme une loi posterior Bayésienne ou la distribution de Boltzmann d’un système physique, est généralement difficile : soit en raison de la dimensionnalité, de la multimodalité, du mauvais conditionnement, soit d’une combinaison de ces facteurs. Dans cet exposé, je discuterai des opportunités et des défis liés à l’amélioration des algorithmes traditionnels d’inférence et d’échantillonnage à l’aide de l’apprentissage.// |
| * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Titre à préciser.**\\ //// | * 13 avril 2026. **[[https://www.sertedonderwinkel.com/|Serte Donderwinkel (Groningen, Professeure invitée ENS-PSL/DMA)]]**. **Titre à préciser.**\\ //// |
| * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ //// | * 11 mai 2026. **[[https://www.ceremade.dauphine.fr/~massoulie/|Brune Massoulié (Dauphine)]]**. **Titre à préciser.**\\ //// |