En apprentissage automatique et en problèmes inverses, il est parfois nécessaire de générer ou de déformer un nuage de points de sorte à approcher une mesure de probabilité modèle. Une manière naturelle d’y parvenir est de chercher à minimiser la distance de Wasserstein de la mesure uniforme sur le nuage de points par rapport à une distribution modèle.
Ce problème de minimisation est une variante du problème bien connu de la quantization optimal (cf Fejes-Toth, Gruber, Graf-Luschgy, Pagès, etc.), très étudié pour ses applications en statistiques, approximation, maillage, etc. La fonctionnelle minimisée n’est pas convexe et admet des points critiques dont l’énergie est beaucoup plus grande que celle du minimiseur. Pourtant, très souvent, les méthodes de descente de gradient mènent à des configurations présentant une énergie faible. Nous expliquons quantitativement ce comportement, en montrant en particulier que si les points initiaux ne sont pas trop proches les uns des autres, alors une seule étape de l’algorithme de Lloyd est suffisante pour obtenir une bonne approximation de la mesure approchée (collaboration avec Filippo Santambrogio et Clément Sarrazin). Je parlerai également d’un résultat plus récent, qualitatif, montrant en dimension 2 que l’énergie de quantification des points critiques stables de l’énergie est en réalité commensurable à l’énergie du minimiseur (collaboration avec Alessio Figalli et Filippo Santambrogio).