Newsroom

Prix de Thèse IP Paris : trois doctorants de Télécom Paris parmi les lauréats

Kamélia Daudel, Kimia Nadjahi, Bozhang Dong

La cérémonie de remise des diplômes des doctorants de l’Institut Polytechnique de Paris (IP Paris) a eu lieu le 1er juillet 2022 à l’École Polytechnique.

À cette occasion, le prix de thèse IP Paris a été décerné à sept lauréats, parmi lesquels figurent trois doctorantes et doctorant du LTCI :

Kamélia Daudel

Kamélia Daudel, doctoranteCo-directeurs de thèse François Roueff et Randal Douc

La thèse de Kamélia Daudel s’inscrit dans l’étude des méthodes d’inférence variationnelle en analyse statistique des données.

En savoir + sur la thèse de Kamélia Daudel

Ce type de méthodes consiste à approcher une densité de distribution de forme potentiellement très complexe, typiquement la densité d’une loi a posteriori en inférence bayésienne dans le cadre des données massives, par une densité de distribution plus simple appartenant à une famille dite variationnelle. Ce problème peut s’aborder génériquement dans le sens où il dépend essentiellement du choix de la famille variationnelle et de la façon de mesurer l’erreur d’approximation, généralement sous la forme d’une divergence entre mesures de probabilité telle que la divergence-alpha.

L’originalité de la thèse de Kamélia est de proposer de nouveaux algorithmes enrichissant la famille variationnelle par delà les familles traditionnellement utilisées, tout en garantissant à chaque étape une décroissance de la divergence-alpha, c’est-à-dire une amélioration d’un critère global parfois non-convexe. Ses travaux permettent notamment de travailler avec une famille variationnelle contenant les mélanges finis de lois paramétriques et de tisser des liens entre une approche par décroissance systématique de la divergence-alpha et une approche plus classique basée sur la descente miroir [1, 2] et/ou sur la descente de gradient [3], ouvrant la voie vers une fertilisation croisée accrue entre ces différentes approches.

[1] K. Daudel, R. Douc and F. Portier (2021). Infinite-dimensional gradient-based descent for alpha-divergence minimisation. Ann. Statist. 49 (4) 2250 – 2270.

[2] K. Daudel and R. Douc (2021). Mixture weights optimisation for Alpha-Divergence Variational Inference. In Advances in Neural Information Processing Systems, volume 34, pages 4397–4408.

[3] K. Daudel, R. Douc and F. Roueff (2021). Monotonic Alpha-divergence Minimisation for Variational Inference. Submitted.

Bozhang Dong

Bozhang Dong, doctorantDirecteur de thèse Frédéric Grillot

High-speed, energy-efficiency, and low-cost photonic integrated circuits (PIC) play a crucial role in next-generation optical communication, short-reach optical interconnect, and quantum technologies.

En savoir + sur la thèse de Bozhang Dong

Silicon photonics is a promising platform for PIC, owing to its compatibility with mature complementary metal-oxide-semiconductor (CMOS) foundry in which a low-cost standard 300 mm Si wafer production line can be utilized. It is used to be a challenge to fabricate high-efficiency laser sources for silicon PIC, due to the indirect bandgap of Si. Moreover, the on-chip back-reflection is detrimental to the stability of lasers thus the performance of PIC, which is a challenge for large-scale photonic integration.

Bozhang Dong’s dissertation focuses on developing high-performance sources for silicon PIC. In this thesis, he demonstrates that semiconductor quantum-dot (QD) lasers on silicon exhibit remarkable performance such as low threshold current, high thermal stability, and high degree of insensitivity for chip-scale back-reflection. To improve the transmission capacity, optical frequency comb (OFC) that offers a wide range of optical channels is a promising solution. His dissertation highlights the potential of QD laser for ultra-quiet and high-bandwidth frequency comb generation. In particular, the rich optical nonlinearities offered by QD gives insights for self-mode-locking and quantum state of light generation. These studies pave the way for ultra-compact, high-speed, uncooled, and isolator-free silicon PIC.

 Reference: F. Grillot, J. Duan, B. Dong, and H. Huang, Uncovering recent progress in nanostructured light-emitters for information and communication technologies (Review), Light: Sciences & Applications, vol. 10, 156, 2021.

Kimia Nadjahi

Kimia NadjahiCo-directeurs de thèse Roland Badeau et Umut Şimşekli

En sciences des données, concevoir un algorithme d’apprentissage automatique efficace reste un défi compliqué en raison, entre autres, des quantités importantes de données, de la puissance de calcul limitée des ordinateurs ou de la difficulté à paramétrer convenablement la méthode utilisée.

En savoir + sur la thèse de Kimia Nadjahi

La performance d’un algorithme d’apprentissage, évaluée en fonction de son ergonomie et de la qualité de ses résultats, dépend ainsi de plusieurs facteurs clés. En particulier, les méthodes actuelles utilisent une distance pour pouvoir comparer des jeux de données. Cette distance doit être choisie avec précaution puisqu’elle influence fortement la qualité des résultats.

La distance de Wasserstein est un choix pertinent de par ses propriétés théoriques, mais son calcul est en général très coûteux, notamment lorsque la dimension de données est grande. Des alternatives pratiques ont alors été introduites au cours de ces dernières années, dont la distance Sliced-Wasserstein (SW). Par définition, SW offre des coûts de calcul faibles, y compris en grande dimension, ce qui en fait un outil très prometteur pour les sciences des données et l’apprentissage automatique. Plusieurs travaux récents ont ainsi introduit de nouvelles méthodologies basées sur SW afin de résoudre efficacement divers problèmes en sciences des données. Néanmoins, l’analyse de ces méthodes était fortement limitée : peu de travaux avaient étudié SW d’un point de vue théorique.

L’objectif de cette thèse est alors d’approfondir l’étude de SW pour mieux appréhender les conséquences de son utilisation dans les problématiques modernes d’apprentissage automatique, comme la génération d’images par le “deep learning”. La thèse fournit ainsi un ensemble de résultats théoriques sur SW qui justifient la performance des algorithmes existants basés sur SW et encouragent de nouvelles applications. Une contribution importante est la preuve de garanties théoriques qui démontrent l’efficacité de SW en grande dimension, confirmant ainsi les observations des travaux empiriques antérieurs. Outre une étude théorique approfondie, les principales contributions de la thèse comprennent de nouveaux outils pratiques inspirés de SW qui permettent, par exemple, d’accélérer le temps d’exécution des réseaux de neurones pour la génération d’images, tout en améliorant la qualité des résultats. Cette thèse a donné lieu à six publications scientifiques acceptées à des actes de conférences très reconnues et compétitives en apprentissage automatique et traitement du signal.

Kimia a eu 3 articles primés :
Kimia Nadjahi, Valentin de Bortoli, Alain Durmus, Roland Badeau, Umut Şimşekli. Approximate Bayesian computation with the sliced-Wasserstein distance
45th International Conference on Acoustics, Speech, and Signal Processing, May 2020, Barcelona, Spain. Best student paper award.
Kimia Nadjahi, Alain Durmus, Lénaïc Chizat, Soheil Kolouri, Shahin Shahrampour et al.  Statistical and Topological Properties of Sliced Probability Divergences, Advances in Neural Processing Systems, 2020, France. Spotlight presentation.
 
Kimia Nadjahi, Alain Durmus, Umut Şimşekli, Roland Badeau. Asymptotic Guarantees for Learning Generative Models with the Sliced-Wasserstein Distance
NeurIPS 2019, Dec 2019, Vancouver, Canada. Spotlight presentation.

Photos source LinkedIn