Quand l’IA met des mots sur le vivant (I'MTech)
jeudi 4 septembre 2025
Atlapetes blancae (source I’mTech)
Face à ce constat, Jhony Giraldo, chercheur de Télécom Paris, construit des ponts entre apprentissage profond, langage et biodiversité en associant images et langage pour concevoir des IA capables de s’adapter à la complexité du vivant.
[…] Pour ce maître de conférences à Télécom Paris, cette situation cristallise une limite fondamentale : « Les modèles de fondation entraînés dans un environnement – ce qu’on appelle un domaine – échouent dès qu’ils sont transposés ailleurs, hors de leur domaine. » Le chercheur, originaire d’Antioquia (Colombie), se consacre à ce sujet à travers plusieurs projets qui croisent vision par ordinateur, modèles de langage et apprentissage profond géométrique. Objectif : bâtir des modèles capables de faire face à la complexité, à la rareté et à la variabilité du vivant.
Des pièges photographiques pour capturer les dynamiques de la biodiversité
Observer les espèces animales dans leur habitat demande de la patience… et beaucoup de données. Les pièges photographiques, des caméras automatiques déclenchées par le mouvement, y contribuent largement. Installés dans des environnements parfois difficiles d’accès, ils capturent des images précieuses d’animaux furtifs, rares ou méconnus. Rien qu’en France, les paysages divers — entre forêts tempérées, montagnes, et écosystèmes tropicaux des territoires ultramarins — abritent plus de 200 000 espèces animales et végétales. La surveillance de ces territoires, de leur faune et de leur flore, est essentielle pour mieux comprendre et protéger cette richesse naturelle.
Pour Jhony Giraldo, les technologies comme l’IA sont une aide précieuse dans cette démarche : « Le suivi par la technologie de la biodiversité, et plus précisément des animaux, aide notamment à mieux comprendre les impacts du changement climatique. » En effet, le climat, conjoint à la pression des humains, influencent grandement la dynamique des espèces animales. Dans les Alpes ou les Pyrénées par exemple, certaines espèces montagnardes migrent vers des altitudes plus élevées pour retrouver des conditions plus fraîches.
Ces déplacements, ainsi que d’autres signaux d’alerte, comme la raréfaction d’une espèce ou l’évolution inhabituelle de certains comportements, peuvent donc être repérés avec l’aide de l’IA. Mais classifier automatiquement les espèces sur les images reste un défi de taille. Les conditions de prise de vue — flou nocturne, surexposition diurne, camouflage dans la végétation… — compliquent la tâche, tout comme le grand nombre d’espèces, parfois très proches visuellement ou absentes des bases de données d’entraînement.
D’un continent à l’autre, les IA perdent le nord
Les travaux de Jhony Giraldo, dont le projet CATALOG (Camera Trap Language-guide Contrastive Learning Model), illustrent ces enjeux. Ils documentent notamment une faille fréquente dans les modèles d’IA visuelle : le domain gap, c’est-à-dire la perte d’efficacité d’un modèle lorsqu’il est appliqué à un environnement différent de celui qui a servi à son entraînement. […]