Newsroom

Mastère Spécialisé Intelligence artificielle : maîtriser une technologie profondément transformatrice

Soixante-dix ans après la création du terme « intelligence artificielle », l’idée n’en finit pas d’être interrogée, mais elle a quitté depuis plusieurs années le seul champ de la science. La définition initiale, « la possibilité de produire des programmes qui se conduiraient ou penseraient intelligemment » reste valable dans l’usage précautionneux du conditionnel ; les vertiges qu’elle ouvrait ne se sont pas comblés, bien au contraire.

Les ambitions d’alors, et le défi originel de l’IA, « chercher à produire, sur un ordinateur, un ensemble de sorties qui serait considéré comme intelligent s’il était produit par un être humain », ne comportait pas des enjeux qui se sont révélés cruciaux depuis, comme les biais et les atteintes à l’équité, la protection des données personnelles ou les limites écologiques. Surtout, les acteurs de l’époque n’envisageaient pas à ce point la transformation de la société par le numérique.

Par Aymeric Poulain Maubant

Le Mastère Spécialisé® Intelligence Artificielle de Télécom Paris et de l’ENSTA, où une place particulière à l’éthique et la déontologie parmi les fondamentaux à maîtriser a été faite dès l’origine, s’inscrit dans une perspective multi-disciplinaire.

Aujourd’hui, les systèmes d’intelligence artificielle ont rejoint la liste des quelques technologies d’intérêt général, comme l’électricité, ou le chemin de fer en son temps, qui impactent toutes les autres technologies. La société n’est plus seulement numérisée, elle est « cognitisée ». Le terme « intelligent » est ajouté à tout : les objets, les bâtiments, les villes… L’IA est brandie comme la réponse et la solution de tout. D’un projet purement académique, l’IA est devenue en quelques années une force qui alimente l’industrie et la société, affectant la vie de millions de personnes. Les avancées, tant dans la recherche que la société, se font à un rythme soutenu, en parallèle, s’alimentant les unes les autres. Les praticiennes et praticiens de l’IA doivent dès lors se former sur de nombreux aspects, qui ne relèvent pas seulement de la technique.

Un champ de recherche très actif…

La notion d’« intelligence artificielle » n’est pas la seule à être interrogée. Ce que recouvre l’intelligence fait toujours l’objet de débats. Une définition juste mais limitée, « la capacité à résoudre des problèmes, et à s’adapter à son environnement », décrit bien le paysage. Elle semble se focaliser sur l’intelligence rationnelle, et n’évoque pas la nécessité d’autres formes, comme l’intelligence émotionnelle ou l’intelligence sociale. Si l’environnement est cité, la boucle rétroactive avec les agents y évoluant n’est pas visible. Enfin, les intelligences biologiques autres qu’humaines, y compris les capacités d’adaptation des plantes qui d’une certaine manière relèvent de cette définition, ne sont pas explicitement citées.

Ces considérations se retrouvent dans les axes de recherche vivaces actuels et les débats qui cherchent à les faire évoluer. Avec l’avènement de l’apprentissage profond, et le recours devenu banal à des données massives, des architectures de plus en plus gigantesques ont été élaborées. Les derniers modèles de langage naturel comportent ainsi plusieurs dizaines de milliards de paramètres, et les succès obtenus ont créé une école de pensée estimant que les futures ruptures ne pourront provenir que de modèles encore et toujours plus grands. D’autres voix, critiques, se font entendre, faisant appel à des arguments technologiques, environnementaux ou philosophiques.

Ces modèles massifs ont cependant donné naissance à des systèmes que nous utilisons tous les jours, capables de traiter intelligemment – pour les traduire, les résumer – nos productions écrites ou parlées. À partir des larges bases d’images d’œuvres d’art ou de musique, les modèles dit génératifs produisent de nouvelles compositions ; à partir de bases de données chimiques, ils proposent des molécules prometteuses pour de futurs médicaments.

Apprentissage par transfert et modèles génératifs ne sont pas les seules nouvelles formes d’apprentissage-machine. L’apprentissage fédéré, l’apprentissage actif, l’apprentissage à partir de peu ou pas d’exemples ont le vent en poupe. Les architectures à base de « transformers », dans le domaine du langage, et celles adaptés aux connaissances plus facilement structurées en graphes, sont explorées. Un renouveau récent des recherches sur la coopération des modèles symboliques et connexionnistes, deux paradigmes majeurs de l’IA, est un indice complémentaire qu’une seule voie ne peut pas tout, et que les solutions hybrides, et donc une connaissance de toutes les approches, sont nécessaires. Ce sont aussi des voies prometteuses pour le raisonnement et pour la compréhension du sens commun, des objectifs aussi importants que l’apprentissage.

…offrant de nombreuses visions inspirantes

À l’été 2021, un grand centre de recherche a communiqué sa vision du futur de l’IA : les modèles développés spécifiquement pour des tâches précises, qui ont dominé le paysage jusqu’à présent, vont être remplacés par des modèles formés sur de larges ensembles de données de nature diverses, pouvant être utilisés sur des tâches tout autant diverses, avec des réglages fins minimaux. Ces « foundation models » ont déjà montré leur potentiel dans les domaines de l’image et du langage. À partir d’un « prompt » – quelques mots d’initialisation – GPT-3, BERT, DALL·E 2  peuvent créer des textes longs et des images complexes, vraisemblables.

En juin 2022, Yann Le Cun, Chief AI Scientist à Meta, ouvre aux commentaires publics un document de synthèse des recherches qu’il entend mener sur des architectures et des paradigmes d’apprentissage nouveaux, visant à construire des agents intelligents autonomes, capables de représentations et de plans d’action à plusieurs niveaux d’abstraction, leur permettant de raisonner, de prédire et de planifier à plusieurs horizons temporels.

D’autres scientifiques insistent sur le fait que les compétences ne peuvent être acquises de manière isolée. Les fonctions cognitives les plus élevées, comme l’abstraction, l’imagination compositionnelle ou la pensée relationnelle, proviennent des interactions linguistiques et culturelles avec les autres. Les agents intelligents doivent être immergés dans des mondes socioculturels riches, ce qui a été trop ignoré jusqu’à présent. L’interaction humain-machine et le langage sont des champs idéaux pour explorer cette voie.

Multi-disciplines pour une Intelligence Artificielle responsable

Des courants de pensée estiment que l’IA est un instrument de pouvoir et une technologie qui reste fondamentalement extractive. Une vision plus au service de l’humanité, comme le recommandait la mission Villani sur l’IA en 2018, devrait être possible ; cesser de s’inspirer de l’intelligence rationnelle, et passer à l’intelligence relationnelle, fondée sur d’autres cultures et philosophies, est une idée qui pourrait refonder le projet initial.

En Europe, et sous l’impulsion d’un groupe d’expertes et d’experts multidisciplinaires, les réflexions sur la stratégie IA à adopter ont fait entrer ces considérations autres que techniques dans la conversation. Le choix a été fait d’œuvrer au développement d’une « IA responsable et digne de confiance ». Ces notions se retrouvent au cœur de la proposition de loi européenne sur l’intelligence artificielle en cours de construction, qui aura un impact extra-territorial aussi important que le RGPD. Celle-ci s’articule autour des niveaux de risques entraînés par les systèmes d’IA, et les discussions sont âpres sur les définitions précises de l’IA qui entreront dans telle ou telle catégorie de risque.

Le Mastère Spécialisé® Intelligence Artificielle de Télécom Paris et de l’ENSTA, où une place particulière à l’éthique et la déontologie parmi les fondamentaux à maîtriser a été faite dès l’origine, s’inscrit dans cette perspective. Son approche multi-disciplinaire et ses liens avec les industriels qui fournissent des cas concrets assurent que les élèves seront parfaitement adaptés aux aspirations des entreprises, tout en étant réceptifs aux visions d’un domaine en perpétuelle invention. Dans les travaux récents des scientifiques impliqués dans cette formation, citons par exemple un appel à mieux intégrer les connaissances issues des sciences sociales pour développer des systèmes conversationnels plus efficaces et réalistes. C’est en effet une nécessité, les chatbots étant un des outils les plus prisés aujourd’hui.

Des cas d’usage très concrets en entreprise

Les entreprises ont identifié les bénéfices directs du déploiement d’IA : réduction des erreurs humaines, automatisation des tâches routinières, amélioration de la productivité, amélioration du service-client… Dans un cadre réglementaire en pleine évolution, qu’il faut étudier et anticiper, elles peuvent utiliser l’IA pour répondre à la sensibilité des citoyens et des consommateurs à l’usage de leurs données (détecter des données personnelles dans des documents ou des conversations) ou encore concilier transition numérique et environnementale (aide au calcul de l’empreinte carbone).

Selon les études, entre 50 et 75 % des entreprises, tous domaines confondus, développent des projets dans lesquels l’intelligence artificielle a une part importante. Même les plus petites organisations s’y intéressent, souvent aidées par des programmes d’accompagnement de structures publiques. La complexité des systèmes d’IA et la rareté des personnes qualifiées sur le marché font partie des obstacles souvent cités par les entreprises. Les experts capables de comprendre, d’expliquer et d’implémenter ces systèmes – ingénieur·e en intelligence artificielle et en apprentissage machine, en robotique, chercheur·se en intelligence artificielle, concepteur·trice d’agents conversationnels… – et capables de faire évoluer les systèmes d’information pour rendre accessibles et exploitables les capacités des IA sont une valeur hautement recherchée.

À lire :

Image d’entête source I’m Tech