Télécom Paris Ideas
La nouvelle frontière de l'informatique quantique

La nouvelle frontière de l’informatique quantique

Romain Alléaume, enseignant-chercheur, juin 2023.

[TP Ideas] Romain AlléaumeLes recherches de Romain Alléaume sont centrées sur l’information et la cryptographie quantiques. Il collabore aujourd’hui au projet d’Infrastructure européenne de communication quantique qui a pour but de sécuriser les données et les communications les plus sensibles.

Nous allons évoquer la nouvelle frontière de l’informatique quantique constituée par le passage à l’échelle qui rend possibles les applications industrielles.

Propos recueillis par Isabelle Mauriac

 

 

Podcast

Retrouvez cette interview en format audio dans le cadre du podcast Le ¼ d’heure du chercheur :

Entretien

Romain, pour commencer, j’aimerais que vous reveniez aux concepts. On sait que les technologies quantiques reposent sur des systèmes physiques qui se comportent de façon quantique. Quels sont ces systèmes et en quoi ont-ils un comportement différent des systèmes classiques ?

La théorie de la physique quantique date d’il y a un siècle environ. Elle explique qu’au niveau microscopique, un atome ou un photon, donc les grains de matière microscopiques, peuvent se retrouver en superposition. Par exemple, un photon peut être superposé en passant par un chemin ou par un autre, ou un atome éventuellement pourrait être superposé en position, en étant à un endroit ou à un autre de la pièce. Cela fut postulé pour la physique quantique et fut extrêmement fructueux pour décrire la matière dans le courant du XXe siècle.

 

L’idée des technologies quantiques et de l’information quantique consiste à utiliser désormais les propriétés de la physique quantique pour traiter l’information.

L’une des particularités de ces systèmes du point de vue de l’information est la superposition, dont je viens de parler. C’est le fait qu’on puisse imaginer, si on pousse vraiment la logique très loin, un système physique, un atome par exemple, qui serait en superposition à Paris et à Barcelone en même temps, donc dans des endroits extrêmement distants. C’est uniquement en l’observant, en regardant où il est qu’on saurait s’il est à Paris ou à Barcelone, mais intrinsèquement, le système serait à deux endroits en même temps, il pourrait aussi avoir deux trajectoires en même temps, donc passer par deux chemins en même temps, en superposition. […]

Ce sont des propriétés totalement invisibles dans les systèmes classiques. N’importe quel objet est à un endroit précis, il a une trajectoire précise et non une superposition de trajectoires. La possibilité de superposer des trajectoires va permettre ensuite d’imaginer comment créer des algorithmes du traitement de l’information, de la cryptographie, des moyens de sécuriser l’information, qui sont différentes des technologies classiques actuelles.

On entend beaucoup parler de l’avènement de l’ordinateur quantique, qui est en quelque sorte l’application phare du quantique. Où en est-on ? S’en rapproche-t-on ou au contraire son usage concret pour des applications industrielles n’est pas encore pour demain ?

L’ordinateur quantique est une idée des années 1980 qui donna des petites réalisations, de quelques qubits. À partir des années 2000 apparurent des systèmes avec des ions, des atomes, des photons mis en superposition afin de vérifier que potentiellement, cela fonctionnait toujours. Il était possible de faire des publications, mais pas vraiment des calculs intéressants.

Désormais, depuis trois à cinq ans, une nouvelle ère a commencé, où on peut commencer à fabriquer des systèmes quantiques complexes, c’est-à-dire avec une cinquantaine, une centaine de particules. Ce peut être une centaine d’atomes, comme la startup Pasqal à Massy, près de Télécom Paris, avec qui nous travaillons notamment pour l’enseignement.

 

On bascule aujourd’hui dans une ère de la complexité, il est possible avec des systèmes quantiques d’aborder des questions complexes qu’on ne pourrait potentiellement pas aborder avec un ordinateur classique.

C’est une frontière nommée « avantage computationnel » ou « suprématie quantique » : cette question est cruciale car la perspective serait de bénéficier d’une machine quantique capable de faire ce qui n’est pas possible avec l’informatique classique. On ne sait pas encore exactement trancher si cette barrière est franchie, c’est encore discuté, mais c’est une question au cœur de ce qu’on peut faire actuellement avec les systèmes d’aujourd’hui, qui comprennent donc 50 à 100 particules, mais qui sont très bruités.

Que signifie bruité, de mauvaise qualité, j’imagine ?

Typiquement, un ordinateur quantique est un peu comme un ordinateur classique : il est fabriqué avec des portes logiques, un ensemble d’instructions où on dit au qubit de transformer le 0 en 1, ou bien on fait une rotation pour mener des opérations logiques sur les qubits. Un qubit est bruité quand l’opération logique réalisée n’est pas parfaite. Si l’on veut transformer un qubit de 0 en 1, parfois il va rester à l’état 0, ou il va se transformer en autre chose. De ce fait, il y a des erreurs et plus il y a des portes avec des erreurs, le résultat du calcul va devenir de plus en plus bruité et aléatoire.

Actuellement, les ordinateurs quantiques font un pour cent d’erreur par opération, cela signifie que dès que l’on fait une centaine d’opérations il n’y a plus rien, plus d’informations. Donc on est limité à des calculs quantiques de très faible ampleur.

Depuis les années 1980 où on disposait déjà des premiers algorithmes quantiques, on sait qu’avec à peu près quelques centaines, un millier de qubits parfaits (ce qui était imaginé au début), on peut vraiment basculer sur des utilisations, par exemple en cryptographie, impossibles à réaliser classiquement.

Aujourd’hui, on a plutôt 50 à 100 qubits très bruités, qui sont équivalents à peut-être quelques qubits parfaits, et encore on ne sait pas encore les fabriquer. Pour cela, il faudrait faire de la correction d’erreur, c’est-à-dire utiliser plein de qubits bruitées pour fabriquer un qubit parfait.

On pense aujourd’hui qu’il faut à peu près un millier de qubits bruités pour avoir un qubit parfait.

 

Aujourd’hui, il n’est pas encore possible de réaliser des qubits parfaits, mais on sait déjà qu’avec quelques centaines à un millier de qubits parfaits, il serait possible de réaliser tout un ensemble de tâches utiles complètement hors de portée des ordinateurs actuels.

Vous disiez qu’on ne savait pas à l’heure actuelle si cette nouvelle frontière était franchie… mais alors quelle seraient ou seront ces applications concrètes des ordinateurs quantiques avec des qubits parfaits ?

Certaines applications paraissent crédibles, y compris à moyen terme, peut-être même avec les qubits bruités actuels, avec des simulations quantiques et non purement des ordinateurs. On ne ferait pas vraiment un calcul avec des portes, car il y a des façons un peu plus « relaxées » de faire un calcul quantique. Les premières applications consisteraient à simuler des systèmes physiques complexes, par exemple des solides, de la matière condensée, de comprendre la structure des supraconducteurs à haute température, pourquoi ils sont supraconducteurs à cette température-là, ce qu’il n’est pas possible d’expliquer aujourd’hui avec la physique actuelle et les ordinateurs classiques pour lesquels on fait des simulations.

On peut aussi envisager des applications pour la chimie. Une réaction chimique est un ensemble de particules quantiques qui interagissent, mais dès qu’il y a plein de particules quantiques, cela devient très vite extrêmement complexe à simuler avec un ordinateur classique. La chimie computationnelle se fait avec des superordinateurs qui prédisent les réactions chimiques ; c’est déjà un domaine important de la chimie. Mais on est limité par le fait que les réactions chimiques sont quantiques et donc qu’il existe ce phénomène de superposition et d’explosion de la complexité. Finalement, si un ordinateur quantique ou un système quantique pouvait se comporter comme les réactions chimiques, il serait possible, en faisant évoluer le système quantique, de prédire les résultats des réactions chimiques.

Il serait éventuellement possible de faire de l’ingénierie moléculaire chimique afin de fabriquer des médicaments ainsi que des matériaux. Un des grands problèmes aujourd’hui en chimie industrielle est par exemple la fabrication d’engrais, extrêmement coûteuse en énergie. Il serait possible d’imaginer d’utiliser des ordinateurs quantiques – quand ils seront plus performants que les ordinateurs classiques – afin de prédire les réactions chimiques et les évolutions, pour fabriquer des nouveaux engrais ou de nouvelles façons de synthétiser les engrais.

L’informatique quantique peut aussi nous aider à mieux comprendre les niveaux d’énergie des matériaux et de ce fait à envisager des solutions moins énergivores : pensez-vous que le quantique pourrait être utile dans la lutte contre le réchauffement climatique ?

Oui, tout à fait. Comme je l’ai expliqué, cela peur consister à réaliser des synthèses chimiques moins énergivores pour un certain nombre de processus industriels qui demandent beaucoup d’énergie,  baisser le coût énergétique en trouvant des meilleurs chemins grâce à la simulation.

 

Par ailleurs, le numérique classique d’aujourd’hui est très gourmand en énergie. Or, un ordinateur quantique, en réduisant la complexité, donc le nombre d’opérations qu’il faut pour mener telle opération, va avoir tendance à dépenser moins d’énergie pour faire le même calcul.

On peut imaginer aussi que de grands ordinateurs quantiques, qui seront peut-être dans le cloud, pourraient permettre à l’avenir de dépenser moins d’énergie pour traiter l’information, pour un grand nombre de tâches, qui peuvent aller de problèmes d’optimisation (des problèmes transverses aujourd’hui pour la recherche opérationnelle qui pourraient être résolus par des ordinateurs quantiques) à des problèmes de cryptographie. Cela concerne aussi le machine learning qui nécessite de traiter de grands volumes de données avec des algorithmes linéaires pour lesquels on peut trouver des équivalents quantiques permettant d’accélérer la résolution de ces problèmes.

Oui, mais vous disiez qu’on ne savait pas à l’heure actuelle si on avait franchi cette nouvelle frontière, alors concrètement je vous demande : « c’est pour quand ? »

C’est peut-être la raison pour laquelle je fais de la recherche : en effet, on est dans un moment vraiment passionnant, parce que les technologies ont fait un bond depuis les années 2000, mais ce bond est à une limite critique depuis environ cinq ans. La frontière de la complexité est atteinte. On ne sait pas encore, on n’a pas vraiment encore dépassé le nuage, on ne sait pas exactement en matière de traitement de l’information ce que cela permet de réaliser. Avec des systèmes encore beaucoup plus perfectionnés, ce serait radical.

 

Aujourd’hui, on peut se demander si les systèmes déjà disponibles permettent de faire nettement mieux que le classique. On ne sait pas encore si on a vraiment franchi cette frontière. Mais cette frontière est passionnante !

Il est possible que cela se confirme et il y a déjà beaucoup d’entreprises qui travaillent dans ces directions-là, en explorant l’avantage quantique computationnel pour des tâches d’optimisation financière, de calcul financier, par exemple. L’optimisation de portefeuille nécessite des calculs mathématiques pour lesquels on peut utiliser l’algorithmique quantique. Il y a aussi des problèmes de matière condensée, des problèmes de machine learning… bref, de nombreuses entreprises se lancent dans ces directions-là.

Par ailleurs, il existe des doutes sur les performances du matériel pour vraiment bénéficier des avantages du quantique, mais le matériel progresse. En explorant conjointement des applications avec du hardware, c’est aussi une façon de progresser sur l’algorithmique et sur le mapping entre l’algorithmique, les applications et le matériel.

Vidéo

[Télécom Paris Ideas] Technologies quantiques #1 : le défi du passage à l'échelle (vidéo)

Ce qui est spécifique à la période actuelle est qu’il commence à y avoir des technologies quantiques reproductibles à une échelle qui n’est pas seulement celle du laboratoire mais celle du monde réel (…) Industrialiser les technologies quantiques devient possible.

Le défi est celui du passage à l’échelle, de scalability des technologies qui passe par une baisse des coûts, une maîtrise des technologies, l’hybridation de ces technologies avec des technologies classiques (…)

Nous vivons un moment passionnant, des systèmes quantiques commencent à fonctionner avec une dizaine ou une vingtaine de particules : des réseaux quantiques peuvent se déployer sur plusieurs centaines de kilomètres (…) Aujourd’hui des prototypes d’ordinateurs quantiques commencent à pouvoir rivaliser avec des ordinateurs classiques. On appelle ça l’avantage computationnel.

 

Télécom Paris Ideas