Pour la scientifique, le développement de l’IA et la maîtrise des concepts les plus avancés de la mécanique quantique pourraient entraîner une nouvelle révolution technologique.
Pascale Senellart est un cas rare : diplômée de Polytechnique, elle s’est orientée vers la recherche, obtenant un doctorat en physique quantique. Directrice de recherche au CNRS, au Centre de nanosciences et de nanotechnologies de l’université Paris-Saclay, elle a cofondé la start-up Quandela, qui développe les premiers calculateurs quantiques à base de lumière. Ces activités s’articulent de façon originale en France : toutes les premières démonstrations sont faites par son équipe de recherche et, si certaines sont d’intérêt pour les ingénieurs de Quandela, ces derniers transforment alors ces preuves de concept en application. La propriété intellectuelle est gérée par les règles définies en commun. « Ce lien entre recherche fondamentale et appliquée permet une combinaison de propositions théoriques et de progrès scientifiques réellement bluffante », souligne Pascale Senellart. La physicienne a de ce fait a une vision globale de la révolution technologique en cours. C’est la raison pour laquelle le Collège de France l’a invitée à livrer des cours dans le cadre de l’Année internationale des sciences et technologies quantiques qui marque, les 100 ans de la découverte de la physique quantique.
Où en sommes-nous de la révolution des technologies de l’information et de la communication aujourd’hui ?
On a vécu, depuis la fin de la Seconde Guerre mondiale, une révolution technologique absolument vertigineuse. Elle a été rendue possible par la miniaturisation des microprocesseurs et de leurs composants essentiels, les transistors, qui faisaient quelques millimètres au milieu du xxe siècle contre quelques dizaines de nanomètres [nm] aujourd’hui – 10 nm étant 4 000 fois plus petit qu’un cheveu – et par l’avènement d’un matériau roi, le silicium, qui permet d’installer des milliards de processeurs sur une puce. Ces processeurs et cette électronique sont au cœur des ordinateurs, des téléphones, des supercalculateurs qui peuplent le monde de l’information extrême dans lequel nous vivons aujourd’hui. La circulation des données entre ces objets connectés, aussi éloignés soient-ils, a atteint des vitesses folles grâce aux avancées dans le domaine de l’optique, de la photonique. Les bouleversements prodigieux qu’ont entraînés ces évolutions scientifiques étaient, de mon point de vue, absolument imprévisibles : quand on regarde ce à quoi ressemblaient, à la sortie de la guerre, les premiers ordinateurs et les communications, on a du mal à imaginer que cela ait pu aboutir à ce que nous ayons un smartphone dans la main.
Qu’est-ce qui vous surprend le plus dans le caractère imprévisible de cette révolution, l’accélération ou la miniaturisation ?
C’est l’ensemble. La capacité à miniaturiser est essentielle. Mais il y aussi, ce n’est pas mon domaine, la capacité à construire des architectures qui permettent de mettre les outils en réseau et de les faire communiquer à grande vitesse. En tant que scientifique, voir la transformation d’un objet de laboratoire en quelque chose de révolutionnaire, je pense que cela n’arrive pas souvent.
Diriez-vous que nous sommes à un point d’inflexion de l’histoire de l’humanité ?
L’émergence de l’IA, qui s’appuie sur ces technologies, est à l’évidence un moment pivot. Pourquoi l’IA est possible aujourd’hui ? D’abord parce que nous avons eu en permanence de nouveaux types de processeurs qui permettent d’implémenter de nouvelles fonctions mathématiques, souvent imprévues, une autre communauté s’emparant de l’idée première et la détourne pour faire autre chose. Ainsi le GPU (graphics processing unit), initialement conçu pour résoudre des problèmes de graphisme dans les jeux vidéo, permet de faire tourner de manière très efficace des algorithmes de machine learning. De même, le transistor, avant de devenir le composant-clé des microprocesseurs, a d’abord servi à faire des aides auditives, de petites oreillettes.
Je prends ces images parce que nous sommes à un tournant avec le quantique et l’IA, dont même les spécialistes – dont je ne suis pas – ne peuvent prédire l’évolution et ses conséquences. C’est pour cela que je parle d’imprévisibilité.
Nous avons des avancées scientifiques à la fois dans la microélectronique, dans les matériaux qui servent de support, et à la fois dans des systèmes plus fondamentaux, comme les atomes ou les photons. Au fil de la deuxième moitié du xxe siècle, on a réussi à contrôler ces systèmes de mieux en mieux, alors même qu’ils étaient de plus en plus petits. Par exemple, les premiers lasers ont été réalisés avec des ensembles d’atomes dont on peut aujourd’hui réduire le nombre. À partir de ce moment-là, on voit émerger des problèmes physiques de plus en plus complexes, qui sont l’intrication et la superposition quantique, qu’on est maintenant capable de maîtriser en laboratoire.
Est-ce à dire qu’il y a désormais un changement de perspective ?
Depuis trente ans, on met en évidence en laboratoire les concepts les plus subtils de la mécanique quantique, ce que ses créateurs jugeaient irréalisable. Pour eux, il ne s’agissait que d’expériences de pensée. C’est le fameux chat de Schrödinger – qui est bien sûr une image. À l’époque, cela avait généré des débats scientifiques et philosophiques très importants, mais les gens se disaient que ce n’était pas grave car on n’arriverait jamais à le faire. Or, on fait cela depuis trente ans. On sait créer le système qui, quand on ouvre la boîte, va donner une réponse aléatoire mais cohérente. Il y a donc une évolution conceptuelle gigantesque qui rend le quantique utilisable. Dans la première révolution technologique, au xxe siècle, on a compris la mécanique quantique, l’information qu’elle nous donnait sur la façon dont la nature est construite. On a réussi à contrôler et à créer des systèmes quantiques artificiels. La microélectronique en est remplie. Mais c’est basique, c’est-à-dire qu’on a jusqu’ici utilisé les concepts les plus simples de la mécanique quantique. Maintenant, nous avons franchi une étape : nous pouvons implémenter les concepts les plus subtils et les plus non-intuitifs, ce qui ouvre la voie à des applications très puissantes. Sur le papier en tout cas.
Ce qui conduit à évoquer l’interaction entre la recherche fondamentale et l’application…
En fait, la recherche fondamentale, c’est la théorie et l’expérience. La théorie n’a aucune valeur si elle n’est pas vérifiée par l’expérience. À un théoricien qui propose une nouvelle idée pour essayer de comprendre comment le monde fonctionne succède un expérimentateur qui en teste la validité. Ces premières mises en évidence expérimentales, la recherche appliquée les prolonge le plus loin possible, pour voir jusqu’à quel point on peut les contrôler, à quel point on peut s’en servir. Par exemple, la conception du GPS exigeait de définir le temps avec une précision que seules des horloges atomiques pouvaient apporter. Mais pour construire ce type d’horloges, il fallait d’abord accéder à une connaissance extrêmement étendue des niveaux d’énergie des électrons dans certains atomes. Ce n’est qu’après que la recherche fondamentale a élaboré et vérifié expérimentalement une théorie qu’on a pu approfondir notre compréhension des niveaux d’énergie, permettant notamment l’invention du GPS, mais aussi du laser.
Toutes les technologies les plus avancées exploitent les résultats obtenus dans cette quête de la compréhension théorique du monde de l’infiniment petit. Symétriquement, il n’y a pas une seule expérience fondamentale qui n’utilise les technologies les plus récentes.
Diriez-vous que la dernière révolution technologique est due au fait que nous avons pu développer des outils de plus en plus performants ou au fait qu’il y a eu une créativité théorique plus importante ?
C’est un cercle perpétuel, un va-et-vient permanent entre l’expérience et la réflexion théorique. Lorsque les premières idées sont testées expérimentalement, on peut observer des choses auxquelles on n’avait pas pensé et qui stimulent la théorie. On est encore dans une phase d’émerveillement devant des phénomènes qu’on observe qui sont tellement contre-intuitifs qu’ils rendent la réflexion humaine compliquée. Avec les ordinateurs quantiques, rien ne se passe comme dans notre monde. Pour moi, il y a une certaine esthétique, il y a des aspects poétiques. Par exemple, dans mon équipe, nous avons mis en évidence récemment des états quantiques superposés entre l’absence et la présence d’une particule.
Malgré le très haut niveau de sa recherche fondamentale, la France souffre d’une quasi-absence d’applications pratiques. À quoi attribuez-vous cette situation ?
Les causes en sont évidemment multiples. La première est liée à notre système éducatif qui sépare les universités des écoles d’ingénieurs. Les étudiants qui se destinent à la recherche fondamentale suivent la première filière quand ceux des grandes écoles s’orientent plutôt vers la recherche appliquée. Cette bifurcation initiale n’est pas un détail, tendant à s’installer par la suite. Je ressens cela de manière très forte car je suis entre les deux, ayant toujours aimé construire des choses pour me permettre ensuite de réfléchir et inversement. Quand j’ai créé Quandela, on m’a demandé de guider mes collègues qui voulaient se lancer dans l’innovation, des chercheurs de haut niveau désireux de pousser la science à ses limites mais tout de même fortement intéressés par ses applications. En France, rien n’est prévu pour eux alors que, à l’étranger, cette case est essentielle. Si j’extrapole à partir des technologies quantiques, qui sont mon domaine, on peut comparer : à l’étranger, les gens qui font la même recherche que moi sont indifféremment dans l’ingénierie ou la physique. Chez nous, il faut être dans les départements de physique. Nous aimons mettre les gens dans des cases. C’est préjudiciable. Pour donner le goût de la technologie à une société, il ne faut pas que cela repose sur une toute petite caste. On essaie de créer des passerelles entre l’université et les écoles d’ingénieurs, comme à Paris-Saclay, et ça fonctionne. Mais c’est insuffisant. Ensuite, il y a bien sûr la question financière. Et enfin les conséquences de choix politiques : l’Europe s’est par exemple détournée de la fabrication des semi-conducteurs, perdant toute la microélectronique. Il reste bien quelques entreprises, mais petites par rapport aux concurrents asiatiques.
Pourrait-on dire que le quantique est la nouvelle frontière dans le domaine technologique ?
C’est une des nouvelles frontières. Il faut parler de quantique 2.0. Le quantique 1.0, c’est ce que nous avons vécu au xxe siècle, tout le monde des technologies de l’information (transistor, laser, GPS, horloge atomique) reposant sur la mécanique quantique. Ce qui a été compris au début du xxe siècle par les fondateurs de la mécanique quantique, c’est que, par exemple, la lumière, qui est considérée comme une onde, pouvait aussi se comporter comme une particule, d’où le concept de photon. De la même façon, l’électron était aussi considéré comme une particule et Louis de Broglie a proposé l’idée que l’électron se comportait aussi comme une onde. C’est la fameuse dualité onde-corpuscule : tout système physique se comporte à la fois comme une onde et une particule. Là où ça devient intéressant, c’est que la réponse dépend de la façon dont on l’interroge. Cette dualité donne naissance aux premiers modèles qui permettent de comprendre la structure des atomes. Les électrons ont des niveaux d’énergie très précis, qu’on appelle quantifiés, d’où le mot quantique. Petit à petit, on assiste en parallèle au développement de la physique des solides, qui est derrière tout ce qui concerne les semi-conducteurs, avec le silicium. On a aussi les techniques d’élaboration, avec la microscopie électronique. Peu à peu, on est devenu capable de concevoir des systèmes artificiels qui se comportent comme les systèmes fondamentaux, par exemple l’empilement de matériaux de semi-conducteurs qui permet de faire un puits quantique. Tout ça, c’est le Quantum 1.0.
Et le uantum 2.0 ?
Le Quantum 2.0 se caractérise par la capacité à mettre des systèmes physiques dans une superposition de deux états, comme le chat de Schrödinger. Par exemple, pour la lumière, c’est envoyer un photon à gauche et à droite. Il est des deux côtés à la fois. J’aime bien prendre cette image qui montre la puissance de cette superposition quantique pour résoudre un problème de labyrinthe. Si j’encode l’information d’un personnage sur ce photon qui peut aller à gauche et à droite, à chaque intersection il peut aller à gauche, à droite, en face et explorer tout le labyrinthe en même temps et sortir plus vite. Cette image est simple, trop simple, mais elle donne une idée de la puissance. Le deuxième concept qu’on peut mettre en évidence et exploiter, c’est l’intrication quantique, qui au cœur de la science-fiction avec la téléportation, etc. Elle décrit notre capacité à mettre des systèmes physiques dans des états qui ont un destin lié mais aléatoire. Ainsi, deux photons peuvent être à la fois rouge et vert, et cela quelle que soit la distance entre eux. La Chine a réalisé une expérience en observant à partir d’un satellite deux paires de photons intriqués distants sur terre de plusieurs milliers de kilomètres. Une mesure de l’état de l’un décide instantanément de l’état de l’autre. Ça ouvre des champs métaphysiques incroyables. Dans le Quantum 2.0, on sait depuis vingt ans mettre en œuvre la superposition quantique, l’intrication. Depuis dix ans, on essaie d’exploiter ces concepts.
Quelles sont les applications possibles avec ce quantique 2.0 ?
On parle d’une capacité de calcul multipliée par 1 000 et une réduction de la consommation d’énergie d’un facteur de 100…
Mettre un chiffre sur la puissance d’accélération n’a pas de sens. Il faut se focaliser sur le temps nécessaire pour réaliser un calcul complexe. En chimie, la simulation d’un nouveau matériau exige de disposer d’une puissance de calcul phénoménale. L’ordinateur quantique la promet mais, aujourd’hui, en est encore incapable : nous n’en sommes qu’au tout début. Dans quelque temps, il devrait nous permettre de nous attaquer à des problèmes complexes, avec beaucoup de paramètres. On gagne énormément en temps de calcul. Cela permettra de bouleverser beaucoup de choses, comme l’optimisation de flux de véhicules ou des flottes de drones, la simulation de nouveaux matériaux de chimie pour être capable de prédire sans avoir à tester, ou encore l’optimisation financière. Le champ des applications est immense...
À quelle échéance pourrions-nous disposer d’ordinateurs quantiques 2.0 ?
Nous avons des ordinateurs quantiques de première génération qui ne sont pas très puissants et qui commencent tout juste à fonctionner. Notre premier jalon, c’est la vitesse de calcul des supercalculateurs actuels. Il y a eu un certain nombre de démonstrations d’ordinateurs quantiques capables de réaliser des calculs beaucoup plus vite. Mais ces calculs ne sont pas très intéressants. Nous sommes à un moment charnière de cette compétition. Nous savons que quand nous aurons passé un certain niveau de qualité sur le qubit (qui utilise les phénomènes mécaniques quantiques de superposition pour obtenir une combinaison linéaire de deux états) nous aurons tué le match. Mais franchir cette étape critique exige d’énormes investissements.
Tous les acteurs commencent à apprendre à calculer avec un ordinateur quantique parce qu’on ne peut pas penser le calcul de la même façon qu’avec un ordinateur classique. C’est une révolution conceptuelle. La phase suivante suppose de bouleverser notre façon de penser. Il faut tout revoir. Ma perception c’est que, pendant longtemps, toute la physique quantique sera une affaire de physiciens, qu’ils soient expérimentateurs ou théoriciens, qui font de l’algorithmique quantique. Ce sont des gens qui n’ont pas fait d’informatique classique. Ce ne sont pas des développeurs. La communauté des gens capables de penser le calcul avec l’ordinateur quantique est minuscule. Un des enjeux est de la faire grandir, ce qui ne sera pas simple. Nous manipulons quotidiennement des concepts que nous ne maîtrisons pas aisément, ce qui bride notre créativité.
La machine quantique pourrait-elle échapper à l’humain ?
Cette question se pose davantage pour l’IA. Pour le quantique, dont les concepts sont absolument contre-intuitifs, l’impact sur la façon de penser est beaucoup plus importante. C’est révolutionnaire, forcément plus disruptif. Du point de vue scientifique, la question centrale est : vers où nous emmène le développement technologique, en particulier l’ordinateur quantique ? Aujourd’hui, nous sommes capables de contrôler une centaine d’atomes et de les mettre dans des états intriqués et superposés à la fois. Dans mon laboratoire, j’étudie des systèmes constitués de 10 000 à 100 000 atomes et qui se comportent comme un seul. Mais pour construire un ordinateur quantique, il va nous falloir aller beaucoup plus loin, contrôler des millions de qbits – l’unité de stockage d’information quantique. Jusqu’où pourrons nous aller ? Quand un système physique est-il suffisamment grand pour arrêter d’être dans un état superposé ? Pour le chat de Schrödinger, la limite est franchie, les physiciens affirmant qu’il y a beaucoup trop d’atomes dans ce chat pour qu’on soit capable de contrôler l’état de tous à la fois. Mais où se situe cette limite ? À question très fondamentale, personne n’a de réponse. On arrive à une nouvelle frontière, encore floue, où ce qu’on voit à l’échelle microscopique arrête de se manifester à l’échelle macroscopique. Où un système cesse de se comporter de manière quantique, avec cette cohorte de phénomènes spectaculaires que l’on observe, pour basculer dans le monde normal de l’humain, qui ne peut prendre un chemin à la fois, qui ne peut pas faire trois journées en parallèle, quand bien même il le voudrait.
La révolution technologique en marche va nous permettre de répondre à cette question. Un ordinateur quantique, plus puissant qu’un ordinateur classique mais pas universel, peut être développé d’ici une dizaine d’années. Nous identifions aujourd’hui ses premières applications, dans l’IA notamment. Quandela a gagné un challenge lancé par Airbus et BMW sur le problème des hallucinations des IA : pour les véhicules autonomes, on a des images essentiellement prises de jour. L’IA génère des images équivalentes de nuit, sauf qu’elle hallucine, ajoutant des feux, etc. Nous avons montré qu’en ajoutant une étape quantique, on réduisait de 3 à 4 % le taux d’hallucination. Ce qui est beaucoup.
Qu’en est-il de l’impact sur la consommation d’énergie ?
Il y a une bonne raison de penser qu’on pourra réaliser des économies d’énergie : aujourd’hui, dans les supercalculateurs, on constate des pertes d’énergie considérables, suffisantes pour réchauffer des villes entières. Ces pertes sont dues aux chocs entre électrons dans la matière. Or, l’ordinateur quantique ne peut pas supporter le moindre choc : tout disparaîtrait. Ce qu’on fait dans les laboratoires depuis vingt ans, c’est contrôler ces phénomènes, ces chocs, etc. Conceptuellement, l’ordinateur quantique fonctionne à énergie constante. Cette image va être fausse à terme, car le système quantique est contrôlé par un système classique, avec des lasers, etc. Il y a tout un champ de recherche pour estimer le coût énergétique et optimiser les architectures afin de bénéficier au maximum de la puissance libérée par la superposition quantique, qui permet de faire des calculs sans dépense énergétique. C’est là un puzzle, au sens casse-tête, à résoudre.
La puissance de calcul des ordinateurs quantiques représente-t-elle un danger pour la confidentialité des données sensibles, comme les codes nucléaires ou ceux protégeant nos comptes bancaires ?
Le monde commence à se préparer à la menace que constitue l’ordinateur quantique pour la protection des données. La Chine, qui a envoyé un satellite pour échanger des clés cryptographiques de manière sécurisée, investit énormément sur les communications quantiques parce que l’ordinateur quantique pourrait casser les clés de chiffrement. À l’international, nombre de familles scientifiques travaillent indépendamment à cette nécessaire sécurisation.
Comment se déroulent vos travaux, au quotidien ?
Nous avons un laboratoire commun à ma start-up, Quandela, et le département académique de l’université de Paris-Saclay. Toutes les premières démonstrations sont faites au sein de mon équipe, puis les ingénieurs prennent le relais, ouvrant de nouveaux champs de recherche. Ce lien entre recherches fondamentale et appliquée permet une combinaison de propositions théoriques qui débouche sur des progrès scientifiques réellement bluffants.
On commence à faire des protocoles, par exemple sur le caractère secret des calculs. Car, comme les ordinateurs classiques des années 1970, les ordinateurs quantiques ne seront pas chez les gens avant plusieurs années.
À terme, comment voyez-vous le monde que cette révolution scientifique pourrait enfanter ?
Je n’arrive pas à réfléchir à cette question. Je regarde l’histoire et je me dis que c’est phénoménal ce qu’on a vécu en trente ans dans la micro-électronique. On n’a pas été en mesure d’anticiper ce qui allait advenir, sans doute était-ce impossible. Passer du transistor à ce dont on dispose aujourd’hui, c’était simplement inimaginable. Penser que nous sommes au début d’une nouvelle révolution, avec des concepts encore plus puissants, cela me laisse sans voix. Nous sommes devant un abîme conceptuel, face auquel on observe deux types de réaction, tout aussi déraisonnables : un extrême scepticisme ou un immense enthousiasme. Il est impossible pour moi d’imaginer la suite, comme il était impossible pour nos parents d’imaginer le monde dans lequel nous vivons aujourd’hui. Et, honnêtement, ce qu’on est en train de préparer dans les laboratoires quantiques, combiné aux formidables avancées de l’IA, dépasse de très loin tout ce que nous avons connu et défie les capacités de notre imagination....
Pas encore abonné(e) ?
Voir nos offresLa suite est reservée aux abonné(e)s
Déjà abonné(e) ? connectez-vous !



