Étiquettes: BM02
Michel Morvan
Jusqu’où ira l’intelligence artificielle (IA) ? D’un côté, on a vu émerger des outils très puissants pouvant exécuter certaines tâches bien mieux que nous. Cela a généré enthousiasme ou peur chez certains qui ont imaginé des machines sans âme (voire avec) infiniment plus intelligentes que nous. D’un autre côté, d’autres ont pointé les limites de cette technologie, montrant les problèmes qu’elle ne permettait pas de résoudre aujourd’hui ou qu’elle ne pourrait jamais résoudre. Pour se rendre compte de ces limites, remarquons que, lorsque la presse parle d’une nouvelle application « extraordinaire » de l’intelligence artificielle, la situation est toujours la même. Un algorithme d’intelligence artificielle a permis de reconnaître de manière très rapide, très précise ou à très grande échelle, quelque chose de nouveau : des tumeurs sur des radios ou des situations à risque pour un véhicule autonome, ou encore les positions gagnantes au jeu de go. Cela se passe toujours dans un domaine où existent énormément de données disponibles et où un algorithme apprend à reconnaître des formes spécifiques ou des corrélations particulières et les applique sur des nouvelles données. C’est impressionnant, mais c’est toujours la même chose.
Ce type d’IA basé sur les données est très puissant parce que les applications sont innombrables. Mais il est aussi très limité parce qu’il souffre de quatre handicaps que l’on ne peut pas surmonter sans changer de paradigme. Le premier, c’est qu’il faut énormément de données disponibles pour que ces algorithmes puissent apprendre. Il n’est pas étonnant que les plus grands diffuseurs de l’immense buzz qui a inondé la planète pour expliquer que l’intelligence artificielle allait tout résoudre aient été les sociétés qui possèdent ces données et les vendent à prix d’or. Or il existe d’innombrables domaines pour lesquels il sera toujours très difficile d’avoir accès à d’immenses quantités de données pertinentes. Le second handicap, c’est que ces algorithmes sont des boîtes noires. Quand ils font une prédiction, ils ne peuvent pas expliquer pourquoi ils la font. Le troisième, c’est que ces outils ne travaillent qu’avec les données du passé. Ce qu’ils peuvent prédire est ce qui s’est déjà passé, ou des variations autour de ce passé. Si un État avait utilisé ces algorithmes 2019 pour anticiper 2020, ils auraient prédit une année ressemblant aux précédentes. Enfin, le dernier handicap est que ces outils ne fonctionnent bien que pour des systèmes bien définis et très homogènes et pas pour des systèmes très complexes ou qui évoluent en permanence : on parle d’intelligence artificielle étroite.
L’extrême puissance de ces technologies imposera une approche précautionneuse pour en éviter les dérives dangereuses.
Mais une nouvelle approche se dessine qui va changer la donne et permettre de dépasser tous ces handicaps : celle des données synthétiques. Plutôt que de se contenter de récupérer les données réelles pour entraîner les algorithmes, on commence à pouvoir produire artificiellement des données pertinentes, en quantité quasi-illimitée. Comment les obtient-on ? Au moyen de plusieurs méthodes, comme celle consistant à partir de jeux de données existants et à leur appliquer des variations pour en produire de nouveaux. Mais aussi et surtout en utilisant la puissance de tout un autre pan de l’IA que l’on avait un peu oublié : l’IA s’appuyant sur la connaissance plutôt que sur les données. Plutôt que d’essayer d’extraire des informations de masses de données, cette forme d’intelligence artificielle part de la connaissance éparse de nombreux experts, puis l’intègre et la relie dans des algorithmes qui permettent ensuite de simuler ce qui va, ou ce qui peut, se passer.
Avec ces technologies, il devient aujourd’hui possible de créer une réplique en temps réel d’un système (ce que l’on appelle un jumeau numérique), aussi complexe soit-il, en intégrant à cette réplique toute la connaissance humaine sur la manière dont chaque partie du système évolue dans le temps et dont ces parties interagissent entre elles. Ces jumeaux numériques sont simulables et permettent de jouer avec autant de scénarios qu’on le veut pour savoir comment un système peut évoluer en fonction de nos actions. C’est-à-dire que l’on peut produire autant de futurs possibles qu’on le souhaite en changeant les conditions, en ajoutant des aléas, en injectant des événements inattendus, etc.
C’est une avancée très importante parce que, en vérité, les données du passé, quelles que soient leur quantité et leur qualité, ne nous intéressent pas vraiment. Elles ne sont qu’un moyen pour essayer d’obtenir ce qui est véritablement utile : une visibilité sur ce qui va se passer. En d’autres termes, sur les données du futur. Ces données synthétiques, désormais accessibles en quantité illimitée, sont les données du futur, de milliards de futurs possibles.Michel Morvana été professeur à l'ENS de Lyon et au Santa Fe Institute (USA) puis directeur d'études à l'EHESS. Également Eisenhower Fellow, il est président et cofondateur de la start-up Cosmo Tech. Il préside l'Institut de recherche technologique SystemX et est membre du groupe d'experts de l'OCDE sur l'intelligence artificielle.
Cette approche fait non seulement exploser la puissance des outils actuels d’intelligence artificielle mais permet d’en concevoir d’autres d’une nature différente. En enrichissant l’intelligence artificielle avec cette capacité de simulation et de production de données synthétiques (ce que l’on appelle l’IA hybride), une nouvelle dimension s’ouvre qui bouscule toutes les limites actuelles. On pourrait par exemple, un jour pas si lointain, faire un jumeau numérique de notre corps, le nourrir des données de quelques capteurs et utiliser l’IA hybride pour simuler l’impact d’un médicament sur notre organisme. Ou faire un jumeau numérique de la totalité de la chaîne d’approvisionnement mondiale, simuler son fonctionnement dans des milliards de situations différentes (pandémies, guerres, chute de la demande, etc.) et ainsi l’optimiser pour réduire les coûts et l’empreinte carbone tout en en assurant la résilience. L’extrême puissance de ces technologies imposera une approche précautionneuse pour en éviter les dérives dangereuses (usage éthique et pas pour l’intérêt de quelques-uns, limitation des biais, etc.).
L’IA hybride et l’existence de données synthétiques en quantité illimitée vont avoir un impact majeur dans toutes les situations exigeant une visibilité sur ce qui va se passer dans un environnement complexe. C’est-à-dire à peu près partout....
Déjà abonné(e) ? connectez-vous !