Pour le scientifique, l’intelligence artificielle est un outil aussi puissant que plein d’enjeux. Ses prouesses ne doivent pas faire oublier ses limites et les risques qu’elle peut poser, car l’IA peut transformer la réalité.
Directeur de recherche émérite au CNRS et membre de l’Académie des sciences depuis 2010, Patrick Flandrin s’est spécialisé dans le traitement du signal et travaille au laboratoire de physique de l’École normale supérieure de Lyon. Il est l’auteur de contributions théoriques et algorithmiques en analyse temps-fréquence des signaux non stationnaires, conduisant à l’écriture de deux monographies (Temps-Fréquence, éd. Hermes et Explorations in Time-Frequency Analysis, éd. Cambridge University Press). Il a contribué aussi au développement de la théorie des «ondelettes» (méthode de traitement du signal qui peut être appliquée à des séries de données temporelles ou spatiales) et il étudie les systèmes complexes liés à des activités humaines, en utilisant des approches à base de graphes et de réseaux. L’ensemble de ces travaux a donné lieu à de nombreuses applications dans des domaines allant de la mécanique (diagnostic et contrôle non destructif) et la bioacoustique (sonars naturels) à l’astrophysique (détection des ondes gravitationnelles), en passant par l’ingénierie biomédicale (activité baroréflexe), la métrologie informatique (modélisation du trafic internet) et la mobilité urbaine (systèmes de vélos en libre-service). Pour comprendre les évolutions de l’intelligence artificielle, Bastille Magazine ne pouvait que solliciter ce scientifique à la conversation passionnante.
Comment votre parcours vous a-t-il conduit à vous intéresser à l’intelligence artificielle?
Au début des années 1990, j’ai constitué au sein du laboratoire de physique de l’ENS de Lyon une équipe dédiée à l’étude du traitement du signal, une discipline à cheval entre les objets appartenant au monde physique – images, sons, données… –, les méthodes mathématiques qui permettent de construire des modèles, et l’informatique. Nous avons travaillé entre autres sur les données qui circulaient sur le Web, recherchant des propriétés statistiques qui se reproduisent, identiques à elles-mêmes, à différentes échelles. On ne parlait pas encore d’intelligence artificielle mais nous étions sur la voie, la découverte de lois d’échelle pouvant servir à l’analyse de grands systèmes complexes.
Ces méthodes sont-elles également utilisées pour la reconnaissance faciale?
À l’époque, dans les années 1990, ce n’était pas le cas. Mais le principe est le même. Le paradigme consistait à dire: les données dont nous disposons sont complexes et nous devons les simplifier. Pour y parvenir, on identifiait les descripteurs, grâce à des algorithmes, puis on posait des règles de décision. C’était une façon de faire: des données, des descripteurs puis des décisions. La grande révolution depuis le début des années 2010 est l’entrée de plain-pied dans le monde de l’IA via l’apprentissage massif. On oublie ainsi la phase de la compréhension physique et de l’extraction des descripteurs pour s’appuyer sur des données et des exemples. Ce qui change tout. Prenons l’exemple de la parole: si on veut savoir la différence entre le son «a» et le son «u», avant on savait que le «a» correspondait à une certaine structure formantique avec un spectre de fréquence particulier. On extrayait la caractéristique fréquentielle et on savait que le son correspondait à un «a.» Depuis, on a changé d’approche avec l’IA: on prend un maximum de «a» prononcés par de très nombreuses personnes et on va utiliser un réseau de neurones formels en réglant les paramètres. C’est une approche empirique. La grande différence est qu’on se base sur l’apprentissage pour aboutir au résultat. La grande révolution de l’IA, c’est qu’il faut trois ingrédients: une méthode (un système de traitement et des algorithmes); une énorme puissance de calcul, désormais disponible grâce à l’avènement des supercalculateurs ou des cartes graphiques; et beaucoup de données.
Tout ce dont disposent aujourd’hui les plateformes…
Possédant les données, les moyens de calcul et l’argent pour enrôler les cerveaux capables de développer ses algorithmes pertinents, il n’est vraiment pas surprenant de retrouver les plateformes aux meilleures positions. Les techniques des neurones formels étaient prêtes dès les années 1980 mais elles fonctionnaient à petite échelle parce que nous n’avions pas beaucoup de données ni de puissance de calcul. L’arrivée des outils informatiques puissants, en particulier les cartes graphiques développées pour les jeux vidéo, a changé la donne. Il y a des avancées techniques dans les principes, bien sûr, mais il reste des points de blocage. On voit comment cela fonctionne mais il n’est pas si évident de comprendre le système. L’un des problèmes est l’explicabilité parce que nous sommes face à des centaines de millions de paramètres à régler. À l’échelle humaine, on ne peut pas déterminer le rôle de chacun des paramètres. Et pourtant, il faudrait le faire.
Compte tenu de cet historique, en quoi l’IA est-elle une révolution technologique?
L’irruption de l’IA impacte tous les domaines de la science et de la société. L’an dernier, le comité Nobel a récompensé plusieurs scientifiques travaillant sur l’IA. En physique, John J. Hopfield et Geoffrey E. Hinton pour leurs contributions dans le domaine des réseaux neuronaux. En chimie, Demis Hassabis et John Jumper travaillant pour DeepMind – une entité de Google qui a développé les logiciels d’intelligence artificielle AlphaGo puis AlphaFold. C’est symbolique de l’importance de l’IA.
L’avance technologique des grands acteurs américains dans le domaine de l’IA est-elle irrattrapable?
La récente sortie de DeepSeek atteste du contraire. Durant la période d’ouverture, les Chinois ont essayé d’acquérir des compétences en reproduisant ce qui se passait ailleurs mais depuis, ils se sont autonomisés. Aujourd’hui, les Chinois sont au même niveau que les Américains, tout en dépensant infiniment moins.
L’IA pose-t-elle un problème énergétique?
Le coût énergétique de l’IA est difficile à évaluer, nombre de paramètres étant à prendre en compte. Les data centers consomment de l’électricité mais ils nécessitent aussi de l’énergie pour leur fabrication. Qu’est-ce qui est spécifique à l’IA? Pour le numérique, c’est déjà compliqué. Où est la frontière? On peut néanmoins chiffrer les mésusages de l’IA. Par exemple, une question posée à ChatGPT coûte beaucoup plus cher que la même question posée à un moteur de recherche, avec une probabilité de se tromper qui est plus grande. Tout le monde n’a pas conscience de ce problème.
L’IA générative peut-elle «tuer» les moteurs de recherche traditionnels?
Ce n’est pas évident. Le principe d’un moteur de recherche est qu’il y a une «vérité terrain» avec des données. L’algorithme va chercher la réponse à la question posée. Par exemple, on cherche la date de la bataille de Marignan et la réponse est 1515. L’IA générative fonctionne autrement: elle engrange de façon extrêmement gourmande toutes les connaissances disponibles sur les réseaux. Sur cette base, elle construit un modèle probabiliste qui donne la réponse la plus vraisemblable. Mais dire que c’est cohérent ne signifie pas que c’est vrai.
L’un des grands problèmes de l’IA générative est son rapport à la vérité. Le modèle du prompt est le suivant: l’utilisateur démarre une phrase et l’IA la prolonge. Le prompt est une façon de lancer la requête. Dans les versions actuelles, l’IA n’est pas en mesure de valider les informations. Il faudrait ajouter des outils pour la validation et le référencement afin de pouvoir qualifier les réponses. Il y aura toujours une dépendance au corpus sur lequel l’IA a fait son apprentissage. En agissant ainsi, on offre une vision de la façon dont le monde fonctionne. Par exemple, les informations qui circulent sur le Web et sur les réseaux sont souvent en anglais. C’est aussi relatif aux modes de pensée. Si on utilise un moteur d’IA fonctionnant sur des données anglophones, les résultats ne seront pas les mêmes qu’avec des données en d’autres langues, a fortiori sous-représentées. Nous avons des problèmes de corpus. En matière de traduction automatique, cela fonctionne d’autant mieux que les langues sont pratiquées massivement. En médecine aussi, pour les maladies rares, nous disposons de moins de données. Il y a donc des difficultés à avoir le même degré de vraisemblance. D’une manière générale, dire que l’on produit une réponse qui est probable ne signifie pas que l’on produit une réponse qui est vraie. Cela dépend bien sûr des questions qui sont posées mais ces systèmes ont aussi une régulation humaine.
Donc, il y a des biais…
Il y a forcément des biais qui peuvent être liés à l’apprentissage et d’autres relatifs à l’acceptabilité de la réponse, un contrôle par rapport aux textes législatifs par exemple. Nous ne pouvons pas tolérer des réponses qui sont contraires à la loi. Si on applique ce principe au-delà du législatif en lui donnant une dimension idéologique, c’est une façon de sélectionner, voire de censurer, qui induit subrepticement un risque d’obscurantisme. C’est le point le plus important: l’utilisation de l’IA par le grand public peut aboutir au conditionnement d’une pensée, sinon unique, en tout cas normée, moyenne. Il faut questionner la norme, se demander d’où elle vient et si elle est justifiée ou non. Sinon, sans même qu’on en ait conscience, cela peut conduire à banaliser une vision du monde.
La façon même dont on nomme les choses permet d’installer insensiblement une idéologie. Dans les régimes autocratiques, il y a souvent un travail précoce sur la langue. On le voit avec LTI. Lingua Tertii Imperii: Notizbuch eines Philologen de Victor Klemperer, qui explique comment le IIIe Reich a développé tout un vocabulaire pour servir sa propagande. Dans son livre LQI. Notre langue quotidienne informatisée (éd. Les Belles Lettres), Yann Diener s’est intéressé de la même façon à comment l’imprégnation de notre langage par des termes issus du numérique tend à informatiser notre pensée et à la rendre plus binaire.
La deuxième chose qui me paraît inquiétante, c’est la transformation de la réalité que cela induit. L’IA d’apprentissage travaille sur des données qui existent et va proposer, à partir d’un prompt, une production qui est une nouvelle donnée, statistiquement cohérente avec les données existantes, mais qui n’existe pas en tant que telle. Si on demande à une IA de dessiner un chat, elle ne va pas copier un chat qui existe. Elle va analyser toutes les informations disponibles sur les chats pour dessiner quelque chose qui ressemble à un chat. C’est un chat possible, potentiel, mais un chat qui n’existe pas. Si ces données-chimères sont utilisées à leur tour pour alimenter la base, elles seront mélangées avec les données réelles et contribueront in fine à une production moyenne, une reproduction du même. Aujourd’hui, la proportion de ces chimères est faible, marginale. Mais demain?
Peut-on parler de créativité à propos de la capacité de l’IA à concevoir ces œuvres que vous appelez données-chimères?
Une œuvre produite par une IA ne me semble pas constituer un geste artistique. Peindre un tableau à la manière de Van Gogh n’a rien de commun avec la démarche novatrice qui est l’essence même du génie du maître d’Auvers-sur-Oise. Être disruptif n’est pas dans la nature de l’algorithme.
Cette intelligence ne pourrait prétendre au génie artistique en raison d’une incapacité structurelle à éprouver des émotions?
Dans l’IA, il y a le mot «intelligence», qui recouvre beaucoup de choses. Si on voit l’intelligence comme une façon d’organiser la vision qu’on a du monde, l’IA actuelle apporte quelque chose qui est essentiellement intermédié par les écrans et qui correspond à des conceptions dans lesquelles on a la vision et l’ouïe mais pas – ou pas encore – le goût, l’odorat ou le toucher. Je pense que les émotions sont liées à des perceptions humaines. Mais il faut se garder de dire qu’elles resteront à jamais inaccessibles à l’IA.
Est-ce souhaitable?
À titre tout à fait personnel, je ne le pense pas. Il est évident que l’IA offre des possibilités extraordinaires. Comme il est impossible de les ignorer, nous devons apprendre à les utiliser. Une IA totalement autonome n’est pas souhaitable. Mais on ne peut pas se priver des possibilités de lui déléguer certaines tâches. C’est similaire à ce que s’est passé lors de la révolution industrielle, qui prétendait libérer l’humain de certaines tâches d’asservissement. Est-ce que la mission a été totalement remplie? Ce n’est pas évident. Au plan philosophique, une question simple me semble légitime: si on délègue tout à l’IA, que nous reste-t-il?
Comment former les générations futures à l’IA?
Pour comprendre l’IA, il ne s’agit pas de tout maîtriser, de la physique des semi-conducteurs aux algorithmes mathématiques, mais il faut apprendre les bases des disciplines scientifiques. Nous avons dépassé le stade où on pensait qu’on pouvait tout apprendre. Nous sommes déjà dans une situation où, IA ou pas, nous avons abandonné cette ambition. La notion de réparer un smartphone ou une voiture ne nous appartient pas. Mais comprendre la nature de l’algorithme est important.
Un des dangers de l’IA, c’est qu’on lui prête beaucoup. Naïvement, nous avons envie de faire confiance à un système qualifié d’intelligent, qui ne s’agace jamais, se montre sympathique et convivial. C’est trompeur. L’IA peut donner des réponses fausses. Il faut donc avoir le réflexe de vérifier, de croiser les informations.
Il y a une présomption d’autorité et l’utilisateur peut penser que l’IA n’a aucune raison de le tromper…
C’est vrai, mais il peut aussi y avoir un modèle économique marchand sous-tendu.
Quelle est votre vision de l’IA à moyen terme?
Scientifiquement, il y a beaucoup de recherches qui se font de manière pragmatique, ouverte. L’approche est la suivante: «L’IA est là. Faisons en sorte qu’elle soit le plus utile et le moins dommageable possible». On essaie de comprendre comment l’IA prend ses décisions et comment l’amener à le faire de manière plus informée. Entre modéliser sans apprentissage et oublier les modèles, en particulier ceux du monde physique, pour se focaliser sur l’apprentissage, il y a une solution intermédiaire permettant un usage d’apprentissage informé qui aide à circonscrire un peu plus le champ. C’est ce qui commence à se produire: quand on a un besoin spécifique, les corpus sur lesquels on peut entraîner l’IA n’ont pas besoin de la totalité du Web. Une autre préoccupation des chercheurs est de modérer l’appétit énergétique des IA, aujourd’hui gargantuesque. Cela peut concerner les data centers, les processeurs, les algorithmes. Doit-on tout réinventer ou peut-on faire du transfert de connaissances d’un domaine à un autre? Peut-on réaliser une tâche d’apprentissage de manière incrémentale? Parallèlement, il faut convaincre l’utilisateur qu’il n’est pas indispensable de poser des questions en permanence à une IA.
N’est-ce pas un combat perdu d’avance d’autant que la plupart des plateformes développent des outils pour capter l’attention des utilisateurs?
C’est un problème. On peut essayer de limiter les dégâts. Cela passe par l’éducation. Quitter X sert tout de même à quelque chose.
Comment la France, qui dispose d’atouts considérables dans le domaine de la recherche, peut-elle jouer un rôle dans ce nouveau monde de l’IA?
Nous avons beaucoup de potentialités en France, notamment une brillante école de mathématiques et de remarquables ressources en matière grise. Que les grandes plateformes internationales installent des centres de recherche sur l’IA en France ne doit rien au hasard. Leur concurrence ne dissuade pas des initiatives privées françaises, comme Mistral AI qui cherche à jouer sa carte avec une philosophie plus sobre, plus proche de celle de DeepSeek que de celle d’OpenAI.
Que peut-on attendre de l’IA dans un avenir proche?
Les apprentissages seront de plus en plus autonomes, de moins en moins supervisés. Il y a déjà des machines auto-apprenantes mais qui, à l’origine, débutaient leur apprentissage à partir d’exemples étiquetés. Maintenant, il s’agit de les alimenter avec des données brutes. Une question centrale est posée par la nature-même du monde dans lequel nous vivons, ouvert, infini. Si on prend l’exemple de la voiture autonome, qui est très équipée en IA, elle est évidemment supposée réagir efficacement dans toutes les circonstances, même les plus inattendues. Cette exhaustivité est bien l’objectif, mais il est difficile à atteindre. Si nous vivions dans un monde fini, clos, ce serait facile. Mais tout n’est pas prévisible chez l’être humain.
Quelles précautions devrons-nous prendre dans l’utilisation des IA?
Il nous faudra d’abord mieux comprendre les systèmes pour garantir des usages qui ne soient pas dommageables. Si on prend des systèmes automatiques pré-IA, par exemple le pilotage automatique d’un avion, ils sont liés à des certifications. Il y a des preuves mathématiques qui permettent d’être certain que l’outil s’acquittera de la tâche assignée sans commettre aucune erreur. C’est ce type de garantie qu’il nous faut obtenir pour les IA, car souvent on n’arrive pas à savoir pourquoi le système fonctionne et surtout pourquoi il ne fonctionne pas. Dans certains secteurs, comme la santé et les diagnostics, ne pas savoir à quel moment le système dysfonctionne, cela pose un problème. Notons quand même que l’humain non plus n’offre pas de telles garanties.
Pour l’IA, qui serait susceptible d’apporter ces garanties?
Cela peut se faire au niveau du développement des algorithmes. Des bornes sont nécessaires pour savoir comment cela fonctionne. Aujourd’hui, on en connaît le principe mais ensuite c’est une boîte noire. Si on prend un réseau de neurones avec 500 millions de paramètres, tout changement de réglage touche l’ensemble. Qui peut donner la garantie? Mettre en place une régulation n’a rien d’évident. Pour le moment, nous ne sommes pas en mesure de certifier un algorithme pour assurer qu’il remplit la tâche qui lui est assignée en toutes circonstances, voire qu’il la remplit partiellement, à x %. Au niveau européen, l’AI Act a surtout classifié les catégories en fonction de ce qui est bénin, à risque moyen et à haut risque. Cela permet de taguer les options mais cela ne permet pas d’avoir une certification.
Que l’IA échappe largement à la puissance publique vous semble-t-il problématique?
C’est un problème en ce sens que l’IA s’appuie énormément sur les données, qui ne sont pas nécessairement ouvertes. Mais, en Europe au moins, il y a des règles, de type RGPD. C’est un moindre mal.
En Europe seulement. Va-t-on vers une archipellisation d’Internet?
C’est un des dangers. L’IA est sans doute susceptible d’accélérer le processus, sans pour autant en être la cause. Un autre risque, dont les utilisateurs sont rarement conscients, c’est le dévoilement d’informations confidentielles. Si, par exemple, vous recevez un CV et décidez de le soumettre à une IA pour évaluer la candidature, vous mettez dans le domaine public des informations qui vous ont été confiées mais n’avaient pas nécessairement vocation à être portées à la vue de tous. De fait, ces données alimenteront les algorithmes.
Est-il possible, sinon souhaitable, d’utiliser l’IA de manière prédictive?
L’IA a, par nature, tendance à reproduire l’existant et à catégoriser. Dans le domaine de la justice, certains pourraient utiliser l’IA prédictive pour dire par exemple: si, sur une certaine catégorie de population, il y a tels comportements, tous ceux qui appartiennent cette catégorie sont susceptibles d’agir de même. Cela pose évidemment des questions d’ordre éthique. Au-delà de tels mésusages, l’IA peut se révéler utile à la formation d’une décision judiciaire. Par exemple, si on recherche les jurisprudences, elle peut récupérer infiniment plus d’informations qu’un humain ou un groupe d’humains dans un temps raisonnable. Cela permet une agrégation rapide et exhaustive. Mais s’en servir pour faire quelque chose de l’ordre de la prédiction, cela revient à dire qu’il y a une forme de déterminisme auquel il est impossible d’échapper. On peut tenter de pondérer les résultats en leur affectant une probabilité, mais elle est difficile à chiffrer. On peut régler les algorithmes, qui peuvent être soit très rigides par rapport aux données passées, soit plus ou moins souples. Mais quand ils s’échappent du cadre, on obtient ce qu’on appelle des hallucinations. C’est-à-dire n’importe quoi. C’est un peu comme dans les rêves, où l’on part d’événements qui ont existé pour construire quelque chose qui n’existe pas, mais qui pourrait exister, qui est une potentialité, qui a une cohérence. D’une certaine façon, l’IA générative ressemble un peu à ça.
Il faudrait solliciter Freud…
Il faut en effet en parler avec des psychanalystes. D’une certaine façon, toute la mémoire engrangée par l’IA est quelque chose qui relève de l’inconscient. Et les traces de l’histoire de l’humanité gardées dans les data centers ne sont pas forcément la réalité.
L’IA peut-elle manquer de données, comme le dit Elon Musk?
Si l’on suit la tendance actuelle, il est certain qu’il faudra de plus en plus de données. Mais une fois qu’on aura toutes les données qui existent, qu’est-ce qu’on en fera? Je ne pense pas qu’il faille nécessairement plus de données, sans compter que certaines des nouvelles données seront des données créées par l’IA. Si je me photographie dans ma salle de bain et demande à l’IA de modifier le décor pour lui substituer la baie de Capri avant de mettre l’image sur un réseau social, j’aurais créé une donnée-chimère qui sera ensuite exploitée par les algorithmes exactement comme une donnée réelle. Si on veut mettre un peu de régulation, il faudrait qu’il y ait une obligation d’estampiller les données sur lesquelles on travaille afin qu’on sache si elles sont réelles ou pas. Ce n’est pas le cas aujourd’hui.
Quelle influence l’informatique quantique peut-elle avoir sur l’IA?
Comme il y a un problème de capacité de calcul, la formidable puissance attendue des ordinateurs quantiques peut accélérer le développement de l’IA. Peut-être alors pourra-t-on lui demander d’inférer les lois de la physique à partir de la simple observation du monde? Pour l’instant, ça ne fonctionne pas mais il est impossible d’exclure elle soit capable un jour de retrouver des lois aussi complexes que la relativité générale.
L’IA pourrait-elle contribuer à résoudre la crise climatique?
Elle peut aider, mais à quel prix? Car il y a la question essentielle des ressources, en termes énergétiques notamment. Pour l’anecdote, le cerveau d’un enfant qui apprend à distinguer un chat d’un chien consomme beaucoup moins d’énergie qu’une IA. Il faut apprendre une forme de frugalité. C’est un axe de recherche....
Pas encore abonné(e) ?
Voir nos offresLa suite est reservée aux abonné(e)s
Déjà abonné(e) ? connectez-vous !