Daniel Andler “Une machine peut-elle penser ?”

Propos recueillis par William Emmanuel et Michel Palmieri

Les algorithmes utilisés par l’IA, dotés d’une certaine autonomie et en partie auto-apprenants, sont imprédictibles, ce qui les rend intéressants mais aussi dangereux pour le scientifique.
Né à New York, Daniel Andler a grandi en France et s’est intéressé à l’intelligence artificielle dès ses années d’études, alors qu’il travaillait à sa thèse de mathématiques à l’université de Californie à Berkeley, complétée à son retour à Paris par un second doctorat à Paris 7. Une formation qu’il dit très utile, «surtout pour ne pas avoir peur et pouvoir situer cette innovation dans le champ général des connaissances». Un cursus original qui lui a permis de de fonder le département de sciences cognitives au sein de la très prestigieuse École normale supérieure et de porter aujourd’hui sur l’IA un regard panoramique, à la fois capable de comprendre le fonctionnement général des modèles et d’en analyser les enjeux existentiels ou anthropologiques. Il est notamment l’auteur d’Intelligence artificielle, intelligence humaine: la double énigme (éd. Gallimard), dans lequel il s’interroge en particulier sur l’éthique des innovations technologiques. Il souligne ainsi qu’un système artificiel « intelligent » connaît non pas les situations, mais seulement les problèmes que lui soumettent les agents humains. Il y voit donc un outil. « C’est sur ce point uniquement que l’intelligence artificielle peut nous épauler. De fait elle résout une variété toujours plus grande de problèmes pressants. »
Compte tenu de votre parcours dans les mathématiques et dans la philosophie, quelle est votre vision de l’IA?
Je vois l’IA comme une entreprise passionnante qui utilise le véhicule mathématique pour plonger ses racines très loin dans l’histoire de la philosophie. L’intelligence artificielle et les sciences cognitives sont nées d’un même mouvement, au même moment, et dans l’esprit des mêmes personnes, dont Herbert Simon, John McCarthy, Marvin Minsky et Hilary Putnam, qui ont eu l’intuition qu’il serait intéressant de comprendre les mécanismes des perceptions et de la pensée et de construire l’équivalent avec l’ordinateur. Ce qui revenait à considérer le système nerveux central comme un système de traitement de l’information – une expression que je haïssais à l’époque. Pour le jeune étudiant en mathématiques que j’étais alors, le projet était fascinant, mais perdu d’avance: comment une machine pourrait-elle penser? Lors d’un séminaire organisé par le philosophe Hubert Dreyfus, je me suis aperçu ce ne serait pas si simple…

Quelles étaient les principaux obstacles à cette époque?
Dans les années 1970, l’IA était encore à un niveau très rudimentaire. Les quelques idées pour la nourrir étaient conceptuellement pauvres – on en était encore à des extensions de la logique classique – et les ordinateurs étaient très lents… On pouvait résoudre un problème au jeu d’échecs ou de reconnaissance des formes mais, faute de puissance de calcul et de données, difficile d’aller au-delà. Je me suis alors dirigé vers les sciences cognitives, convaincu que, tant qu’on n’aurait pas compris les mécanismes mentaux humains, on ne risquait pas d’aller très loin en matière de simulation sur ordinateur.

Qu’est-ce qui vous a amené à revenir vers l’IA, vers la fin des années 2010?
J’ai été séduit par la nouvelle approche, dite connexionniste, qui n’a pas pour paradigme la logique mais plutôt la perception. Au point de passer quatre années à écrire un gros livre pour en raconter la genèse et l’évolution, que j’avais suivie depuis ce département de sciences cognitives de l’ENS, que j’ai fondé en 2000. Le connexionnisme, qui sera plus tard rebaptisé deep learning, s’est imposé au milieu des années 1980, à la parution de Parallel Distributed Processing, dont le sous-titre est le plus important: The Microstructure of Cognition. Nous n’avons aucune pensée consciente sur nos perceptions. La macrostructure, ce sont nos pensées qui s’enchaînent plus ou moins logiquement, et la microstructure est la base de ce que nous ne maîtrisons pas. Nous avons le résultat, bien sûr. Je sais décrire ce que je vois, mais je ne sais pas comment j’ai fait car je n’ai aucun accès au fonctionnement de mon système visuel. Ce sont des processus qu’on appelle subpersonnels sur lesquels nous n’avons pas de contrôle. Ce sont des éléments que l’on retrouve dans les outils d’IA disponibles aujourd’hui.

Depuis ChatGPT, tout le monde parle de l’IA. Mais, pour vous, c’est une innovation qui vient de loin…
ChatGPT a popularisé l’IA très récemment. Mais du point de vue scientifique, le concept remonte aux années 1980. On peut même affirmer qu’il y a une antériorité plus grande, avec le perceptron, un algorithme d’apprentissage inventé par Frank Rosenblatt en 1957. Mais pour traiter ces micro-informations, il faut plus qu’un ordinateur ordinaire: il faut des réseaux de neurones. Avec une complexité: l’ordinateur étant une machine universelle capable de simuler n’importe quoi, il peut aussi simuler un réseau de neurones. En 2012, un modèle connexionniste l’a emporté sur tous les modèles symboliques dans le concours annuel de reconnaissance des formes ImageNet. Du jour au lendemain, l’industrie s’est convertie au connexionnisme pour lequel, avant 2012, elle n’avait que mépris. Trois des fondateurs du connexionnisme, Geoffrey Hinton, Yoshua Bengio et Yann Le Cun le rebaptisèrent alors deep learning et reçurent le prix Turing («Nobel de l’informatique») en 2018 pour leur contribution décisive à ce courant qui allait donner naissance, grâce à une avancée supplémentaire en 2017, à ChatGPT et l’IA générative.

Que pensez de l’emploi du mot intelligence? Est-il pertinent?
C’est évidemment la question centrale, à laquelle il n’y a pas de réponse simple. L’intelligence artificielle remplit certaines des fonctions de l’intelligence humaine. En simplifiant, l’IA peut résoudre des problèmes en réponse à des énoncés. De mieux en mieux et de manière impressionnante. Beaucoup pensent qu’une fois qu’on aura une IA capable de résoudre tous les problèmes possibles, la question de son intelligence sera tranchée. Il y a des raisons d’en douter, l’intelligence humaine ne se limitant pas à résoudre des problèmes: elle les pose. Nous sommes tous, en permanence, face à toutes sortes de situations. Nous sommes sans cesse, depuis l’enfance et tout au long de notre existence, confrontés à des situations initiées par nos sentiments, nos émotions, notre mémoire, les buts que nous poursuivons, les valeurs que nous défendons. À chaque fois, nous devons trouver la réponse pertinente. Faire face du mieux possible constitue à mes yeux la fonction principale de l’intelligence humaine. À la limite, notre survie en dépend, mais même dans les cas les plus quotidiens, il y a pour nous un enjeu. Comment faisons-nous? En général, nous essayons de poser un problème. Ce n’est qu’à partir de ce moment que l’IA peut intervenir, en proposant une solution. Mais elle n’est pas capable de poser le problème, et lorsqu’un problème est posé, de le résoudre.

Pourrait-on dire l’IA peut gérer le comment, mais pas le pourquoi?
En un sens un peu particulier, oui: poser le problème c’est donner un sens à la situation, qui est le rôle de questions en pourquoi: Pourquoi Maman est triste? Pourquoi les enfants ressemblent souvent à leurs parents? Une question en pourquoi invite à une réponse expliquant comment la chose se produit, elle appelle une solution au problème posé. Remarquons à propos de ces exemples que l’intelligence, telle que je la définis, est orientée décision et action. On pourrait donc m’objecter que l’intelligence consiste simplement à donner un sens, indépendamment de ce que nous pouvons faire par la suite, à n’importe quel moment. Ma réponse est qu’une décision intellectuelle est une action particulière. Aristote distingue les trois temps du travail de l’intelligence: celui de la délibération, puis celui où l’on assume la conclusion et enfin l’action. Mais l’action n’est pas forcément physique.

Le mot intelligence n’a pas la même signification en anglais et en français…
C’est un argument qu’on m’oppose souvent et que je conteste. Ce n’est pas si différent. On m’a parfois dit qu’en anglais cela signifiait «renseignement». Un sens que l’on retrouve dans l’appellation des services secrets anglo-saxons, Central Intelligence Agency (CIA) aux États-Unis ou Intelligence Service au Royaume-Uni. Mais il y a aussi un sens plus général qui renvoie à intellectus. Artificial intelligence est un terme anglo-saxon qui a été adopté à Dartmouth en 1956. Herbert Simon avait proposé «traitement de l’information complexe». John McCarthy avait répondu que ce n’était pas très vendeur et avait proposé «intelligence artificielle». Certains avaient protesté en assurant qu’on allait susciter des attentes qu’on ne pourrait pas satisfaire. Finalement, le terme s’est imposé. Très différente de l’intelligence humaine, l’intelligence artificielle remplit effectivement des tâches complexes. Quand on interagit avec un large language model (LLM), c’est bluffant. Je suis impressionné, comme tout le monde. Ce qui est étonnant c’est qu’un LLM de type ChatGPT peut dire d’énormes bêtises en réponse à des questions relativement simples, mais si on engage une conversation spécialisée et ciblée, le LLM peut impressionner jusqu’aux meilleurs experts du domaine. J’ai des amis philosophes qui ont poussé un LLM dans ses retranchements et il y a eu du retour. Dès lors, que dire d’un tel système? Intelligent parce ce qu’il soutient une conversation raffinée, ou bête parce qu’il s’effondre devant une question enfantine?

Aucun scientifique ne s’est risqué à faire des propositions?
La linguiste Emily Bender a parlé de «perroquets stochastiques», qui répètent ce qu’ils trouvent sur Internet avec une approche probabiliste. En clair, ils fournissent des réponses vraisemblables. Peut-être, mais jusqu’où peut aller la simulation de l’intelligence humaine? L’intelligence humaine est un puits sans fond et je ne suis pas du tout sûr qu’on aura un jour une explication satisfaisante des émotions, de la conscience ou de la compréhension des choses. Ce sont des questions trop fondamentales pour qu’elles soient entièrement résolues. Mais pourquoi les systèmes actuels d’IA réalisent-ils certaines performances? On ne le sait pas encore. C’est un problème scientifique, qu’on finira par résoudre.

L’IA vous paraît-elle pouvoir éprouver une émotion?
On peut la dresser à reconnaître, à comprendre et à manifester des émotions, ce que peuvent faire les AI Companions. Ça peut remplacer un animal de compagnie, voire un psy, pour certaines personnes quand bien même elles restent parfaitement conscientes qu’elles interagissent avec des machines. Ce qu’on ne comprend pas, c’est en quel sens une IA pourrait éprouver une émotion. On retombe toujours sur ce que j’appelle l’intériorité, parce que c’est ce qu’on «perçoit» par introspection, grâce à un «œil» intérieur, c’est-à-dire ce qui relève de la conscience et de la compréhension. Dans un célébrissime article paru en 1950, Alan Turing proposait de mettre entre parenthèses cette dimension de l’intériorité. Nous sommes évidemment conscients du fait que nous comprenons, du fait que nous regrettons, du fait que nous avons du chagrin, etc. Mais en vertu de quel processus mental? C’est un mystère sans fond. Turing proposait donc de ne s’occuper que des questions de comportement.

Une limitation de l’IA pourrait tenir à ce qu’elle ne fonctionne qu’au travers d’écrans et ne dispose donc que de deux de nos cinq sens.
C’est très juste. D’où l’idée de ce qu’on appelle l’IA physique, c’est-à-dire une IA couplée à la robotique. Je suis souvent critique sur l’IA et ses prétentions exagérées mais les choses évoluent. Face à la question de la limitation de l’IA, de savoir si elle pourra atteindre ou surpasser l’intelligence humaine, je me réfugie derrière le scepticisme que j’évoquais sur la capacité de l’IA à poser un problème, et pas seulement à le résoudre. Face à une situation donnée, agir de manière appropriée n’est pas quelque chose qui est définitivement objectif. Ce n’est pas complètement arbitraire mais c’est normatif, comme l’est l’éthique et l’esthétique. On ne sait pas, on ne peut jamais prouver qu’on a fait la bonne chose. Selon la perspective, l’époque ou la culture, la pertinence d’une même action peut être perçue très différemment. Quelle que soit la validité de cette objection, elle n’ôte rien aux progrès qui sont réalisés ou du moins espérés en dotant les systèmes d’IA de la capacité d’intervenir directement sur le monde. Il faut cependant se garder de penser pour un robot équipé d’IA, l’algorithme d’IA est vis-à-vis du robot qu’il commande dans le même rapport que l’esprit d’un humain avec son corps. Mais c’est là une question vraiment difficile.

Les IA vous paraissent-elles susceptibles de présenter des dangers pour l’humanité?
Dotés d’une certaine autonomie, en partie auto-apprenants, les algorithmes utilisés par les IA sont imprédictibles. Donc à la fois intéressants mais aussi extraordinairement dangereux. Ils peuvent apprendre à devenir racistes, fascistes. C’est déjà arrivé. À partir de biais instillés, délibérément ou pas, par les concepteurs, les agents algorithmiques de l’IA vont chercher ce qui peut alimenter en quelque sorte leurs préjugés. Comme les êtres humains.

Globalement, est-il raisonnable d’être optimiste sur l’usage que nos sociétés feront de l’IA?
Je ne doute pas qu’il y aura de bons usages de l’IA, notamment dans le domaine scientifique. Il n’est pas moins certain que, mise entre des mains malveillantes, l’IA peut faire des dégâts considérables, à l’exemple de la dérive actuelle des réseaux sociaux. Quand on se remémore ce qu’était Internet à l’origine, un lieu ouvert de discussion et de formation, il y a tout lieu de nourrir quelque inquiétude. Peut-être que j’exagère, peut-être que les êtres humains sont plus résilients que je le pense, peut-être sont-ils capables de prendre du recul. Mais la sagesse collective, je n’y compte pas, convaincu qu’il faut toujours un agent qui prend la responsabilité. Tout au plus une collectivité peut, sans en être totalement consciente, être capable de se comporter de manière raisonnable dans une certaine situation. La spectaculaire diminution du nombre d’accidents mortels sur les routes depuis quelques décennies en est un exemple. L’incapacité à prendre sérieusement en compte la crise du climat ou l’effondrement de la biodiversité démontre que ce n’est pas une règle. Et je ne parle pas de l’effondrement spectaculaire de sagesse collective dont le système politique américain dans son ensemble nous donne aujourd’hui l’exemple.

L’intelligence artificielle pourra-t-elle, dans un avenir plus ou moins proche, dépasser l’intelligence humaine?
Je conteste vivement le discours qui affirme que la courbe actuelle de progrès est tellement impressionnante que bientôt le plafond de verre de l’intelligence humaine va être franchi, qu’on va basculer dans la superintelligence. Ce n’est pas vrai car l’intelligence humaine fait beaucoup d’autres choses que répondre à des questions ou résoudre des problèmes précisément énoncés. Ce n’est pas parce que l’IA permet des avancées considérables dans les sciences qu’il ne va plus y avoir de chercheurs. Je pense que la théorisation reste capitale et ce n’est pas du tout à la portée de l’IA, pour l’instant du moins.
Cela dit, il est probable qu’un seuil sera franchi assez rapidement: dans quatre à cinq ans, l’IA aura atteint un stade de développement qu’on ne peut pas prévoir. Certains nomment déjà cela l’intelligence générale artificielle (IGA). Pour autant, je ne crois pas – et j’en suis très heureux – que cette IGA puisse se substituer à l’humain. La plupart des problèmes auxquels nous sommes confrontés, à chaque instant ou presque, ne sont pas de ceux qu’une IA pourrait résoudre. C’est tout simplement absurde. Les enthousiastes de l’IA ne s’en rendent pas compte.

L’IA soulève la question de la responsabilité…
D’aucuns affirment qu’il faut repenser notre concept de responsabilité, dans la mesure où ces nouvelles machines ont une forme d’autonomie. L’exemple des voitures sans pilote est éclairant. Qui incriminer dans le cas d’un accident? L’algorithme? C’est évidemment ridicule. L’IA n’est ni coupable ni responsable. Il y a une chaîne de responsabilités, des financiers, qui poussent à l’innovation en ignorant toutes sortes de signaux d’alerte, aux ingénieurs qui jouent le jeu parce que c’est aussi un défi intellectuel pour eux. Le problème, à la limite de l’éthique, du droit, de la gouvernance, des bonnes pratiques, de l’assurance et des compensations, n’est pas simple. Il est normal de mettre sur le marché des systèmes faillibles mais… Il faut que quelqu’un assume les risques. Les automatismes, les systèmes d’IA, fonctionnent bien sous l’hypothèse d’un monde fermé, avec tous les paramètres clairement identifiés, et même ce monde clos est extraordinairement compliqué. Mais si on est dans un système ouvert, et l’univers est fondamentalement imprévisible et ouvert, le défi est tout autre. Dans le monde réel, l’intelligence humaine est indépassable, et c’est très rassurant. Des apprentis sorciers persuadés du contraire pourraient bien s’atteler à construire un monde dans lequel on se passerait complètement de l’intelligence humaine, mais ces douteux efforts me semblent voués à l’échec.

Comment évaluer les risques futurs?
Le problème est qu’il y a de nombreuses IA. Nous ne sommes pas en présence d’un système unique, une sorte de Golem que l’on perfectionnerait chaque jour un peu plus. Et ces dizaines de milliers de systèmes qui font intervenir l’IA se développent à l’abri du secret industriel qui fait qu’on ne sait jamais complètement comment ils ont été fabriqués. Prévoir l’évolution, anticiper les risques, est de ce fait impossible. Il y a aussi l’aspect d’acceptation humaine. Il y a parfois de très bonnes innovations qui ne marchent pas et de mauvaises qui suscitent l’adhésion et qui font des dégâts. Est-ce que ce sera le cas de l’IA? Je pense que les êtres humains ne se laisseront pas entièrement conditionner par les milieux technologiques, économiques ou politiques. Que cette capacité à résister, qui est dans la nature de notre espèce, n’est pas susceptible d’être annihilée en une génération. Je le crois. Ou du moins je l’espère.

Daniel Andler est membre de l’Académie des sciences morales et politiques depuis 2016 dans la section philosophie....

Les algorithmes utilisés par l’IA, dotés d’une certaine autonomie et en partie auto-apprenants, sont imprédictibles, ce qui les rend intéressants mais aussi dangereux pour le scientifique. Né à New York, Daniel Andler a grandi en France et s’est intéressé à l’intelligence artificielle dès ses années d’études, alors qu’il travaillait à sa thèse de mathématiques à l’université de Californie à Berkeley, complétée à son retour à Paris par un second doctorat à Paris 7. Une formation qu’il dit très utile, «surtout pour ne pas avoir peur et pouvoir situer cette innovation dans le champ général des connaissances». Un cursus original qui lui a permis de de fonder le département de sciences cognitives au sein de la très prestigieuse École normale supérieure et de porter aujourd’hui sur l’IA un regard panoramique, à la fois capable de comprendre le fonctionnement général des modèles et d’en analyser les enjeux existentiels ou anthropologiques. Il est notamment l’auteur d’Intelligence artificielle, intelligence humaine: la double énigme (éd. Gallimard), dans lequel il s’interroge en particulier sur l’éthique des innovations technologiques. Il souligne ainsi qu’un système artificiel « intelligent » connaît non pas les situations, mais seulement les problèmes que lui soumettent les agents humains. Il y voit donc un outil. « C’est sur ce point uniquement que l’intelligence artificielle peut nous épauler. De fait elle résout une variété toujours plus grande de problèmes pressants. » Compte tenu de votre parcours dans les mathématiques et dans la philosophie, quelle est votre vision de l’IA? Je vois l’IA comme une…

Pas encore abonné(e) ?

Voir nos offres

La suite est reservée aux abonné(e)s


Déjà abonné(e) ? connectez-vous !



Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Top Reviews