Demain, la liberté ?

Jean-Baptiste Soufron

Les promesses de l'intelligence artificielle pourraient bien s'avérer illusoires.

 

Un nouveau mythe de l’intelligence artificielle est en train de s’installer sous nos yeux. En 1987, RoboCop de Paul Verhoeven traitait un sujet alors rare au cinéma, comme dans le débat public. Devenu un classique, il a gardé tout son impact en 2023 et trouve même une vigueur renouvelée à l’heure de la déferlante ChatGPT.

Si Metropolis, 2001, Blade Runner ou Terminator ont également abordé la question des relations entre l’homme, la machine et la conscience, c’est la mise en scène hystérique et paranoïaque du hollandais violent qui révèle l’importance du rapport entre l’intelligence artificielle et le capitalisme californien, si facilement cynique et mensonger.

La chute de leurs cours de bourse et la concurrence chinoise obligent les Gafam à revenir à de plus humbles dispositions. La condamnation pour escroquerie d’Elizabeth Holmes et l’arrestation pour fraude de Sam Bankman-Fried leur rappelle que nul n’est inatteignable. Mais il n’empêche que le nombre de techno-milliardaires a plus que doublé en dix ans et certains se prennent à s’imaginer en Médicis des temps modernes, utilisant leurs fonds pour acquérir une légitimité intellectuelle, chacune de leurs sorties étant suivie avec révérence par des cohortes de néo-entrepreneurs désireux de marcher dans leurs pas.

Le cœur de leur réflexion n’est pas difficile à identifier. Tous ne cessent d’exprimer leur frustration face à un monde obstinément rétif à se plier à leurs volontés optimisatrices. Comme Peter Thiel l’a exprimé sans fards, « nous voulions des voitures volantes, et nous avons eu 140 caractères ». Ou encore comme le résume Sam Altman, le fondateur d’OpenAI, maison-mère de ChatGPT : « l’iPhone et le Cloud ont permis de générer une explosion cambrienne des nouvelles technologies. Certains de ses aspects sont positifs, d’autres non. Mais une des choses les plus bizarrement justes c’est que beaucoup de gens sont devenus riches et se sont dit : “ ok et maintenant ?” »

Au début des années 2000, Peter Thiel s’était rapproché de la communauté des blogueurs dits « rationnalistes », une forme de mariage contre nature entre les descendants des « cypherpunks » – activistes d’un droit individuel à la cryptographie pour préserver la vie privée – et les « extropistes » – une autre catégorie d’activistes obnubilés, eux, par la recherche de tous les outils permettant l’extension de la vie humaine par la technologie.

À compter de cette période, grâce à son influence et à celles de Patrick Collison, milliardaire de la Silicon Valley, et Tyler Cowen, économiste et professeur de l’université George Mason, est apparu un nouveau champ de recherche para-académique, les « progress studies » ou « études du progrès ». L’idée est de considérer le progrès comme un sujet ontologique et d’étudier les façons dont il est possible de le libérer, par des moyens économiques, technologiques ou culturels. Comme le dit Robert Lucas, un économiste proche de cette mouvance, « quand on commence à penser à la croissance, il est difficile de penser à quoi que ce soit d’autre ». Depuis lors, Collison a fondé l’Arc Institute, un centre de recherche para-académique où il a levé 650 millions de dollars pour expérimenter de nouvelles approches de la science.

Quant à Sam Altman, il n’est bien sûr pas en reste. En 2021, il dévoilait ce qu’il appelait « la loi de Moore appliquée à tout », une extension de la loi de Moore qui postule que la puissance des processeurs informatiques double tous les dix-huit mois. Selon lui, la puissance de l’intelligence artificielle allait désormais croître de façon exponentielle dans les décennies à venir, jusqu’à éliminer les humains de l’intégralité de toutes les tâches liées au travail. Cette évolution serait créatrice de richesse pour certains, dévastatrices pour d’autres. Elle nécessiterait en tout cas le renouvellement complet des règles organisant la taxation et la redistribution au sein des sociétés modernes.

Les sous-jacents technologiques de l’intelligence artificielle ne datent pourtant pas d’hier. Le premier modèle mathématique et informatique du neurone biologique a été mis au point par Warren McCulloch et Walter Pitts dès 1943. De leur côté, John von Neumann et Alan Turing ont formalisé l’architecture de nos ordinateurs contemporains grâce à l’exploitation de la logique binaire, réussissant à démontrer qu’il s’agissait là d’une machine universelle, capable d’exécuter tout ce qui lui serait programmé.

C’est d’ailleurs Alan Turing qui posera la première fois la question de l’intelligence artificielle dans un article de 1950 « Computing Machinery and Intelligence », décrivant à cette occasion le célèbre « test de Turing » qui pose la question de la limite entre l’humain et la machine et dont le meilleur exemple reste peut-être la scène du test de Voight-Kampff dans Blade Runner de Ridley Scott.

À New York, de 1946 à 1953, les conférences Macy, financées par la Josiah Macy Jr. Foundation réunirent les fondateurs de ce qui s’appelait alors encore la cybernétique, Norbert Wiener et Claude Shannon – les concepteurs de la théorie de l’information –, Donald MacKay, Harlod Alexander Abramson – l’un des acteurs importants du programme de la CIA MKUltra –, Oskar Morgenstern – le père de la théorie des jeux –, Leonard Savage – l’inventeur des filtres bayésiens et du concept de minimax –, ou encore Jerome B. Wiesner – futur conseiller scientifique du président Kennedy.

C’est à cette occasion que Warren McCulloch a pu pousser son modèle plus loin et, rebondissant sur l’idée de John von Neumann d’assimiler le fonctionnement du cerveau à celui d’un ordinateur, proposer d’élaborer les premiers réseaux de neurones, c’est-à-dire les premiers outils d’intelligence artificielle, susceptible de produire des prédictions efficaces à partir d’une base de données limitée. Le premier test, imaginé par Claude Shannon, consista à apprendre à un réseau de neurones à sortir d’un labyrinthe comme l’aurait fait un rat dans un laboratoire.

En 1957, Herbert Simon prédisait qu’une intelligence artificielle serait capable de battre le meilleur joueur d’échec du monde avant dix ans. Il se trompait sur la date, mais pas sur la capacité des futures machines : en 1997, Kasparov est battu par Deep Blue – un système fondé sur la force brute plutôt que sur l’apprentissage profond. L’attente eût sans doute été plus longue encore sans un bug aux effets psychologiques étrangement ravageurs, au 44e coup joué par Deep Blue lors du premier match de leur deuxième série de rencontres. Alors que Kasparov venait de glisser la tour noire sur la dernière ligne de défense des blancs, l’ordinateur, qui se limitait jusque-là à répondre au coup par coup, a décidé de sacrifier un pion de façon à la fois imprévisible et bravache. Face à ce jeu contrintuitif, cherchant le piège, l’ogre de Bakou s’est persuadé que Deep Blue possédait une intelligence supérieure, ce qui a eu pour effet de le déstabiliser jusqu’au bout de la rencontre, qu’il a perdue de nouveau (1 victoire, 3 nulles, 2 défaites pour Kasparov).

Quelle part donc pour l’intelligence artificielle, quelle part pour le marketing ?

Pour les vrais experts, comme Yann Le Cun, il y a encore beaucoup de chemin à parcourir pour produire des systèmes de compréhension de texte. ChatGPT illustre bien ce défi. N’importe lequel de nos smartphones sait déjà retranscrire efficacement une phrase ou une instruction, mais aucun d’entre eux ne parvient à la contextualiser ou à analyser nos intentions.

Comme toujours dans le numérique, les moyens mis en œuvre sont tout aussi impressionnants. Suite à l’annonce réussie de ChatGPT, Microsoft n’a pas hésité à investir 10 milliards d’euros dans OpenAI, la maison-mère du logiciel. Il faut dire que tous les acteurs de l’industrie ne cachent pas leur crainte d’être démonétisés par cette nouvelle vague d’innovation.

L’échec d’ailleurs ne pardonne pas. Alors que Google tentait de faire la démonstration de Bard, leur propre produit d’intelligence artificielle conversationnelle, celui-ci a répondu à une question sur le James Webb Spatial Telescope en indiquant que ce télescope avait été le premier à produire une photo d’une planète extrasolaire. Or, la première image présentant une planète au-delà de notre système a été prise en 2004 par le Very Large Telescope du European Southern Observatory. Immédiatement, l’action de la maison-mère de Google, Alphabet, a perdu 7,7 % de valeur en bourse, soit plus de 100 milliards de dollars.

On comprend que l’enjeu est de taille et qu’il dépasse largement le produit ChatGPT en lui-même. Car les plateformes d’intelligence artificielle ne sont pas seulement une technologie et ne se contentent même pas d’être un modèle économique. L’ambition des techno-milliardaires qui les financent est d’en faire l’infrastructure essentielle autour de laquelle la société va devoir se réorganiser en profondeur. Il ne faut pas tant se laisser obnubiler par la part de valeur qu’elles extraient des activités du travail, mais bien plutôt se concentrer sur la manière dont elles vont miner et exploiter les activités de coopération sociale.

Pour le dire autrement, le vrai business de l’intelligence artificielle va s’installer là où ne l’attend pas, en se rendant indispensable dans chaque secteur de la vie sociale, jusque dans notre vie privée, en s’efforçant de se rendre indispensable dans les relations interpersonnelles, qu’il s’agisse de travail, d’amitié, d’amour ou de sexualité, développant à chaque fois des schémas de monétisation complexes, comme Facebook ou Google ont déjà su le faire avec brio.

Mais contrairement aux prédictions fantasmatiques, ce déploiement ne libèrera pas l’ensemble de l’humanité de toute contrainte : les employés des plateformes resteront asservis à leur difficile labeur à travers un système de microtâches et de micropaiements, indispensables pour entraîner les algorithmes et leur permettre de fonctionner.

On en revient en réalité à l’un des ouvrages séminaux de Norbert Wiener, Cybernétique et Société, dont le titre anglais, bien plus parlant, a été utilisé comme sous-titre dans l’édition française : L’usage humain des êtres humains....

Les promesses de l'intelligence artificielle pourraient bien s'avérer illusoires.   Un nouveau mythe de l’intelligence artificielle est en train de s’installer sous nos yeux. En 1987, RoboCop de Paul Verhoeven traitait un sujet alors rare au cinéma, comme dans le débat public. Devenu un classique, il a gardé tout son impact en 2023 et trouve même une vigueur renouvelée à l’heure de la déferlante ChatGPT. Si Metropolis, 2001, Blade Runner ou Terminator ont également abordé la question des relations entre l’homme, la machine et la conscience, c’est la mise en scène hystérique et paranoïaque du hollandais violent qui révèle l’importance du rapport entre l’intelligence artificielle et le capitalisme californien, si facilement cynique et mensonger. La chute de leurs cours de bourse et la concurrence chinoise obligent les Gafam à revenir à de plus humbles dispositions. La condamnation pour escroquerie d’Elizabeth Holmes et l’arrestation pour fraude de Sam Bankman-Fried leur rappelle que nul n’est inatteignable. Mais il n’empêche que le nombre de techno-milliardaires a plus que doublé en dix ans et certains se prennent à s’imaginer en Médicis des temps modernes, utilisant leurs fonds pour acquérir une légitimité intellectuelle, chacune de leurs sorties étant suivie avec révérence par des cohortes de néo-entrepreneurs désireux de marcher dans leurs pas. Le cœur de leur réflexion n’est pas difficile à identifier. Tous ne cessent d’exprimer leur frustration face à un monde obstinément rétif à se plier à leurs volontés optimisatrices. Comme Peter Thiel l’a exprimé sans fards, « nous voulions des voitures volantes, et nous avons eu…

Pas encore abonné(e) ?

Voir nos offres

La suite est reservée aux abonné(e)s


Déjà abonné(e) ? connectez-vous !



Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Top Reviews