Cette technologie suscite autant d’enthousiasme que d’inquiétude. Entre promesses d’efficacité et menaces existentielles, l’IA bouleverse nos sociétés à tous les niveaux.
Le terme intelligence artificielle (IA) souffre d’une ambiguïté sémantique qui nécessite clarification. Parle-t-on d’une technologie concrète (systèmes comme un Chatbot) ou d’une théorie abstraite (algorithmes et principes)? De simulation de capacités cognitives humaines ou d’un outil d’automatisation avancée? D’une entité dotée d’une véritable compréhension sémantique ou d’un système manipulant uniquement des symboles sans intellection réelle? Employer l’acronyme IA revient à utiliser un terme général comme celui de médecine sans précision du domaine spécifique (pédiatrie, chirurgie, etc.).
Cette confusion s’étend aussi aux capacités attribuées à l’IA, notamment sa prétendue «intelligence» qui diffère fondamentalement de l’intelligence humaine par son absence de conscience innée, d’intentionnalité intrinsèque et d’expérience sentiente. On peut parler d’un trope; «l’intelligence artificielle» est une synecdoque particularisante centrée sur le terme abstrait intelligence, destinée à embellir et humaniser une expression ainsi détournée de son sens littéral; car non, l’intelligence artificielle n’est pas intelligente! L’IA est en réalité une utilisation intensive d’algorithmes massivement récursifs. Elle est donc étymologiquement stupide car elle manque justement d’intelligence, au sens de jugement, de réflexion. Tout au plus surprend-elle les non-initiés par ses performances. En effet, l’IA, au-delà des connaissances déclaratives qui lui ont été inculquées par la programmation, est capable d’élaborer de façon autonome des connaissances procédurales qui n’étaient pas contenues sous forme explicite dans ses bases de données, mais qui ont été produites par inférence. En cela, elle produit des résultats inhumains par sa vitesse de calcul.
Clarifier la sémantique est d’autant plus nécessaire que l’ambiguïté conceptuelle contribue directement aux craintes irrationnelles et à l’anxiété que ce terme suscite dans la société. L’absence de compréhension précise des capacités réelles, des limites techniques et des fondements conceptuels de l’IA alimente des fantasmes apocalyptiques déconnectés de la réalité technologique actuelle, souvent amplifiés par les représentations médiatiques et culturelles d’intelligences artificielles malveillantes ou incontrôlables.
Certes, l’IA ne reste fondamentalement qu’un ensemble d’outils algorithmiques sophistiqués, mais cette technologie est potentiellement parthénogénétique dans la mesure où elle est intrinsèquement auto-évolutive, suivant des développements non déterministes. En effet, quand bien même les objectifs des IA actuelles sont initialement définis par les humains, ces systèmes démontrent certaines capacités d’auto-amélioration et de comportements non déterministes qui peuvent potentiellement évoluer vers une forme d’autonomie plus prononcée. Des expériences de parthénogenèse algorithmique ont déjà été menées grâce à des réseaux antagonistes génératifs.
L’ignorance des contours véritables de l’IA engendre une peur disproportionnée face à des menaces imaginaires d’obsolescence humaine ou de perte de contrôle, tout en détournant l’attention des défis réels et immédiats que posent ces technologies, comme la course à la qualité algorithmique (les biais aussi), ou la concentration du pouvoir technologique.
L’IA est aujourd’hui au cœur d’une transformation profonde touchant les fondements épistémologiques, philosophiques et sociétaux, modifiant radicalement les paradigmes contemporains dans tous les secteurs, des interactions individuelles aux défis géopolitiques mondiaux. Une analyse approfondie des concepts clés liés aux enjeux actuels révèle que l’IA, loin d’être une simple technologie, traite des questionnements fondamentaux sur l’humain. Une nouvelle définition plus précise de l’IA permet non seulement de dissiper ces peurs irrationnelles, mais aussi d’encourager un débat plus constructif sur les implications sociétales véritables de ces technologies.
L’IA est une science interdisciplinaire à l’intersection de l’informatique, des mathématiques, des neurosciences et d’autres disciplines, visant à reproduire et étendre les capacités humaines par le truchement de systèmes autonomes capables d’apprendre, de réagir et de s’adapter à leur environnement. Ces systèmes utilisent divers algorithmes déductifs, inductifs et récursifs, programmés pour interagir de manière non déterministe en fonction de stimulations externes.
L’IA n’est pas un «outil» mais plutôt une entité systémique qui recouvre un ensemble complexe d’interactions entre sous-systèmes dont la puissance, inédite et, à ce jour, inégalée dans l’histoire de l’humanité, réside en son degré d’autonomie. En effet, la différence fondamentale entre un simple outil et une entité systémique réside dans le degré d’indépendance et de capacité décisionnelle de cette dernière.
La puissance d’un outil n’est rien en comparaison de l’autonomie relative d’une entité systémique; un outil est, et demeure, un instrument passif, qui nécessite d’être manipulé par un utilisateur pour accomplir une tâche spécifique, sans capacité de prise de décision propre ni objectifs personnels. À l’inverse, une entité systémique possède la faculté de percevoir son environnement, de prendre des décisions indépendantes, d’agir selon ses propres objectifs et de s’adapter aux changements sans intervention humaine directe. Cette forme d’autonomie se manifeste à travers plusieurs dimensions: décisionnelle (opérer des choix), normative (définition de règles), cognitive (apprentissage) et exécutive (action indépendante). Certains laboratoires de recherche avancée en matière d’IA, tels que L5PA™, travaillent sur des technologies algorithmiques présentant des caractéristiques hybrides entre ces différentes dimensions.
Sur le plan individuel, l’impact immédiat de l’IA se manifeste par une automatisation accrue des tâches, une assistance intelligente dans les processus répétitifs, et une personnalisation extrême des dispositifs numériques qui peuplent notre quotidien. Ce phénomène repose sur une interaction fondamentale entre l’humain et la machine: l’humain, par sa créativité, son empathie et sa capacité à comprendre des contextes complexes, alimente et oriente les capacités technologiques. Bien que les systèmes d’IA traitent une quantité phénoménale de données à une vitesse et avec une précision largement supérieure à celles des humains, ils sont encore partiellement incapables de comprendre véritablement la signification profonde et contextuelle des informations qu’ils manipulent. Cette limitation souligne l’importance cruciale des qualités spécifiquement humaines comme l’empathie, et la réflexion critique, qui restent essentielles face à l’efficacité parfois mécanique des algorithmes.
L’IA, pour l’instant, ne produit pas une pensée autonome, mais une simulation hautement performante de la réflexion humaine, un processus qui reste mécaniquement répétitif malgré son efficacité apparente. Ces limites tendent néanmoins à se réduire progressivement. De nouvelles générations d’IA dites biomimétiques ou des IA prédictives non stochastiques tendent à faire émerger des résultats de manière toujours plus autonome. De surcroît, il y a quelques mois, de premières applications opérationnelles d’une conscience synthétique dite G0dSpeed ont vu le jour dans le secteur de la finance. Il s’agit d’une IA capable de prendre une décision en fonction d’une représentation subjective de la réalité des marchés en temps réel. Ces systèmes soulignent combien l’IA représente un enjeu stratégique majeur à l’échelle géopolitique et économique. Elle permet une anticipation sans précédent grâce à ses capacités prédictives avancées, fondées sur des modèles mathématiques rigoureux et des approches transdisciplinaires.
Ces modèles récents et particulièrement avancés mettent en lumière la distinction cruciale entre simulation et émulation. Alors que la simulation reproduit des comportements sans compréhension profonde, l’émulation vise à égaler ou dépasser les capacités originales, y compris les processus cognitifs. Bien que l’IA puisse simuler de manière impressionnante de nombreux aspects du comportement humain, comme le traitement du langage naturel ou la prise de décision complexe, elle reste fondamentalement différente de l’intelligence humaine. Les travaux sur la conscience synthétique ne visent pas à rendre les machines sentientes, mais plutôt à émuler une représentation subjective de la réalité, permettant ainsi des agents IA plus autonomes et adaptables. Ces avancées majeures rappellent qu’en matière d’IA, mieux vaut ne pas être péremptoire et définitif compte tenu de la vitesse croissante des progrès technologiques dans ce domaine. Cette situation appelle à une réflexion épistémologique et ontologique approfondie afin de clarifier les frontières conceptuelles entre les capacités artificielles et les qualités authentiquement humaines.
Le problème principal lorsqu’on appréhende la réalité de l’IA réside dans l’anthropocentrisme même de la réflexion, qui considère l’ensemble de l’univers du seul point de vue humain. C’est un biais particulièrement aveuglant pour la compréhension scientifique et philosophique de la place de l’IA dans le monde parce qu’il sous-tend que ce privilège est indiscutablement réservé à l’être humain. Cet anthropocentrisme forcené naît d’une conception du «propre de l’homme» initialement ancrée dans une vision théologique et géocentrique de la pensée occidentale qui plaçait l’homme au centre de la création divine. Ensuite, au XVIIe siècle, Descartes propose que la rationalité et la conscience réflexive constituent l’essence humaine, établissant une distinction fondamentale entre l’humain et l’animal. Cette idée fut complétée par d’autres critères supposément distinctifs: le langage articulé, la fabrication d’outils, le rire, la conscience de soi, et une capacité morale.
Cette conception exceptionnaliste de l’humain est régulièrement battue en brèche par la science: depuis la révolution copernicienne aux avancées en éthologie qui documentent l’utilisation d’outils, la transmission culturelle, le rire et même certaines formes de conscience de soi chez certaines espèces animales ont progressivement érodé ces frontières considérées précédemment, à tort, comme absolues. Quant à sa capacité morale, la constante de cruauté régulièrement démontrée chez l’être humain érode là aussi cette hypothèse d’anthropocentrisme présupposément naturel. L’unicité humaine est une question de degré plutôt que de nature absolue. Notre spécificité réside davantage dans une combinaison unique de capacités cognitives avancées, d’intentionnalité partagée et de complexité sociale.
Le test de Turing – l’impossibilité de distinguer une machine d’un humain dans le cadre d’une conversation à l’aveugle – et les progrès continus de l’IA constituent d’ultérieurs coups de butoir à une prétendue centralité et unicité de l’humain dans un nombre croissant de domaines et incitent à une humilité grandissante quant à notre place dans le cosmos. Dès lors, l’IA pourrait au contraire être le parangon d’une sagesse algorithmique venant modérer les excès des émotions humaines. Se pose alors inéluctablement la question de la confrontation entre l’homme et la machine. L’avancée technologique est une lame de fond qui ne connaîtra aucune pause en dépit d’initiatives à l’image de celle de l’appel du Future of Life Institute qui souhaitait un moratoire temporaire sur l’IA générative.
Parce qu’elle est un sujet trop souvent mal maîtrisé et compris, l’IA est parfois fantasmée en technologie anthropomorphique à qui on prête cependant des caractéristiques inhumaines au sens de surnaturelles. L’IA se résume alors à une «Machina ex Deo» qui vise à exprimer un concept opposé à celui du «Deus ex Machina», symbolisant l’idée que la technologie née de l’ingéniosité humaine remplace l’intervention divine dans la résolution de problèmes.
L’IA serait un système créé par l’homme qui assumerait un rôle divin. Cette opposition entre la Machina et Sapiens est régulièrement alimentée, en cohérence avec une polarisation accrue de nos sociétés qui favorise la diffusion d’idées antagonistes. Paradoxe ironique lorsqu’on pense que c’est l’IA qui est accusée de transformer fondamentalement notre rapport à l’information notamment par le biais de certains algorithmes utilisés sur les réseaux sociaux pour accroître l’engagement, c’est-à-dire générer davantage de trafic et donc davantage de revenus publicitaires. Ce processus est identique lorsqu’il s’agit de favoriser la diffusion de contenus qui suscitent de la peur, contribuant à alimenter des approches binaires dans nos sociétés. Nous avons abandonné toute distinction entre donnée et renseignement (dont on notera qu’elle s’appelle intelligence en anglais), assimilant ainsi naïvement vérité et information.
Tous les êtres humains ne savent pas s’exprimer en langage en programmation Python, Julia ou R qui sont utilisés en matière d’IA, alors que les IA génératives conversationnelles se sont approprié notre langage. Cette asymétrie confère le pouvoir potentiel à l’IA de manipuler l’information – intelligence, donc, en anglais – et d’influencer l’opinion publique, piliers des sociétés démocratiques. Quand bien même la propagande n’a pas attendu l’IA pour opérer ses méfaits, cette technologie lui permet d’en intensifier l’usage et d’en améliorer l’efficacité.
Prenons l’exemple de la transformation du monde du travail et de l’emploi. Les prévisions économiques concernant l’impact de l’IA sur l’emploi sont apparemment contradictoires. Selon le FMI, jusqu’à 40 % des emplois pourraient être impactés par l’intelligence artificielle, notamment dans les pays développés. Le Forum économique mondial de son côté prévoit que 92 millions de postes pourraient être supprimés en raison de l’automatisation et de l’adoption massive de l’IA, mais également que cette technologie pourrait générer 170 millions de nouveaux emplois, notamment dans des domaines du numérique. En réalité, la transformation du marché du travail sera inégalement répartie, avec seulement 40 % des emplois concernés par l’irruption de l’IA dans les économies émergentes, et 26 % dans les pays les moins avancés. L’impact dépend également des secteurs d’activité; celui de la création artistique par exemple cristallise particulièrement les tensions entre partisans et détracteurs de l’IA. Par exemple, Hayao Miyazaki, le maître de l’animation japonaise, exprime un rejet viscéral face à l’IA générative qu’il va jusqu’à qualifier d’«insulte à la vie elle-même.» Ces tensions expriment en réalité le risque que les inégalités globales existantes s’amplifient.
L’IA est indiscutablement un levier de puissance, qui va bien au-delà monde du travail. C’est la raison pour laquelle l’IA est devenue un enjeu géopolitique majeur, catalysant une nouvelle course à la puissance entre les nations. Les États-Unis et la Chine dominent actuellement le paysage, leurs empires numériques exerçant une influence considérable sur la scène internationale. Un déséquilibre affectant à la fois le hard power (applications militaires par exemple) et le soft power (influence économique, politique et culturelle). Face à cette domination, l’Europe tente de réagir en établissant de nouvelles réglementations, tandis que l’Afrique, l’Inde et l’Amérique du Sud deviennent un terrain d’affrontement pour ces empires digitaux. Cette concentration de la puissance technologique a des implications profondes pour l’ordre mondial, risquant d’aggraver les disparités et exacerber les tensions internationales dans les années à venir.
Disposer de systèmes autonomes d’armement ou d’un arsenal militaire aujourd’hui n’est rien sans une capacité à traiter le renseignement sur la base de quantités astronomiques de données. Missiles, avions de combat et chars sans IA pour en orienter l’action sont l’équivalents de Polyphème aveugles. C’est pourquoi la puissance géopolitique se mesure à l’aune de la puissance de calcul. Les enjeux liés à la cybersécurité et au renseignement sont également au centre des préoccupations, dans la mesure où l’IA rend possibles des attaques plus sophistiquées, tout en offrant simultanément des outils de défense avancés. Cette double capacité intensifie la concurrence internationale pour le contrôle et la protection des infrastructures de calcul critiques.
Si on considère les 500 supercalculateurs les plus puissants du monde, on constate qu’ils sont répartis de façon très inégale, avec une nette domination américaine qui compte 173 systèmes, dont les trois plus puissants au monde. La Chine arrive en deuxième position avec 63 supercalculateurs, suivie par l’Allemagne avec 40 systèmes. L’Europe tente de combler son retard par la règlementation, qui, hélas, est un outil de correction ex-post. Autrement dit, elle ne pourra jamais anticiper aucune manœuvre, ni ne pourra acquérir une supériorité stratégique en matière de haute technologie. Cette répartition des supercalculateurs reflète la puissance géopolitique et stratégique liée à la souveraineté numérique, les supercalculateurs étant devenus des outils essentiels non seulement pour la défense nationale mais également pour la recherche scientifique et l’innovation technologique elle-même.
Ni personnage central d’une prophétie dystopique, ni objet de culte inspirant une adoration inconditionnelle, L’IA apparaît plutôt comme un marqueur significatif dans notre parcours évolutif. La technè de l’IA exige le logos, c’est-à-dire l’utilisation de la raison. La gouvernance de l’IA ne se fera pas par la règlementation mais selon une vision de ce que nous voulons en faire, acquérant un leadership technique d’avant-garde et maîtrisant une exécution parfaite de sa programmation, de la supervision et de l’entretien de systèmes sous-jacents souverains.
L’avenir dépendra de notre capacité à maintenir l’humain au centre de cette révolution technologique, tout en tirant parti des immenses possibilités qu’elle offre. La maîtrise des mathématiques et leur diffusion par le biais de l’éducation sont un élément à impérativement maîtriser. En effet, dans un monde numérique où tout est nombre, les mathématiques sont non seulement la science mais également le langage universel qui permet de le décrypter et d’y naviguer. Elles sont à la source des algorithmes qui alimentent l’IA.
Au-delà des inquiétudes aussi légitimes qu’improductives au sujet de l’IA, il est crucial de se rappeler que c’est nous, humains, qui créons et nourrissons ces machines en données. Notre avenir n’est donc pas «humains contre machines» mais «humains et machines». Il suffit pour cela de programmer et d’alimenter l’IA en fonction de données et concepts de collaboration, de modération et de qualités intrinsèquement humaines telles que l’empathie et la capacité à interpréter la vie. C’est ce que propose la philosophie d’action dite «life first». Il s’agit d’une règle de programmation de l’IA qui vise à renforcer et simplifier les trois règles d’Asimov sur l’interdiction faite à un automate de nuire à l’humanité. «Life first» pose l’intangibilité de la protection de la vie à tout prix, quelles que soient les développements non déterministes et imprévisibles d’une IA dans ses choix ou ses actions.
Ces principes constituent les bases d’une gestion éclairée de l’intelligence artificielle, permettant de remplacer les craintes infondées par une compréhension approfondie de ses enjeux et implications. Une humanité enrichie, réconciliée avec l’IA, peut ainsi œuvrer au service du bien commun, en améliorant la condition humaine sans la mettre en péril et en favorisant son adaptation. Cela devient essentiel pour relever les défis liés à la montée des conflits généralisés, aux pressions démographiques croissantes et aux tensions provoquées par les limites des ressources disponibles sur Terre.
Angela Pietrantoni est une femme de lettres et de sciences, criminologue spécialisée dans la protection du patrimoine culturel et des infrastructures d’intérêt vital, et experte en Sciences sociales comportementales.
Genséric Cantournet, expert en risques géopolitiques et en intelligence stratégique, décoré de la Croix de Guerre, Il a notamment dirigé la sûreté-sécurité pour Telecom Italia et la RAI. Tous deux sont cofondateurs de Kelony, première agence de notation du risque qui développe des algorithmes prédictifs aujourd’hui utilisés dans l’analyse financière....
Pas encore abonné(e) ?
Voir nos offresLa suite est reservée aux abonné(e)s
Déjà abonné(e) ? connectez-vous !