Étiquettes: BM35
Par Marthe Nagels
Algorithmes et IA s’invitent dans le débat public par leur influence. Doit-on y voir de nouveaux maîtres de cérémonie ou un levier de manipulation ?
Il fut un temps où la démocratie reposait sur la volonté populaire exprimée dans les urnes, des hommes et des femmes qui se regardaient dans les yeux, s’opposaient à la tribune et négociaient dans les couloirs. Est-ce désormais une question d’algorithmes et de lignes de code? Car l’intelligence artificielle s’invite dans le débat public comme un convive imprévu à un dîner mondain: fascinante, un brin inquiétante, et capable de faire basculer la conversation dans un tout autre registre.
Entre les promesses d’une participation citoyenne augmentée et le spectre d’une manipulation de masse, l’IA pose une question vertigineuse: qui influence qui? Sommes-nous en train de lui apprendre à être démocrate ou bien est-ce elle qui redéfinit les règles du jeu?
Les algorithmes n’ont pas d’opinion, dit-on. Certes. Mais ils savent lire les nôtres, les classer, les analyser, les synthétiser. Ils savent aussi, mine de rien, donner plus d’écho à certaines voix qu’à d’autres. L’IA est-elle en train de devenir le maître de cérémonie du débat public, sélectionnant les idées dignes d’être lues et reléguant les autres aux oubliettes numériques?
Pour éviter les dérives, la World-wide Alliance for AI & Democracy, initiée par Make.org, fédère près de 100 organisations – chercheurs, activistes et institutions – pour que l’IA reste un outil au service de la démocratie et des citoyens, et non un levier de manipulation. Résolument engagée du côté d’une technologie éthique, elle mène des actions concrètes pour protéger l’intégrité des élections, renforcer la participation citoyenne et préparer la société aux bouleversements de l’IA.
Prenons un exemple: l’IA peut devenir un surpuissant facilitateur de débats démocratiques en ligne. Elle sait résumer les arguments, trouver des points de convergence entre des opinions opposées et même, si on le lui demande, traduire une proposition politique en langage compréhensible par un enfant. Mais si l’algorithme qui trie ces idées favorise inconsciemment les plus populaires ou les mieux formulées, il risque d’écarter des propositions essentielles, mais moins bien présentées. Une IA mal conçue pourrait ainsi renforcer les biais existants au lieu de les corriger. Autre danger: les fake news. L’IA façonne le débat public et peut amplifier et accélérer la propagation de rumeurs et théories du complot. Une fausse information virale peut devenir une vérité admise, influençant des décisions majeures.
Face à ces défis, il ne suffit pas d’alerter: il faut agir pour que la démocratie reste un espace humain, et non un algorithme opaque.
Les acteurs de la démocratie et de la participation citoyenne sont en train de comprendre que l’IA peut être un allié précieux. Elle permet de structurer des milliers de contributions, d’identifier les consensus, de détecter les fake news et même – c’est nouveau – de suggérer des idées que personne n’avait encore formulées. Une sorte de carburant pour l’intelligence collective et le décider-ensemble.
Mais il y a un hic: qui contrôle le «dosage»? Si les algorithmes décident de ce qui est pertinent, la démocratie devient-elle un exercice sous influence? C’est tout l’enjeu du programme de recherche sur les Communs Démocratiques, qui explore les moyens de garantir une IA au service du collectif et non au service de ceux qui la programment.
Il est essentiel de rappeler que l’IA ne fait qu’exécuter ce pour quoi elle a été programmée. Et c’est bien là le problème. Si elle est développée par une poignée d’entreprises aux intérêts bien identifiés, peut-elle réellement servir l’intérêt général? Les chercheurs ont mis en évidence un point clé: l’IA n’est pas neutre. Tout algorithme repose sur des choix humains, qu’il s’agisse des bases de données utilisées ou des critères d’apprentissage. La démocratie ne peut donc pas se contenter de «surveiller» l’IA, elle doit activement participer à son élaboration.
Pour cela, plusieurs pistes sont explorées: créer des IA en open source, dont le fonctionnement serait totalement transparent, intégrer des citoyens et des experts indépendants dans leur gouvernance, ou encore imposer des audits réguliers des algorithmes utilisés par les plateformes influentes.
Les gouvernements commencent à prendre la mesure du phénomène. L’Union européenne a dégainé son AI Act pour encadrer les usages à haut risque, mais la bataille est loin d’être gagnée. Pendant que certains tentent de légiférer, d’autres avancent leurs pions dans l’ombre.
Les élections récentes en Europe centrale et orientale en sont une illustration frappante. En Slovaquie, lors des législatives de septembre 2023, un enregistrement audio falsifié par une IA a circulé, prétendant capturer une conversation entre le leader du parti progressiste et une journaliste, où ils évoqueraient une fraude électorale. Quelque 100000 personnes ont été exposées à cette désinformation avant que le canular ne soit démenti, mais l’impact sur le débat électoral n’a pas pu être évité.
En Roumanie, la présidentielle a été marquée par des accusations d’ingérence étrangère et de manipulation via les réseaux sociaux en utilisant l’IA, notamment en faveur du candidat d’extrême droite pro-Poutine. À travers de faux comptes, des deepfakes et l’amplification algorithmique, la propagande numérique a semé la confusion et nourri la défiance envers les institutions et le scrutin qui, par conséquent, dut être annulé.
Face à cette menace, plusieurs initiatives plaident pour une transparence radicale: il ne suffit pas de signaler qu’un contenu a été poussé par un algorithme, encore faut-il comprendre qui l’a favorisé et pourquoi. À qui profite la viralité d’un discours? Pourquoi un sujet prend-il soudainement de l’importance? Dans un monde où l’IA peut façonner l’opinion publique, la démocratie ne peut plus se permettre d’être aveugle.
L’IA ne remplacera pas le débat citoyen, mais elle en change les règles. Faut-il s’en méfier? L’ignorer serait une erreur, la diaboliser aussi. Comme toujours, tout dépend de qui tient les commandes.
Alors, la démocratie et l’IA: grand duo du xxie siècle ou couple toxique? La réponse ne viendra pas des machines. Elle dépend de nous, encore faut-il se donner les moyens d’y réfléchir avant que les algorithmes ne le fassent à notre place.
Ce qui est certain, c’est que nous vivons un moment charnière. La technologie peut renforcer la démocratie autant qu’elle peut la fragiliser. La balle est dans notre camp. Mais encore faut-il que nous soyons suffisamment unis pour jouer la partie.
L’utopie d’une démocratie assistée par intelligence artificielle est séduisante: plus de manipulation, plus de décisions biaisées, plus de corruption. Mais cette vision oublie une chose essentielle: la démocratie est avant tout une affaire humaine. L’IA ne remplacera jamais l’intuition, l’empathie ou la capacité à écouter. Elle peut être un outil puissant, mais elle ne doit jamais devenir la boussole unique de notre avenir collectif.
Marthe Nagels s’investit depuis dix ans en faveur de la démocratie. Après un engagement à la Mairie de Paris, elle a monté des projets d’engagement citoyen entre la France et le Québec et est passée dans une agence spécialisée dans les concertations locales. Elle pilote au sein de Make.org les grandes consultations et explore l’usage de l’IA pour améliorer la participation citoyenne....
Déjà abonné(e) ? connectez-vous !