Étiquettes: BM35
Par Alexandre Mancino
Face au développement de l’IA, le Vieux Continent ne peut plus se contenter d’être une puissance normative sans puissance technologique.
L’intelligence artificielle est bien plus qu’une révolution technologique: c’est un levier stratégique, économique et géopolitique du XXIe siècle. Pendant que les États-Unis avancent à coups de milliards de dollars d’investissement, que la Chine déploie une stratégie techno-souveraine centralisée, et que Singapour attire les investisseurs par sa souplesse réglementaire, l’Europe choisit la voie de la régulation.
Avec l’AI Act, le premier cadre juridique global sur l’intelligence artificielle au monde, l’Union européenne entend protéger ses citoyens tout en balisant l’innovation. Une démarche ambitieuse, éthique… mais qui, sans puissance industrielle et technologique, pourrait bien devenir un luxe hors de portée.
Alors que l’Europe dispose de tous les atouts, en particulier de meilleures formations d’ingénieur, elle a pris un retard considérable dans l’innovation et a dégainé son arsenal de normes, cachant son incapacité à mettre en place un cadre juridico-économique propice à l’émergence de technologies de rupture.
Adopté en 2024, l’AI Act se veut un texte fondateur, inspiré du RGPD (règlement général de protection des données), classant les systèmes d’IA selon quatre niveaux de risque (inacceptable, élevé, limité, minimal). Il encadre particulièrement les usages à «haut risque» – dans les domaines de la santé, la justice, l’éducation ou la sécurité – imposant des obligations strictes de transparence, d’audit et de conformité. Les systèmes de notation sociale ou de surveillance de masse sont purement interdits.
Cette approche qualifiée de «risk-based», centrée sur la protection des droits fondamentaux, incarne une vision humaniste de l’IA. Elle s’accompagne de dispositions sur les Model Cards, des fiches explicatives imposées aux développeurs de modèles dits «de fondation» – comme GPT, Generative Pre-trained Transformers (transformeur génératif préentraîné), ou LLaMa, Large Language Model Meta AI (grand modèle de Language Meta IA en français) –, censées détailler les capacités, les limites et les conditions d’usage des modèles.
Mais ce zèle réglementaire, en tentant d’anticiper les abus avant même que l’IA ne se stabilise technologiquement, suscite de vives inquiétudes: complexité administrative, frein à l’innovation, barrières à l’entrée pour les PME et start-up européennes. Pendant que l’Europe débat, les autres avancent. Pendant que les autres innovent en investissant en amont pour règlementer a posteriori, l’Europe choisit de réglementer a priori. Ce qui pose un problème de fond sur le rapport qu’entretiennent les puissances à l’innovation.
Face à ce constat, la France adopte une position relativement lucide. Elle milite, avec l’Allemagne et l’Italie, pour une régulation ciblée sur les usages, et non sur la technologie elle-même. Elle soutient les codes de conduite et la flexibilité, évitant les normes «non testées», dans une volonté de préserver l’innovation.
Des initiatives existent: soutien au cloud souverain (Gaia-X), investissement dans l’IA de confiance, financement de supercalculateurs (Jean Zay), stratégie nationale IA relancée. Mais ces initiatives restent insuffisantes face aux déferlantes chinoise et américaine: les start-up européennes lèvent quatre fois moins de fonds que leurs homologues de l’autre côté de l’Atlantique et l’infrastructure cloud est encore massivement dépendante d’Amazon Web Services, d’Azure (Microsoft) et de Google Cloud. La valorisation des données industrielles reste freinée par une approche défensive du RGPD. Car l’IA ne se nourrit pas que de principes: elle a besoin de données massives, de puissance de calcul, de talents et de capital. Et sur ces quatre terrains, l’Europe accuse un retard structurel:
– Les données sont trop fragmentées, peu accessibles, sous-valorisées. La guerre de la donnée fait rage, mais l’Europe reste spectatrice.
– La puissance de calcul dépend encore d’infrastructures étrangères. L’entraînement des grands modèles exige des supercalculateurs et des clouds souverains.
– Le capital reste rare: l’absence de grandes levées de fonds limite l’émergence de champions.
– Les talents s’expatrient, attirés par les conditions de travail, les moyens et la liberté d’innovation offerts ailleurs.
L’Europe semble donc faire le pari que la régulation peut compenser le retard technologique. Mais une régulation, aussi exemplaire soit-elle, ne génère ni brevets, ni modèles, ni influence. Elle peut certes devenir un standard mondial, comme le RGPD. Mais à condition que l’Europe reste un acteur central. Sinon, elle régulera ce que d’autres auront conçu, entraîné et exporté.
Comme le rappelait Elon Musk, il faut «une approche pragmatique»: protéger sans freiner, encadrer sans asphyxier. L’Europe doit retrouver une ambition de puissance, et ne plus être seulement la gardienne des valeurs, mais aussi l’artisane des technologies.
À ce jour, aucun grand modèle de fondation IA (comme GPT-4, Claude, Gemini, Ernie, Mistral ou LLaMa) n’est exclusivement européen. Même le très prometteur Mistral AI, financé en partie par des fonds publics, héberge et déploie ses modèles sur des infrastructures étrangères.
Ce que l’Europe doit construire, c’est une souveraineté compétitive, fondée sur l’innovation, le capital, les talents et des règles du jeu lisibles: soutien massif à la recherche appliquée, stratégie industrielle sur les semi-conducteurs et le cloud, valorisation des données, investissements souverains, et alliances internationales.
L’Europe ne peut plus se contenter d’être une puissance normative sans puissance technologique. Si elle veut faire entendre sa voix dans la guerre des intelligences, elle doit aussi savoir produire, entraîner et innover. La régulation ne doit pas être un frein à la puissance, mais un levier pour la souveraineté, complémentaire à la capacité d’innovation et d’affirmation de sa capacité de créer et de mener le monde.
C’est tout l’enjeu de l’IA en Europe: la régulation ne peut se faire que sur les usages a posteriori tandis que la souveraineté du Vieux Continent en matière technologique est une nécessité absolue. Ceci passe notamment par la création de clouds européens, de pôles d’excellence; et plus généralement de favorisation de la production technologique en Europe, comme l’encourageait l’European Chips Act en 2023.
Alexandre Mancino est avocat et président du Cercle Orion, centre de réflexion politique et citoyenne....
Déjà abonné(e) ? connectez-vous !