Stupidité artificielle et intelligence inhumaine

Genséric Cantournet

Performante l’intelligence artificielle ? Certainement. Intelligente ? Pas vraiment. 

 

Nul doute que l’intelligence artificielle soit un trope. Une sorte de synecdoque particularisante centrée sur le terme abstrait intelligence, destinée à embellir et humaniser une expression ainsi détournée de son sens littéral ; car non, l’intelligence artificielle (IA) n’est pas intelligente !

L’IA est en réalité une utilisation intensive d’algorithmes massivement récursifs. Elle est donc étymologiquement stupide car elle manque justement d’intelligence, au sens de jugement, de réflexion. Tout au plus, elle pourra surprendre les non-initiés par ses performances. En effet, l’IA, au-delà des connaissances déclaratives dont la programmation l’a nourrie, est capable d’élaborer de façon autonome des procédures qui n’étaient pas contenues sous forme explicite dans ses bases de données, mais qui ont été produites par inférence. Ce qui lui permet d’atteindre une vitesse de calcul inaccessible aux humains.

Si l’IA est stupide et inhumaine à quoi bon l’utiliser ? Parce qu’elle est utile pour pouvoir anticiper. Prévoir pour pouvoir prévenir est essentiel dans un monde qui accélère sans cesse, nous exposant toujours davantage à des situations non documentées statistiquement parce qu’inédites. C’est la raison pour laquelle, développer des solutions d’intelligence artificielle avancées, à même d’aider à la prise de décision, est essentiel pour le bien de l’humanité ; si notre cerveau est rationnel, notre l’esprit ne l’est pas toujours. D’où le besoin d’instruments de mesure.

Ce qui compte dans le développement de telles solutions n’est pas tant la programmation elle-même que le choix des mathématiques employées comme fondement des algorithmes utilisés. Avec le bon outil mathématique, il est possible de prévoir certains phénomènes même sans en connaître tous les rouages et tous les détails. L’analyse en mathématiques permet, par exemple, de parfaitement prévoir si une équation polynomiale sera résoluble sans même en connaître ses éléments constitutifs. Si les enjeux de l’IA sont généralement mal compris, c’est parce que la matière est encore mal maîtrisée par le public en général. Cette méconnaissance est aggravée par trois facteurs : la complexité intrinsèque des mathématiques employées, l’évolution permanente de ces mathématiques sous l’effet d’une recherche foisonnante et continue, et enfin le caractère immatériel de l’IA. Contrairement aux produits d’autres révolutions technologiques précédentes qu’il était possible d’appréhender par le biais de machines physiques, l’I.A. est plus abstraite.
 

Avec le bon outil mathématique, il est possible de prévoir certains phénomènes même sans en connaître tous les rouages et tous les détails.
 

Ainsi, les fantasmes et les désillusions liés à l’IA naissent souvent d’attentes excessives ou erronées. Une approche pragmatique impose en premier lieu d’admettre que l’IA permet de meilleures performances dans certains domaines que d’autres. Avant d’en envisager l’utilisation, il importe de déterminer si l’IA apporte une valeur ajoutée, de s’assurer que cette technologie correspond bien au problème à résoudre. Si c’est le cas, il faut encore déterminer ce qu’elle peut apporter et ce que, au contraire, elle ne peut pas faire.

Après la question des outils algorithmiques, restent celles relatives à la qualité des données. Le problème est souvent soulevé. Il est pourtant moins central qu’il n’y paraît. Si l’on risque un parallèle avec les problématiques propres à l’industrie pétrolière peut permettre de le visualiser : dans ce secteur, le problème est moins celui de la source que celui du raffinage. C’est en effet le raffinage qui permet de standardiser l’essence à partir de pétroles aux origines et aux qualités très différentes. Le monde réel est désordonné, tout autant que les données que l’on y recueille. Elles sont le plus souvent floutées, masquées par un halo de « bruit » et de détails inutiles. L’erreur la plus communément commise est de vouloir filtrer en amont au lieu de raffiner en aval. Parmi les procédés de raffinage des données on dispose par exemple de la transformation de Fourier. Il s’agit d’un outil permettant de révéler les ingrédients atomiques d’une information complexe. Par exemple, dans le domaine musical elle permet d’extraire les notes d’un son composé. Ou, en astronomie, de calculer la masse d’une étoile située à des millions d’années-lumière de la Terre. Ou encore, plus proche de nous et d’usage immédiat dans des domaines tels que la reconnaissance vocale, l’amélioration de la qualité d’images biomédicales ou leur compression en format jpeg.

Les meilleurs outils prédictifs disponibles aujourd’hui procèdent ainsi : ils décèlent les propriétés invariantes et profondément cachées de la réalité pour en simuler l’évolution à l’aide d’une situation artificielle, « non réelle ». Les mathématiques représentent un parfait environnement de simulation puisqu’un problème peut y être traité de façon totalement indépendante d’autres paramètres exogènes : 1+1=2, toujours et quel que soit 1, c’est-à-dire quel que soit l’objet représenté par le nombre. Ainsi 1 est déjà en soi une simulation quantifiée d’un objet réel ou abstrait. L’hypothèse sous-jacente des outils prédictifs est que les mathématiques, loin de n’être que le traitement de symboles abstraits qui seraient décorrélés de la réalité, servent à l’acquisition d’informations factuelles concernant des systèmes formels.

Mais si les algorithmes se déroulent dans un univers mathématique aux règles et aux limites particulièrement bien définies, force est de constater que notre univers et beaucoup plus complexe. Un problème du monde réel n’est en effet jamais entièrement isolé. Par exemple, électrifier le parc automobile mondial pour rendre les transports moins polluants implique de disposer de bien davantage d’électricité, donc d’augmenter les quantités de CO2 ou de déchets radioactifs produits par les centrales à charbon ou nucléaires. En termes de pollution, un bilan positif n’est donc pas nécessairement garanti.

L’enchevêtrement des chaînes de causalité rend particulièrement difficile d’anticiper les conséquences d’autres variations sur des événements attendus ou décidés. C’est ici qu’entrent en jeu des algorithmes d’IA dits « avancés » parce qu’inspirés des neurosciences, capables de nous aider à retrouver de l’ordre grâce au choix de la bonne grille de lecture. Il suffit pour cela de comparer la réalité à des systèmes formels, pour trouver de l’ordre dans des enchaînements de générations procédurales apparemment chaotiques.

Prenons un exemple et considérons deux suites de nombres :

7 8 5 3 9 8 1 6 3 3 9 7 4 4 …

1, -1/3, 1/5, -1/7, -1/9, -1/11, 1/13, -1/15 …

La question est de prévoir le nombre suivant.

Pour la deuxième, cela est relativement simple : 1/17.

La première suite en revanche paraît aléatoire sauf si on utilise la bonne grille de lecture qui permet de déceler une structure simple derrière un désordre apparemment chaotique. On peut alors y voir, dans l’ordre, l’enchaînement des décimales du nombre obtenu en additionnant tous les termes de la seconde suite (on démontre que cette somme est égale à 4, soit, 0,785398163397448…) Dès lors, il apparaît que la réponse est 8.

C’est ainsi, en essayant plusieurs grilles de lecture, que les algorithmes prédictifs découvrent les lois qui régissent certaines évolutions afin de pouvoir les anticiper. Ils fonctionnent en appliquant le principe dit de « rétroaction récursive ». C’est-à-dire qu’ils procèdent par essais en combinant plusieurs éléments des chaînes de causalité et ils sélectionnent certains événements significatifs en fonction des conséquences de l’action simulée. Le « bruit » de fond qui accompagnait certaines données disparaît ainsi avec les détails sans importance non retenus. C’est alors que la vraie structure de l’action simulée se dévoile.

Ces algorithmes contiennent un mélange d’opérations concrètes à exécuter et d’instructions de contrôle, capable de traduire de façon spécifique le mode d’exécution du phénomène dont on souhaite prévoir l’évolution. C’est ainsi que fonctionnent les outils prédictifs de nouvelle génération, employés quotidiennement pour obtenir de meilleures prévisions et donc de meilleurs résultats. Et ce, quel que soit le secteur d’activité : de la finance à la production en passant par l’optimisation énergétique. Même si elle est bien davantage artificielle qu’intelligente, l’IA reste un outil précieux.

 

Décoré de la Croix de Guerre, coauteur du Syndrome du lapin dans la lumière des phares (éd. Jouvence), Genséric Cantournet a été directeur de la sûreté et de la sécurité auprès de la RAI, la radio-télévision italienne, et formateur auprès de l’European Broadcasting Union. Aujourd’hui, président et cofondateur avec Angela Pietrantoni de Kelony®, la première agence de notation du risque dans le monde, et inventeur d’algorithmes prédictifs....

Performante l’intelligence artificielle ? Certainement. Intelligente ? Pas vraiment.    Nul doute que l’intelligence artificielle soit un trope. Une sorte de synecdoque particularisante centrée sur le terme abstrait intelligence, destinée à embellir et humaniser une expression ainsi détournée de son sens littéral ; car non, l’intelligence artificielle (IA) n’est pas intelligente ! L’IA est en réalité une utilisation intensive d’algorithmes massivement récursifs. Elle est donc étymologiquement stupide car elle manque justement d’intelligence, au sens de jugement, de réflexion. Tout au plus, elle pourra surprendre les non-initiés par ses performances. En effet, l’IA, au-delà des connaissances déclaratives dont la programmation l’a nourrie, est capable d’élaborer de façon autonome des procédures qui n’étaient pas contenues sous forme explicite dans ses bases de données, mais qui ont été produites par inférence. Ce qui lui permet d’atteindre une vitesse de calcul inaccessible aux humains. Si l’IA est stupide et inhumaine à quoi bon l’utiliser ? Parce qu’elle est utile pour pouvoir anticiper. Prévoir pour pouvoir prévenir est essentiel dans un monde qui accélère sans cesse, nous exposant toujours davantage à des situations non documentées statistiquement parce qu’inédites. C’est la raison pour laquelle, développer des solutions d’intelligence artificielle avancées, à même d’aider à la prise de décision, est essentiel pour le bien de l’humanité ; si notre cerveau est rationnel, notre l’esprit ne l’est pas toujours. D’où le besoin d’instruments de mesure. Ce qui compte dans le développement de telles solutions n’est pas tant la programmation elle-même que le choix des mathématiques employées comme fondement des algorithmes utilisés. Avec le bon…

Pas encore abonné(e) ?

Voir nos offres

La suite est reservée aux abonné(e)s


Déjà abonné(e) ? connectez-vous !



Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Top Reviews