Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Le transhumanisme
Un avatar douteux de l’intelligence artificielle
Article mis en ligne le 21 mai 2018
dernière modification le 15 novembre 2023

par Laurent Bloch

Cet article a été rédigé dans le cadre de l’Institut de l’Iconomie. Il s’agit de ma contribution à un projet d’ouvrage à paraître, en écho à un article de ce site écrit par Jean Kott.

Une théorie à visée politique

Le transhumanisme ne serait qu’une lubie fumeuse s’il n’était pas la doctrine officielle des dirigeants de Google, opérateur géant de l’Internet qui possède sur notre for intérieur un savoir d’une exhaustivité que George Orwell n’avait pas imaginée, et qui échappe aux fiscalités et réglementations nationales avec une habileté que la mafia lui envie.

Google consacre une bonne part de ses revenus considérables à la tentative de réalisation du programme transhumaniste, ou du moins à une certaine activité et à la publicité autour de cette tentative supposée. Il s’agit de rien moins que de nous rendre immortels grâce à des prothèses informatiques destinées à réparer nos organes au fur et à mesure de leur détérioration par l’âge ou la maladie, et à étendre nos capacités intellectuelles grâce à la puissance de calcul d’implants informatiques. Cet avatar de l’intelligence dite artificielle fait référence aux textes de Bentham, Foucault et Diamond (cf. les références à la fin de ce texte).

Des méthodes informatiques, associées à d’autres, permettront de progresser dans la compréhension du fonctionnement du cerveau humain : des progrès considérables ont d’ailleurs déjà été accomplis.

Cela ne signifie pas que l’on ait réalisé une intelligence artificielle, que l’on ait compris ce qu’il faudrait faire pour y arriver, ni même que l’on soit capable de formuler le but à atteindre.

Algorithmes de jeu

Julien Lemoine et Simon Viennot, dans un article du numéro 6 du bulletin 1024 de la Société informatique de France, abordent la question de la programmation du jeu d’échecs, qui a donné lieu à beaucoup de spéculations sur l’« intelligence des ordinateurs » depuis que le programme Deep Blue d’IBM a battu le grand-maître Gary Kasparov en 1996. Dans le numéro 8 du même journal (d’ailleurs toujours excellent, notamment sur ces sujets, et disponible en ligne), Serge Abiteboul et Tristan Cazenave se penchent sur le jeu de Go, après la victoire du logiciel AlphaGo de Google DeepMind sur le grand-maître coréen Lee Sedol.

Le jeu d’échecs, comme le jeu de Go, appartient à la catégorie des jeux combinatoires, qui possèdent deux propriétés intéressantes :

  • le hasard n’y intervient pas, ni lancer de dés ni tirage de cartes ;

  • chaque joueur dispose d’une information complète sur le jeu, contrairement par exemple au cas de la bataille navale.

De par ces propriétés, ces jeux se prêtent bien à la programmation, qui n’est limitée que par la complexité du jeu [1]. À ce jour le jeu combinatoire résolu le plus complexe est celui des dames anglaises, qui se joue sur un damier de huit par huit cases.

L’écriture des logiciels Deep Blue et AlphaGo a mobilisé des trésors de science et de créativité de la part des ingénieurs et des chercheurs qui en sont les auteurs.

AlphaGo

Empruntons à Abiteboul et Cazenave leur énumération des procédés mis en œuvre par les auteurs d’AlphaGo, que nous compléterons par l'article d'Adnan Darwiche Human-Level Intelligence or Animal-Like Abilities? (CACM 10/2018) :

  • l’apprentissage profond, qui consiste à entraîner des réseaux de neurones sur de vastes ensembles de données pour lesquelles les résultats attendus sont connus, ce qui permet au logiciel d’adapter progressivement les coefficients de pondération de sortie de chaque étape de calcul afin de pouvoir faire de meilleures prévisions pour des données non connues à l’avance ;

  • la recherche Monte-Carlo, dont le principe est de faire des statistiques sur les événements possibles à partir de parties jouées aléatoirement ;

  • la méthode du minimax pour les jeux à deux joueurs ;

  • l'usage de fonctions d'évaluation pour couper des branches dans les arbres de recherche minimax ;

  • l’analyse massive de données, à partir d’une part des très nombreuses parties disponibles sur Internet, d’autre part du fait que « pour s’entraîner » AlphaGo a joué plus de parties que n’en aurait joué l’humanité entière si elle n’avait fait que cela depuis le paléolithique.

Un artefact qui joue un rôle capital dans ces procédés est le réseau de neurones, où les neurones n’en sont pas vraiment : les neurones formels, mentionnés pour la première fois par Warren McCulloch et Walter Pitts dans leur article de 1943, n’avaient déjà qu’un lointain rapport avec les neurones tels que les voyaient les neurobiologistes de l’époque, et à l’aune de la neurobiologie contemporaine il ne peut s’agir que d’une métaphore. Les neurones de notre cerveau établissent chacun des milliers de connexions avec d’autres neurones, qu’ils reconfigurent plusieurs milliers de fois par seconde. Les réseaux de neurones formels ne sont rien d’autre que des logiciels qui utilisent des méthodes statistiques (analyse en composantes principales, régression...) pour classer des données et utiliser ensuite ce classement pour identifier de nouvelles données. Pour en savoir plus, la leçon inaugurale de Stéphane Mallat au Collège de France est une excellente introduction. Rien à voir avec le fonctionnement du cerveau humain.

On voit donc que la victoire d’AlphaGo, comme le soulignent Abiteboul et Cazenave, est celle de l’humanité, des humains qui ont conçu ces méthodes et ces programmes.

Les échecs

L’article de Julien Lemoine et Simon Viennot sur les échecs nous permet d’entrer un peu plus dans le détail de ces travaux.

Dans un article fameux de 1950, Claude Shannon avait estimé le nombre de parties d’échec possibles à 10120, chiffre sans doute optimiste, mais qui rendrait le jeu d’échecs incalculable, ne serait-ce que parce que le nombre d’atomes de l’univers est généralement estimé à 1080, ce qui pose des limites à la complexité des algorithmes pour lesquels une solution pratique est envisageable.

De nombreux chercheurs se sont attaqués au sujet, ont imaginé des méthodes pour réduire de beaucoup la complexité de ce problème, et ont obtenu sur cette voie des résultats excellents, même si encore perfectibles. Nos auteurs estiment que l’état actuel des recherches a permis de ramener de 10120 à 1020 le nombre de parties à examiner pour calculer le jeu, ce qui est encore trop grand, mais donne des espoirs pour la poursuite de cet effort.

Les procédés mis en œuvre pour obtenir ce résultat spectaculaire supposent pour commencer la construction d’un arbre du jeu, un graphe constitué de nœuds qui représentent les positions de jeu ; deux nœuds sont reliés par une arête si on obtient une position à partir de l’autre en un coup (p. 18 de nos auteurs). La réduction de la complexité va donc consister à supprimer des nœuds et des arêtes en détectant des situations qui s’y prêtent : certains coups sont équivalents et peuvent donc être réduits à une seule arête ; certains coups sont impossibles ou interdits par les règles du jeu ; dans certaines situations de jeu un joueur n’a pas le choix du prochain coup sauf à provoquer sa défaite (coup forcé), etc. On peut aussi identifier les bons coups évidents pour éviter des calculs inutiles (p. 29).

Où est l’intelligence ?

Pour tout ce qui vient d’être dit, la seule intelligence qui se manifeste est celle des programmeurs qui ont conçu les logiciels, et qui ont conçu des algorithmes extrêmement subtils pour détecter les améliorations possibles de l’arbre du jeu, de nature à réduire sa complexité. S’il y a de sérieux espoirs de pouvoir un jour calculer le jeu d’échecs, on en est encore loin, et encore plus loin pour le Go. Néanmoins, les méthodes décrites par nos auteurs ont déjà permis d’améliorer considérablement les performances des logiciels, qui, certes, ne reposent encore que sur des heuristiques, mais les progrès obtenus ne découlent pas uniquement de ceux des performances du matériel.

Cela dit, le jour (hypothétique) où l’on aura réussi à calculer le jeu d’échecs, c’est-à-dire où l’on aura écrit un programme capable, pour chaque coup de son adversaire, de calculer le coup parfait qui mène inéluctablement vers échec et mat, aura-t-on produit un système doté d’intelligence ? On aura plutôt emmagasiné dans un logiciel de l’intelligence humaine préalable, capable de prendre la place de l’intelligence immédiate du joueur humain en action hic et nunc. Mais ce logiciel ne fera que calculer un système de règles données d’avance, appliquées à des données peut-être infiniment variables, mais dénombrables, selon la définition des systèmes formels. Si l’on veut réfléchir sérieusement à cette question, il y a une question que tous les adeptes de l’intelligence artificielle évitent soigneusement de soulever, et que nous devons poser, même si nous n’avons pas la prétention de lui apporter une réponse : qu’est-ce que l’intelligence ?

La question du sens

La définition de l’intelligence est une question difficile, elle prête à controverse mais on peut être d’accord sur le fait qu’elle a quelque chose à voir avec le sens que l’on accorde à des phénomènes.

Un être humain confronté à un phénomène va lui accorder un sens éventuellement différent de celui que lui accordera un autre être humain. Ce qui fait que nous donnons du sens aux choses, aux événements, à nos relations avec autrui, c’est notre expérience , inséparable du fait que nous ayons un corps dont les sensations nous permettent d’éprouver souffrance, douleur, plaisir, bien-être, etc.

Nous sommes capables en outre de nous remémorer le sens que nous avons donné à une circonstance et de le combiner avec d’autres significations : la recherche neurologique a montré que notre cerveau se reconfigure au fur et à mesure de ces opérations, de façon dynamique, de sorte qu’il change tout le temps.

Si l’on réfléchit à ce qu’il faudrait faire faire à un ordinateur pour simuler ces processus on tombe inévitablement sur la conclusion suivante : il faudrait que le système informatique considéré fût capable d’interpréter et de produire le langage humain.

Les éthologues découvrent jour après jour les capacités insoupçonnées des langages de certains animaux. Néanmoins, il semble que le langage humain se distingue des langages des autres animaux par la possibilité qu’il offre de produire des énoncés récursifs, ce qui lui confère une puissance expressive infinie [2]. Pour le dire autrement, les humains, beaucoup plus que les autres animaux, ont la possibilité de dire des choses qui n’ont jamais été dites auparavant, et de les exprimer par des figures de rhétorique de nature à défier la logique des systèmes formels. Que l’on songe à des énoncés tels que « après les fêtes de fin d’année, mon pèse-personne est mon pire ennemi », « l’avocat cannibale déguste un délicieux avocat », « tous les Crétois sont des menteurs, je le sais, je suis Crétois ».

Ce que ne peut pas l’IA

Léon Bottou a rejoint Facebook AI Research en 2015, il est considéré comme un chercheur éminent en intelligence artificielle, le 6 mars 2018 il a donné au Colloquium d’Informatique de Sorbonne Université un exposé (en français) dont les planches et l’enregistrement vidéo sont disponibles en ligne, et auquel nous empruntons (sous une forme très résumée et simplifiée) les idées qui suivent. Facebook AI Research est un véritable laboratoire de recherche, tout ce qu’il produit est publié et les logiciels sont disponibles librement.

La plupart des systèmes récents d’intelligence artificielle reposent sur l’apprentissage supervisé au moyen de réseaux de neurones. Pour le dire vite, ces systèmes cherchent à rapprocher un événement inconnu d’événements connus qui lui ressemblent, enregistrés dans une base de données aussi riche que possible ; leur démarche est largement fondée sur les statistiques et le calcul de probabilités.

Cette démarche rencontre des limites. La sémantique des énoncés lui est inaccessible. L’apprentissage demande des volumes de données trop considérables. Les événements rares lui échappent.

Disposerions-nous d’une base de données de toutes les chutes de pommes depuis l’apparition du pommier au Kazakhstan dans la région d’Almaty, et pourrions nous sélectionner parmi ces événements ceux qui se sont terminés sur l’occiput d’un humain, qu’il nous serait très difficile d’identifier ceux qui auraient eu comme suite l’invention d’une théorie de la gravitation, et de toute façon cela ne nous donnerait pas les théories en question.

À la fin du XVIIe siècle Gottfried Wilhelm Leibniz étudie des symboles chinois à usage probablement magique, il comprend alors que ces symboles peuvent être interprétés comme les chiffres d’un système de numération binaire. La poursuite de cette étude le convainc que ce système de numération serait particulièrement bien adapté au calcul automatique, et que d’ailleurs les calculs ainsi effectués ne seraient pas nécessairement appliqués à des nombres, mais pourraient tout aussi bien s’appliquer à des propositions logiques. Ces idées ont révolutionné la science de la logique, et annoncent l’informatique. Quel logiciel d’apprentissage, supervisé ou non, pourrait établir des rapprochements entre des idées si éloignées les unes des autres, pour en déduire des théories nouvelles ?

Dans notre expérience humaine, la structure des événements ou des discours joue un rôle important pour notre appréhension de leur sens et pour l’approfondissement de notre compréhension. Ces structures sont inaccessibles aux systèmes d’apprentissage. L’intérêt du langage est de pouvoir dire des choses nouvelles, pas de répéter des choses souvent dites. La structure est ce qui nous permet de comprendre des choses nouvelles, jamais vues ni entendues, de raisonner, de comprendre.

Dans cette démarche cognitive, le contexte joue un rôle fondamental ; le contexte a des caractéristiques peu favorables aux systèmes d’IA : il est indéfini, et infini, ce sont même ses caratéristiques principales. Indéfini, parce qu’il est propre à chaque individu, infini, parce qu’il se prolonge jusque dans notre inconscient et dans celui de nos ancêtres, ainsi que dans nos expériences sensorielles les plus intimes.

De ce qui précède il est difficile d’inférer en toute logique que la Singularité que Kurzweil nous promet pour 2050 n’adviendra jamais, mais on peut déduire avec une certaine assurance que cela ne se produira pas dans les décennies qui viennent, si jamais.


  1. https://www.societe-informatique-de-france.fr/bulletin/

  2. Rappelons que la complexité de Kolmogorov d’un algorithme est fonction de la taille de la machine de Turing qui peut le modéliser, et qu’une machine de Turing, comme tout système formel, est définie par un ensemble fini de règles qui s’appliquent à un ensemble dénombrable.

Bibliographie

Abiteboul, Serge, et Tristan Cazenave. « Go : une belle victoire... des informaticiens ! » 1024, no 8 (2016).

https://www.societe-informatique-de....

Bentham, Jeremy. Panopticon or the Inspection House, 1791. https://books.google.fr/books?id=NM4TAAAAQAAJ.
Bottou, Léon. « Une approche géometrique de l’apprentissage non supervisé », 2018.

https://www.lip6.fr/colloquium/?gue....

Damasio, Antonio R. Spinoza avait raison - Joie et tristesse, le cerveau des émotions. Odile Jacob, 2005.
Dreyfus, Hubert. What Computers Can’t Do : The Limits of Artificial Intelligence (trad. française : Intelligence artificielle, Mythes et limites). Flammarion (pour la traduction)., 1972.
Edelman, Gerald. Biologie de la conscience. Odile Jacob, 2000.
Foucault, Michel. Surveiller et Punir. Gallimard, 1975.
Lemoine, Julien, et Simon Viennot. « Il n’est pas impossible de résoudre le jeu d’échecs ». 1024, no 6 (2015). https://www.societe-informatique-de-france.fr/bulletin/1024-numero-6/.
McCulloch, Warren, et Walter Pitts. « A Logical Calculus of Ideas Immanent in Nervous Activity ». Bulletin of Mathematical Biophysics 5 (1943): 115‑33.
Neumann, John von. The Computer and the Brain. New Haven, Connecticut: Yale University Press, 1957.
Shannon, C. E. « Programming a computer for playing chess ». First presented at the National IRE Convention, March 9, 1949, and also in Claude Elwood Shannon Collected Papers, 1993, 637‑56.
Wilson, Deirdre, et Dan Sperber. La Pertinence. Éditions de Minuit, 1989.