Forum de l’article

Artificial Intelligence : A Guide for Thinking Humans

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.

Lien hypertexte

(Si votre message se réfère à un article publié sur le Web, ou à une page fournissant plus d’informations, vous pouvez indiquer ci-après le titre de la page et son adresse.)

Rappel de la discussion
Artificial Intelligence : A Guide for Thinking Humans
Bernard Ourghanlian - le 1er juillet 2020

Bonjour Laurent,

Je comprends ton argumentation et ne cherche certainement à prétendre que l’IA est capable de faire ce qu’un enfant de moins d’un an est capable de faire, en particulier de commencer à bénéficier d’un début de "sens commun", d’un début de compréhension du monde, y compris de sa physique ("je lâche un jouet, il tombe"), d’une capacité de reconnaitre un objet à partir d’un nombre très limité d’images, etc. Ce n’est pas autre chose que Yann LeCun explique dans sa série de conférences au Collège de France (cf. https://www.college-de-france.fr/site/yann-lecun/index.htm et ci-joint).

Cependant, et même si la question n’est pas encore complètement résolue, quelques problèmes que tu poses ont bien progressé depuis la publication du livre de Melanie Mitchell. Par exemple la publication ci-jointe sur les problèmes de Bongard ou encore les progrès réalisés sur les réseaux de Winograd auxquels tu fais référence (cf. http://nlpprogress.com/english/common_sense.html). Il y a aussi tous les progrès qui ont été réalisés autour du modèle GPT-2 par OpenAI (cf. papier ci-joint). En fait, jusqu’à un passé récent, les programmes testés sur des collections de schémas Winograd n’étaient pas en mesure de faire beaucoup mieux que la pure devinette aléatoire - c’est-à-dire 50% corrects. Les humains, d’autre part, obtiennent près de 100% de réponses correctes à ces questions.

Au cours de l’année écoulée, à la grande surprise de beaucoup, l’impasse du schéma Winograd a apparemment été surmontée par le modèle GPT-2 et des modèles de langage similaires. A la présentation d’une phrase, GPT-2 calcule les probabilités de tous les mots suivants possibles. Mais GPT-2 peut également être utilisé pour calculer la probabilité de générer une phrase d’entrée entière. Par exemple, supposons que le programme reçoive chacune de ces phrases :

"Les lions ont mangé les zèbres parce que les lions sont des prédateurs."

"Les lions ont mangé les zèbres parce que les zèbres sont des prédateurs."

GPT-2 déterminera que la première phrase est plus susceptible d’être générée que la seconde. De cette façon, il peut répondre à la question "Quels sont les prédateurs ?" en répondant "les lions". Les programmeurs de GPT-2 lui ont donné un ensemble de près de 300 phrases et questions ; le programme était correct sur environ 70 pour cent d’entre eux, dépassant de manière significative l’état de l’art antérieur.

Cela signifie-t-il que GPT-2 a progressé non seulement dans la génération mais aussi dans la compréhension du langage naturel ? C’est loin d’être certain. Certains spécialistes en sciences cognitives ont fait valoir que l’incarnation - avoir un corps qui peut découvrir le monde - est la seule voie possible vers la compréhension. Ils soutiennent que les ordinateurs - sans corps comme le nôtre et sans les types d’expériences que nous rencontrons de la petite enfance à l’âge adulte - n’auront jamais ce qu’il faut pour comprendre le langage, quelle que soit la profondeur du réseau de neurone impliqué ou la richesse de ses données d’entrainement.

Mais que se passerait-il si, contrairement à nos intuitions les plus profondes, la capacité de comprendre réellement le langage n’était pas requise pour qu’un programme d’IA puisse converser avec succès avec nous ? Une grande des grandes surprises de l’IA moderne. est que la reconnaissance vocale peut être effectuée de manière très précise en utilisant simplement des approches statistiques, sans aucune compréhension...

Alors, peut-être que le mot "intelligence" dans "intelligence artificielle" n’est pas pertinent et qu’il relève plus du marketing ou de la mode que d’autre chose. Mais est-ce si grave ? Après-tout si les ordinateurs arrivent à mieux nous comprendre, même si ce n’est que de façon imparfaite et de manière totalement non-anthropomorphe, ce n’est peut-être pas si mal.

Bien à toi et merci,

Bernard