Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Congrès de la Société informatique de France
Gérard Berry, Maurice Nivat, Amina Doumane et l’enseignement de l’informatique en France
La recherche et l’enseignement supérieur progressent, cela ne suffit pas
Article mis en ligne le 9 février 2018
dernière modification le 13 septembre 2018

par Laurent Bloch

État de la science informatique en France

La Société informatique de France (SIF), dont je conseille particulièrement la lecture du bulletin 1024, a tenu son congrès annuel les 31 janvier et 1er février derniers. Le premier jour j’ai surtout été impressionné par les interventions d’Alessandra Carbone, qui dirige le laboratoire de Biologie Computationnelle et Quantitative de l’Université Pierre et Marie Curie, et de Michel Serres, un des rares philosophes français de sa génération (avec Jacques Bouveresse) à avoir compris les enjeux de la révolution industrielle, culturelle et scientifique induite par l’informatique.

Le lendemain le prix de thèse Gilles Kahn fut remis à Amina Doumane pour sa thèse intitulée On the infinitary proof theory of logics with fixed points soutenue à l’Université Paris-Diderot et préparée à l’Institut de Recherche en Informatique Fondamentale (IRIF) et au Laboratoire Spécification et Vérification (LSV) sous la direction de David Baelde, Alexis Saurin et Pierre-Louis Curien. Ce travail développe la théorie de la preuve infinitaire pour les logiques à points fixes, avec deux domaines d’application en vue : les langages de programmation avec types de données (co)inductifs et la vérification des systèmes réactifs. Il y est question de µ-calcul, un raffinement du λ-calcul, lui-même à l’origine du langage Scheme que je connais un peu, ainsi j’ai compris quelque chose du brillant exposé d’Amina Doumane.

On notera que si la présence féminine est dramatiquement faible tant dans les amphis d’informatique des universités que dans la profession en général, elle est par contre beaucoup plus satisfaisante dans les milieux de la recherche publique à un niveau élevé. Puisse cet exemple se propager dans les jeunes générations !

L’enseignement de l’informatique vu par Nivat et Berry

Il est généralement admis que la réflexion sur l’introduction de l’informatique dans l’enseignement secondaire en France débute avec le séminaire organisé en mars 1970 par l’OCDE à Sèvres, dont on pourra lire le compte-rendu par Jacques Baudé dans le bulletin 1024 de la SIF. Jacques Baudé a été lui-même un pionnier de cette introduction. Mais si dès le début la réflexion a signalé l’urgence de cette introduction, en 2018 elle n’a toujours pas été suivie d’effet. Notons au passage que les rares et timides progrès ont été le fait de gouvernements de droite, et annulés par les gouvernements de gauche qui leur ont succédé.

Parmi les péripéties qui ont jalonné cet effort encore inabouti, il faut noter le rapport intitulé Mission Informatique Fondamentale et Programmation - Rapport Final remis le 28 avril 1983 au ministre de l’Industrie Laurent Fabius et à celui de l’Éducation nationale Alain Savary par un groupe d’experts présidé par Maurice Nivat, auquel ce congrès de la SIF rendait un hommage posthume.

Gérard Berry, premier professeur d’informatique au Collège de France, faisait partie de ce groupe d’experts de 1983. Depuis il milite sans relâche pour une prise de conscience des effets de l’informatisation dans tous les domaines de la vie économique, culturelle et sociale, et notamment pour l’enseignement de cette discipline à tous les échelons de l’enseignement. Lors de cet hommage à Maurice Nivat il a rappelé les grandes lignes du rapport de 1983, dont beaucoup sont encore d’actualité. Mais avant d’y venir, quelques lignes sur le dernier livre de Gérard Berry, d’une actualité brûlante.

Hyperpuissance de l’informatique

Algorithmes, données, machines, réseaux

Dans ce livre dont je ne saurais trop conseiller la lecture, Gérard Berry s’appuie sur une expérience professionnelle variée pour expliquer comment l’informatique transforme le monde et la pensée. Il a en effet mené sa vie professionnelle alternativement dans les mondes de la recherche scientifique, de l’enseignement et de l’industrie, ce qui lui permet de donner des exemples dans tous ces domaines et de les exposer de façon vivante et pédagogique. Il déclare dès l’abord que son leitmotiv sera « qu’on ne peut pas comprendre les bouleversements provoqués par l’informatique en restant dans les schémas mentaux traditionnels issus des sciences et techniques directement liées au monde physique. En effet, elle diffère profondément de toutes les activités scientifiques et techniques précédentes du fait même de ses objets d’étude et de ses méthodes d’action : l’informatique calcule sur l’information à l’aide d’algorithmes, de programmes et de machines, essentiellement des ordinateurs de toutes sortes. L’information est codée dans des données numériques, l’algorithme est le mécanisme conceptuel de calcul systématique, le programme constitue l’écriture précise de l’algorithme dans des langages appropriés, et la machine est l’objet matériel capable de faire les calculs nécessaires pour transformer les programmes en actions. »

En fait, tout est dit, mais comme toujours en informatique, il ne suffit pas de comprendre, il faut appliquer cette compréhension dans la pratique. Pour ne prendre qu’un seul exemple, le système mondial de communication basé sur l’Internet prend l’exact contre-pied de toutes les conceptions du monde des télécommunications ancien. Pour le télécommunicant ancien, l’alpha et l’oméga du métier consistait à établir un circuit, éventuellement virtuel, entre deux équipements terminaux. Le concept de datagramme, imaginé par Louis Pouzin et sur lequel reposent tous les protocoles de l’Internet, ne constitue en aucune façon une évolution de la notion de communication par circuits, mais il en est l’abolition radicale : chaque paquet de données, muni de son adresse d’origine et de son adresse de destination, est lancé dans le réseau, à charge pour chaque équipement sur le parcours de l’aiguiller vers l’étape suivante (cette opération est le routage), et à charge pour le terminal de destination de recevoir les paquets et, si et seulement si le protocole utilisé l’exige, de vérifier qu’ils sont bien tous arrivés et de les remettre dans l’ordre de leur émission. Cette vision des choses est si hétérodoxe pour les télécommunicants anciens que les opérateurs historiques n’ont jamais pu s’y faire, et aujourd’hui encore tâtonnent dans le brouillard sans comprendre qu’ils doivent porter l’essentiel de leurs efforts sur les développements informatiques de leur réseau.

Outre l’exemple des télécommunications, Gérard Berry expose plusieurs cas de domaines bouleversés par leur informatisation : le traitement des images et des sons, la photographie et la musique, la médecine, l’astronomie, la biologie, les neurosciences, les mathématiques.

La dernière partie du livre est intitulée « Rendre l’informatique plus sûre ». Elle commence par développer la notion de bug et en analyser quelques exemples : celui qui a provoqué l’échec du premier lancement d’Ariane 5, ceux qui sont dus aux rayons cosmiques qui affectent les mémoires et les processeurs, celui de la machine de radiothérapie Therac-25, etc. Pour chaque famille de bugs une méthodologie est proposée afin, non pas de les éviter totalement, ce qui serait illusoire, mais d’en limiter les effets.

Le chapitre suivant est consacré aux méthodes disponibles pour construire des systèmes informatiques plus sûrs, avec une prédilection pour les méthodes formelles et les systèmes de preuve.

Enseigner l’informatique dans le secondaire (et même avant)

Revenons à la question de l’enseignement. Le rapport Nivat-Berry de 1983 exposait pour le préconiser un tableau du rôle et de la situation de l’informatique dans la société et l’économie françaises dont les chapitres seraient toujours d’actualité, même s’il faudrait les amplifier.

Comme en 1983, l’informatique, par la profondeur des transformations qu’elle induit, suscite des malaises tant parmi ceux qui la subissent que parmi ses acteurs. La crainte de la disparition de certains emplois n’est pas contrebalancée par la création de nouveaux métiers. La croyance infondée dans les capacités intellectuelles des ordinateurs sévissait déjà, dans les mêmes termes qu’aujourd’hui, ainsi que la disjonction entre la science informatique élaborée à l’université ou dans les laboratoires et la pratique empirique des informaticiens d’entreprise, dont la compétence était trop souvent cantonnée à tel ou tel système ou matériel du fournisseur préféré de leur employeur (c’est toujours vrai aussi).

La pénurie d’informaticiens, d’institutions pour les former, d’enseignants pour animer ces institutions était un frein au développement des entreprises. La formation sur le tas de la plupart des informaticiens d’entreprise avait des effets négatifs sur la qualité des systèmes qu’ils produisaient comme sur leur capacité à s’adapter aux évolutions techniques, et donc sur leur avenir professionnel. Sur ces deux plans, des progrès ont été accomplis, presque uniquement dans l’enseignement supérieur, mais il n’est pas permis de penser maintenir le rang scientifique et économique de notre pays dès lors qu’encore aujourd’hui l’ensemble de la population issue de l’enseignement secondaire n’y a reçu aucune formation à l’informatique.

Le rapport soulignait également l’insuffisance de la formation aux usages de l’informatique, dont on ne dira jamais assez qu’ils n’ont rien à voir avec les connaissances informatiques proprement dites (confondre ces deux domaines, ce serait comme mettre sur le même plan le permis de conduire et un certificat de thermodynamique à l’université). Il évoquait même une certaine déformation du public par le discours des media : même si le discours s’est renouvelé, c’est toujours vrai, qu’il suffise de citer certains articles délirants sur le remplacement de l’humanité par des « intelligences artificielles », dont le pluriel accentue le caractère nébuleux et angoissant. Et quant à l’usage des logiciels destinés à de vastes publics, essentiellement bureautique et navigation sur le Web, s’ils sont assez différents de ce qu’ils étaient en 1983, laisser croire qu’il serait « intuitif » et que de ce fait aucune formation ne serait nécessaire engendre des masses de documents illisibles, de dossiers de tableur faux, et d’usage dangereux du Web, sans parler d’énormes pertes de temps par tâtonnements hasardeux.

Une phrase au hasard de ce rapport : « L’informatique doit donc être enseignée aux techniciens, ingénieurs et cadres au même titre par exemple que l’usage des modèles mathématiques, c’est-à-dire assez tôt, assez intensivement, sérieusement et avec suffisamment de temps et d’expérimentation pour la rendre concrète ». C’est encore plus vrai aujourd’hui qu’alors.

Vous pouvez trouver le rapport sur le site de l’EPI (association Enseignement public et informatique, site très riche), il devrait être bientôt en ligne sur le site de la SIF, il est bien écrit, complet, et malheureusement toujours d’actualité.