par Laurent Bloch
I. Langues de culture et langues de service
Le penseur, philologue et directeur d’études à l’EHESS Heinz Wismann, dans un entretien publié récemment [1] à l’occasion de la sortie d’un livre écrit avec Pierre Judet de La Combe [2], introduit une distinction entre ce qu’il nomme « langues de culture » et « langues de service ».
Les langues de culture ne diffèrent pas des langues de service comme le français diffère du polonais : le français du bulletin météorologique ou du touriste américain face à un portier d’hôtel est langue de service, alors que le français du livre de Heinz Wismann et Pierre Judet de La Combe est langue de culture. La distinction entre ces deux niveaux de langue est une différence d’usage de la langue.
Le propre d’une langue de service, nous dit Heinz Wismann, est de faire référence à un univers parfaitement délimité, aux réalités duquel tous les interlocuteurs doivent pouvoir faire référence sans aucun risque d’ambiguïté. Et l’on en conçoit l’utilité, qu’il ne s’agit pas de nier : le dialogue entre l’équipage indien d’un avion qui se prépare à atterrir à Ankara et le personnel turc de la tour de contrôle se déroule dans un anglais de service dont il est hautement souhaitable qu’il ne donne lieu à aucune créativité sémantique ou narrative. En d’autres termes, les énoncés de la langue de service doivent dénoter des réalités au sujet desquelles tout le monde est d’accord, et s’interdire toute connotation, source d’une polysémie que l’on cherche au contraire à éviter.
Mais par là même les langues de service sont privées de toute possibilité d’expression d’un véritable dialogue entre les individus : « Le dialogue présuppose, en effet, que chacun puisse dire ce qu’il porte en lui et qui n’est pas déjà nécessairement présent à l’esprit de l’autre... La langue de culture fait appel, à la différence de la langue de service, au passé de la langue, c’est-à-dire à la partie immergée de cet iceberg qu’est toute langue vivante ; elle fait appel au passé pour le réactiver, pour métaphoriquement en extrapoler quelque chose qui n’a peut-être pas encore été dit. Et ce qui rend cette opération valable ou acceptable, c’est qu’elle respecte un certain nombre de règles, qui sont précisément les règles grammaticales au sens large d’une langue de culture. »
Les auteurs insistent également sur le rôle, pour la vie des langues de culture, des langues anciennes : Dante a créé la langue italienne que nous connaissons parce qu’il voulait donner au patois toscan parlé par ses contemporains la richesse d’expression du latin, de même Luther a créé la langue allemande moderne en fécondant un dialecte saxon par le grec ancien. Et pour écrire un beau français, de multiples exemples littéraires montrent que l’exemple du latin a beaucoup servi, de Montaigne à Paul Valéry.
Aujourd’hui l’enseignement des langues cède de plus en plus à la pression en faveur des langues de service : à côté des cursus traditionnels dits de « Langue, Littérature, Civilisations Étrangères » on a créé des cursus avec mention « Langues Étrangères Appliquées », orientés vers la communication immédiate, et qui font l’économie, justement, de la littérature et de la civilisation. Mais cette voie révèle vite ses limites : ainsi la Commission européenne s’est rendu compte qu’il est très difficile de mener des négociations entre pays avec les seules langues de service sur des projets politiques, des concepts comme la laïcité.
Cette analyse rappelle un passage d’un livre de Jean-Paul Brighelli [3] : « Ces travailleurs dits « non qualifiés » doivent pourtant disposer de compétences très précises : savoir lire, écrire, calculer, se servir d’un traitement de texte ou d’Internet, prononcer quelques phrases standardisées dans deux ou trois langues européennes dont, obligatoirement, l’anglais. »
Il semble bien que pour enrayer la débâcle éducative, surtout dans les quartiers dits difficiles, les autorités de l’Éducation Nationale misent sur l’anglais et l’informatique, mais en réalité sur des versions dégradées de ces disciplines : pas question d’étudier Shakespeare ou la programmation des ordinateurs, mais « téléphoner en anglais » ou « créer un site WWW ». Pour le dire autrement, au lieu de dispenser des connaissances fondamentales, utiles pour toute une vie, ce projet vise à délivrer des savoir-faire tout juste capables d’aider à décrocher un CDD, et dont la durée de validité n’excède d’ailleurs guère celle du CDD en question. Ce n’est pas que de telles compétences soient totalement inutiles, mais elles ne sauraient fonder une politique éducative respectueuse de son public.
II. Échapper à l’ambiguïté ?
Le projet de définir des langues de service adéquates est très tentant : s’affranchir de la désespérante et merveilleuse labilité des langues humaines a inspiré les travaux des meilleurs esprits scientifiques, et plus particulièrement des logiciens, de Leibniz à Russell et Whitehead sans oublier Gottlob Frege, qui ont tous travaillé à la création de systèmes linguistiques dépourvus d’ambiguïté pour exprimer des propositions mathématiques.
Ainsi, le système formel (c’est-à-dire des règles en nombre fini opérant sur des ensembles dénombrables) est une notion logique fondamentale issue du double effort de constituer une logique mathématique et d’axiomatiser les théories mathématiques usuelles. Cet effort procède d’un idéal de rigueur — éviter les recours non contrôlés à l’intuition, expliciter toutes les hypothèses effectivement utilisées dans un raisonnement, par exemple — qui s’est diversement affirmé à partir de la fin du XIXe siècle. On peut dire que l’ambition totale des systèmes formels a été réfutée par Kurt Gödel, qui a démontré qu’un tel système ne pouvait pas axiomatiser une théorie mathématique significative sans être soit incomplet, soit contradictoire. Des systèmes formels aux ambitions différentes ont connu des succès remarquables, puisqu’ils sont au cœur de la programmation des ordinateurs. Mais ne perdons pas de vue que des systèmes de ce type ont un objet très limité, qui ne vise en rien à imiter le langage humain dans sa richesse et sa versatilité.
Des efforts moins louables se sont tramés autour des projets de traduction automatique et, aujourd’hui, des soit-disant ontologies : j’y ai consacré quelques pages dans mon livre sur les systèmes d’information [4], et pour une réfutation en bonne et due forme on pourra lire l’article de François Rastier Ontologie(s). Des scientifiques ont imaginé pouvoir fabriquer autour de l’anglais une langue de service pour les articles scientifiques. Ces tentatives misérables ne témoignent guère que de l’inculture de leurs auteurs. Que serait en effet un article scientifique où ne seraient proférés que des énoncés relatifs à des objets déjà parfaitement définis dans un univers parfaitement délimité ?
Il est néanmoins légitime, en évitant de tels excès, de vouloir dans certains textes limiter la polysémie, et pour cela d’y réduire la place des connotations, et de se limiter le plus possible à des énoncés qui soient des dénotations, par exemple pour des modes d’emploi. Ceci est réalisable pour le mode d’emploi d’un objet simple, mais dès que cela se complique, le texte devient rigoureusement incompréhensible à quiconque n’a pas déjà acquis une connaissance approfondie de l’univers auquel appartient l’objet.
Les man pages Unix
Les pages de manuel (« man pages
») du système informatique Unix sont un bon exemple de tels textes, où la connotation est évitée au maximum : si vous connaissez déjà le logiciel dont vous consultez la page de manuel, et que vous voulez juste vérifier un point de syntaxe ou un comportement subtil, c’est parfait, mais si vous n’en avez aucune idée préalable, vous pouvez renoncer. Par exemple, jetez un œil à man bash (ou, sur un système Linux, ouvrez une fenêtre de terminal et tapez la commande man bash
), vous verrez. Les Requests for Comment [5] (RFC) fournissent un autre exemple, peut-être moins radical, d’une telle démarche.
Pourquoi les man pages
et les RFC sont-elles si hermétiques au néophyte ? Parce que pour éliminer l’ambiguïté elles évacuent les connotations, et par là les métaphores. Or, pour expliquer le fonctionnement d’un objet technique à qui ne le connaît en rien, il faut adopter une démarche pédagogique, et une des armes principales de la pédagogie est la métaphore, qui permet justement, par des comparaisons, d’établir une correspondance entre l’objet inconnu et des objets déjà connus. Ces correspondances, non rigoureuses, qui évoquent des démarches intellectuelles déjà empruntées, permettent au néophyte de comprendre. Une fois qu’il aura compris, il devra lire les man pages
et les RFC, parce qu’elles ont force de loi.
L’hermétisme des man pages
et des RFC a donc créé le besoin d’une littérature intermédiaire, qui explique tout en restant proche du mode d’emploi : l’éditeur O’Reilly a bâti son succès sur la compréhension de cette situation. La collection Xxx pour les nuls vise un objectif analogue, à un niveau moins élevé.
Échapper à l’ambiguïté ? était la question qui formait le titre de cette section : la réponse est positive, mais il y a un prix à payer qui est l’inintelligibilité, aussi paradoxal que cela paraisse.
III. Réfléchir sur l’informatique
Nous avons vu qu’il était possible de rédiger des modes d’emploi expurgés de toute connotation, mais que pour des objets complexes, comme les systèmes informatiques, ils avaient juste un défaut, celui d’être incompréhensibles aux non-initiés. Aux néophytes il faut expliquer les choses, ce qui a suscité une littérature pédagogique qui entoure le mode d’emploi canonique de commentaires riches de connotations et de métaphores destinées à faciliter la compréhension des tenants et des aboutissants, du contexte, qui justifient l’existence de l’objet. Les anglo-saxons nomment un tel commentaire rationale, il tient de la glose ou de l’exégèse.
Beaucoup d’informaticiens me semblent tentés par l’idée que l’on pourrait se contenter de ces deux corpus de textes, les manuels de référence, réservés aux initiés, et les manuels pratiques : il n’en est rien, bien sûr. Il faut d’abord y ajouter la littérature scientifique, articles et livres, bien sûr, qui y apporte du nouveau, ainsi que les manuels destinés aux enseignements universitaires et aux ingénieurs. Mais cela ne suffit pas non plus, la littérature scientifique est surtout lue par des scientifiques, et le plus souvent inaccessible à d’autres publics.
L’informatique est la principale innovation scientifique et technique des 60 dernières années, elle bouleverse la société, l’économie, les objets matériels : en regard de ces bouleversements, la réflexion qui s’y attache produit peu. Si le nombre de mètres linéaires occupés par l’informatique dans les rayons des librairies n’est pas négligeable, une fois que l’on en a retiré les ouvrages des catégories énumérées ci-dessus (manuels pratiques, manuels pour étudiants et ingénieurs), que reste-t-il pour expliquer à l’honnête homme de notre époque la façon dont l’informatique bouleverse son univers ? Un petit rayon Informatique et société où Jacques Arsac et Norbert Alter voisinent avec Philippe Breton et Pierre Lévy, un petit rayon Économie de l’informatique où Michel Volle côtoie l’Institut d’histoire de l’industrie, sans omettre les recherches historiques de Pierre-Éric Mounier-Kuhn : ces auteurs n’en ont que plus de mérite, d’ailleurs. Une recherche sur Amazon révèle une activité éditoriale importante entre la fin des années 1960 et le début des années 1970, mais depuis l’informatique ne semble plus guère intéresser les intellectuels, à l’exception notable des logiciens, tel Daniel Andler.
Il convient ici de signaler que Michel Volle a publié sur son site son ouvrage De l’Informatique, où il déborde les champs qui lui sont coutumiers de l’économie et des systèmes d’information pour embrasser l’informatique d’un point de vue philosophique.
Le souhait est formulé ici, on l’aura compris, que se développe la publication de textes d’analyse qui permettent au citoyen contemporain de comprendre les enjeux de la révolution scientifique et technique induite par l’informatique.
Mais il convient aussi de donner au citoyen en question les moyens de comprendre ces analyses, et pour cela que lui ait été dispensé, lors de ses études, un enseignement des fondements de l’informatique, de la même façon que tout lycéen reçoit un enseignement des fondements des mathématiques ou de la biologie. Il convient donc qu’à partir de la classe de seconde chaque lycéen du cycle secondaire général suive trois heures de cours d’informatique. Cet enseignement portera essentiellement sur la programmation, qui est le cœur de la discipline. Afin de dissiper tout malentendu, précisons que des choses comme l’initiation à tel ou tel outil bureautique ou de création de site WWW ne sauraient à aucun titre être considérées comme des éléments de l’enseignement de l’informatique, pas plus que les auto-écoles ne forment des ingénieurs en construction automobile.
Cette introduction enfin sérieuse de l’informatique dans l’enseignement secondaire suppose bien évidemment la création d’un CAPES et d’une agrégation d’informatique, assortis des options correspondantes aux concours des écoles normales et des IUFM. Cette proposition n’est pas exorbitante, Jacques Arsac l’avait déjà formulée il y a plus de vingt ans. L’informatique n’a à être enseignée ni par les professeurs de mathématiques ou de physique, ni par les professeurs de technologie, parce qu’elle n’est ni une branche des mathématiques, ni un outillage pour la physique, ni une technologie, mais une science indépendante.
(à suivre)