Patrice Duvic : Demain les puces : Science-Fiction et micro-informatique
anthologie à composition variable selon les éditions, 1986 & 1996
Dans un ouvrage récent et remarquable, Voleurs de mots,(2) Michel Schneider insiste sur le fait qu'en général « tout a déjà été dit »
et que cette remarque désabusée s'applique particulièrement bien à la littérature. La recréation, la réminiscence et le plagiat s'y font concurrence et s'y enchevêtrent de façon inextricable dans un ballet où le conscient et l'inconscient sautent les générations. Mais si cette constatation s'applique sans nul doute à la littérature générale où il est bien difficile de prétendre à l'invention d'un thème, en va-t-il de même pour la Science-Fiction ? N'existe-t-il pas à l'occasion de chaque thème une première œuvre repérable, parfois dans un passé récent ? Certes, on peut en faire remonter fort loin certains, jusqu'à leur trouver des racines mythologiques, comme celui du robot ou de la pluralité des mondes. Mais il en est d'autres qui semblent présenter une plus grande originalité, et qui révèlent ainsi, soit une technicité particulière, soit un bouleversement épistémologique.
Sur ce second registre, je ne connais pas d'histoire de voyage dans le temps antérieure à la Machine à explorer le temps de H.G. Wells (1895). Le concept même d'anticipation datée ne semble pas beaucoup plus ancien que l'An deux mille quatre cent quarante : rêve s'il en fût jamais de Louis-Sébastien Mercier (1771 & 1786) même si Pierre Versins en signale des manifestations marginales antérieures.
Sur le premier registre, celui de la technicité, il est vraisemblable que les histoires d'ordinateurs, de machines pensantes, et plus encore celles de micro-ordinateurs ont une origine récente. La relation apparaît en effet ici étroite entre le développement des sciences et des techniques et leur expression littéraire, leur empreinte dans l'imaginaire. Or il est difficile de douter que sciences et techniques produisent du nouveau, à moins — et encore — de ramener leurs résultats à de très vagues principes généraux. Et s'il s'en dérive bien quelque chose dans la Science-Fiction, alors celle-ci échappe, au moins en partie, au procès de la répétition que l'on peut dénoncer dans la littérature dite générale.
La conjecture n'est pas mince, car sa mise à l'épreuve ouvre la voie d'une différenciation relativement objective entre ces deux formes de littérature, et elle suggérerait que nous voyions bien se constituer un genre in statu nascendi. C'est pourquoi j'exprime ici le souhait que soient conduites des études historiques des thèmes, qui en retracent les origines et les arborescences.
De telles études pourraient conduire à des résultats tout à fait surprenants et paradoxaux et introduire quelques questions nouvelles. Ainsi, comment se fait-il que certains thèmes aient été largement explorés et exploités par la Science-Fiction alors que rien ne venait leur donner un semblant de justification scientifique, ainsi celui, déjà signalé, du voyage dans le temps, alors que d'autres qui correspondaient à des concepts théoriques et parfois à des réalisations concrètes n'ont fait que tardivement l'objet d'une transposition littéraire ? L'examen très superficiel que je vais risquer de la place des ordinateurs et des micro-ordinateurs dans la Science-Fiction illustrera cette interrogation. Il contient sans le moindre doute bien des lacunes et des omissions et je serai grandement reconnaissant à ceux de mes lecteurs qui voudront bien les relever, de me les signaler et les corriger.
Un bref détour à travers l'histoire des machines à calculer et des ordinateurs eux-mêmes est nécessaire. Le concept n'est pas récent. Sans remonter à la machine à calculer de Pascal et aux travaux de Leibniz, l'Anglais Charles Babbage propose dès 1822 à la Royal Society de construire une machine à calculer automatique, la machine à différences, et vers 1850 il conçoit un projet beaucoup plus ambitieux, la machine analytique. Pour être actionnée à la vapeur, cette dernière n'en compte pas moins un “processeur” à rouages et une “mémoire” constituée de cartes perforées empruntées aux métiers à tisser Jacquard, et elle préfigure bien la structure des ordinateurs modernes. La machine ne sera jamais achevée(3) mais le projet jouit à l'époque d'une notoriété considérable. Dès 1890, Herman Hollerith met au point une machine électromécanique qui permet de traiter les données des recensements américains, puis la commercialise en créant une société qui deviendra IBM. En 1927, le MIT s'attaque au problème et, en 1931, Vannevar Bush et son équipe proposent un “analyseur différentiel” entièrement mécanique mais qui fonctionne. En 1937, Alan Turing élabore une théorie générale et entreprend à son tour, en Grande-Bretagne, la construction d'un calculateur tout en réfléchissant déjà à l'intelligence artificielle. Durant les années suivantes et surtout pendant la Seconde Guerre mondiale, différentes recherches conduites en Allemagne, en Grande-Bretagne et aux États-Unis culminent avec la fabrication du premier calculateur électronique réellement efficace, ENIAC,(4) dont la construction fut achevée en 1946. Ainsi, la machine pensante ou du moins logique aurait pu hanter le roman d'anticipation ou d'aventures scientifiques dès le siècle dernier.
Or, malgré son ancienneté relative dans la réalité scientifique, le “cerveau” mécanique ou électronique ne fait qu'une apparition d'abord timide puis massive mais tardive dans la Science-Fiction. On n'en trouve pas trace, sauf erreur de ma part, dans les œuvres des grands pionniers, Jules Verne, Arthur Conan Doyle, H.G. Wells et J.-H. Rosny aîné. C'est peut-être John W. Campbell, Jr. qui l'illustre le mieux, encore que de façon métaphorique et assez vague, dans ses nouvelles "Crépuscule" et "le Ciel est mort" (1934 & 1935) ; Aldous Huxley et George Orwell l'ignorent superbement alors qu'il avait une place toute trouvée dans leurs anti-utopies. Ce n'est qu'au milieu des années 40 que le “cerveau” électronique fait une entrée fracassante dans l'univers de la Science-Fiction.
Le tableau serait évidemment tout différent si l'on prenait en compte les innombrables et anciennes variations sur le thème du robot. Mais la problématique du robot, ou de l'automate à forme généralement humaine, est substantiellement différente. C'est pourtant la nécessité de donner au robot une certaine justification technique qui va conduire les meilleurs auteurs à se poser les problèmes de l'intelligence artificielle, comme commencera à le faire, dès 1940, Isaac Asimov en inaugurant sa série de nouvelles sur ce thème avec "Robbie".
Les historiens de la Science-Fiction pourront utilement compléter ce tableau plus que succinct, mais je doute qu'ils parviennent à effacer l'impression de myopie que donne le genre sur ce thème. La question n'est évidemment pas que les auteurs de Science-Fiction doivent prédire à coup sûr l'avenir. Mais il demeure frappant qu'ils aient négligé aussi longtemps un thème déjà bien constitué et aussi riche de variations.
Lorsque, à partir de 1945, le thème de la machine intelligente explose enfin, il n'est pas moins caractéristique qu'elle apparaisse sous la plume de la plupart des auteurs comme toute-puissante et comme menaçante. Elle est énorme comme dans le Monde des Ā d'A.E. van Vogt. Elle est unique, elle est centralisatrice. Elle est à l'évidence une métaphore du Diable, par sa logique, et du totalitarisme par son extension, les deux faisant bon ménage. Elle est devenue l'avatar alors moderne du savant fou. Même d'ambition et de dimension plus réduites, elle demeure le plus souvent l'ennemie de l'Homme. On en trouvera de nombreux exemples dans le volume Histoires de machines publié dans la Grande Anthologie de la Science-Fiction, avec une exception très remarquable reprise dans le présent volume, "un Logique nommé Joe" de Murray Leinster, qui date de 1946.
Remplacez, dans cette nouvelle vraiment prophétique, logique par micro-ordinateur et vous commencerez à vous demander si Leinster n'avait pas jeté un regard sur notre monde. Sa seule erreur concerne la date. Les “logiques” sont entrés dans les foyers dès le xxe siècle. Je ne saurais lui en tenir rigueur puisque dans la présentation de cette nouvelle, que je rédigeai vers 1972, j'écrivis : « Les experts prévoient que vers 1990 les premières consoles informatiques feront leur apparition dans les foyers. »
. C'était en effet ce que promettaient alors la plupart des spécialistes. Mais dès le début des années 80, le Minitel se mettait en place et j'écris en janvier 1986 cette préface à l'aide d'un micro-ordinateur Macintosh qui a sans doute moins d'esprit d'initiative que le logique nommé Joe mais qui peut remplir presque toutes les fonctions imaginées par Murray Leinster.
Peut-être abusés par les mêmes experts, les auteurs de Science-Fiction et tout particulièrement les mieux informés scientifiquement d'entre eux sont tout aussi royalement passés à côté du micro-ordinateur. Il avait pourtant été réalisé dès 1971 par un ingénieur français, et il commença à être commercialisé aux États-Unis vers 1973. Je me souviens même avoir vu aux États-Unis vers 1966, dans un salon spécialisé, un mini-ordinateur Wang guère plus gros qu'une valise qui, malgré son prix prohibitif, aurait dû me donner à réfléchir. Mais les experts ne juraient alors, pour reprendre l'expression de Bruno Lussato, que par le “grand chaudron” destiné à cuire la soupe de toute une nation, soupe acheminée ensuite par un somptueux réseau de canalisations vers tous les foyers. Sans doute soucieux de donner raison aux auteurs de Science-Fiction, ou influencés par eux, ils imaginaient volontiers jusque vers la fin des années 70 que quelques systèmes géants de calcul suffiraient aux besoins d'un pays et régneraient sur des centaines de milliers de terminaux passifs. Dès 1971, Bruno Lussato défendit la thèse du “petit chaudron”, c'est-à-dire du micro-ordinateur, mais elle n'atteignit le grand public, tout en continuant à rencontrer le scepticisme ironique des spécialistes, qu'en 1981 au travers de son livre le Défi informatique.
En 1975, John Brunner publia Sur l'onde de choc, le roman le plus intelligent et le plus solidement documenté sur la société informatique et télématique de l'avenir proche, et qui demeure d'une remarquable actualité ne serait-ce que par ses descriptions du piratage, des programmes tueurs et des effets sociaux des grands systèmes. Mais il n'y fit aucune place au micro-ordinateur. Deux ans plus tard, il aurait pu se servir d'un Apple pour l'écrire.
La myopie de la plupart des informaticiens, des prospectivistes et des auteurs de Science-Fiction doit donner à réfléchir. Quelque chose d'essentiel, un fait porteur d'avenir, s'est produit sous leurs yeux, sans qu'ils sachent l'interpréter et en tirer les conséquences.
Peut-être cela nous renseigne-t-il sur le rôle de la métaphore dans la Science-Fiction. Un thème ne peut être pris en compte par la Science-Fiction que s'il a une valeur métaphorique. Une métaphore permet de faire communiquer deux univers conceptuels bien distincts, voire fort éloignés. Ici sans doute, le technique et le social. Le voyage dans le temps est une métaphore de la révolution sociale sans heurt.
Le robot qui a connu tant d'avatars est à l'évidence une métaphore de l'esclave ou du moins du domestique idéal. Le calculateur mécanique, lui, n'a guère de valeur métaphorique au départ sauf comme représentation de Dieu, du Diable, ou d'un univers physique mécaniquement agencé, inhumain, comme dans les nouvelles de Campbell. Ce n'est que lorsqu'il peut servir de métaphore du totalitarisme envahissant, monstre froid minutieux, qu'il trouve sa place. Enfin, le micro-ordinateur n'a pas encore véritablement trouvé son signifié, d'où l'absence, puis la rareté de son exploitation littéraire. II contredit l'image de l'équipement lourd de laboratoire et celle de la société machinique centralisée et rationnelle, qu'on la salue ou qu'on la condamne.
Mais cette myopie que les auteurs de Science-Fiction s'emploient à réparer comme ce livre le prouve, ne doit pas masquer trois points. Le premier est que ce sont les auteurs les moins techniciens — à l'exception de Murray Leinster et sans doute de Robert A. Heinlein dans une Porte sur l'été — qui ont introduit, sans trop se soucier de vraisemblance immédiate, le micro-ordinateur ou quelque chose qui lui ressemblait, dans la Science-Fiction. Ainsi Robert Sheckley et Philip K. Dick qui ont parsemé leurs textes de petites machines malicieuses, bavardes, ironiques ou carrément hostiles. La logique du conte, celle du poète, a prévalu sur celle du technicien. Le besoin métaphorique a engendré l'objet sournois et donc intelligent.
Le second est que les inventions de la Science-Fiction ont largement contribué à former dans l'esprit du grand public l'image de l'ordinateur et aujourd'hui du micro-ordinateur. Cette image est loin d'avoir toujours été négative. Elle a été aussi celle de la modernité inéluctable et de la puissance logique. Il est frappant de voir combien le goût et parfois la passion de la Science-Fiction sont répandus parmi les informaticiens professionnels et amateurs au point que les deux publics donnent parfois l'impression de se recouvrir. En un sens, l'informatique représente l'un des rares domaines où les prophéties de la Science-Fiction aient trouvé un ancrage dans la vie quotidienne.
Quant au troisième point, il se ramène à ceci. Même si les auteurs de Science-Fiction se sont montrés réservés ou franchement pessimistes à l'endroit des ordinateurs, ils ne les ont pas rejetés ni ne s'en sont tenus à l'écart. Beaucoup d'entre eux ont été parmi les premiers dans la gent littéraire à se doter de systèmes de traitement de texte ou d'ordinateurs non dédiés. Leur pessimisme fréquent est une sorte de déformation professionnelle, ou encore il est explicable par des raisons sociologiques, mais il ne les empêche pas d'entrer au bon moment dans l'avenir quand il devient le présent. Cette expérience est la garantie d'un renouvellement de leur inspiration dont on trouvera, j'espère, de bons exemples dans cette anthologie.
Sur ce chapitre du pessimisme, je voudrais ajouter une note personnelle. Ma propre nouvelle, "Mémoire vive, mémoire morte", parue dans la version 1.1 de la présente anthologie, est indéniablement pessimiste. Elle décrit un destin tragiquement influencé par le micro-ordinateur personnel ultime sur fond de drame social. Cette sombre perspective n'est pas entièrement dépourvue de justification, même en faisant abstraction de celles qui relèvent de l'esthétique et de l'état d'âme du conteur. Voyez ce que nos sociétés ont fait de deux prouesses techniques, l'automobile, cette remarquable machine à tuer et à mutiler, ou encore la télévision, cette efficace machine à décerveler. Mais ma nouvelle ne reflète pas entièrement ma pensée. Je tiens aussi, d'expérience, le micro-ordinateur pour une prodigieuse machine à créer, à ordonner, à penser. Et j'accepterais sans hésitation de courir le risque, ou plutôt la chance, qui fait le malheur de mon héros.
L'ordinateur sur lequel j'ai écrit ma nouvelle, et ces pages, un Macintosh, me semble être un véritable objet de Science-Fiction, un génie de légende mais technique, bien présent. Non pas en raison de sa puissance et de sa sophistication, mais en raison de sa transparence et de sa docilité. Il sera sans doute remplacé dans le futur par des machines incomparablement plus rapides et plus puissantes, mais je crois, pour avoir fréquenté d'autres ordinateurs, qu'il a ouvert une nouvelle ère de l'informatique domestique, celle où il n'est nul besoin de savoir comment ça marche pour utiliser, ni d'être programmeur ou informaticien. J'en ai eu la confirmation lorsque j'ai vu autour de moi des personnes qui n'avaient aucun bagage technique, aucune expérience spécialisée, et encore moins de goût pour les contraintes de la logique, devenir en quelques heures capables de s'en servir pour écrire ou pour dessiner. Certes, encore faut-il aimer et savoir écrire et dessiner. Mais nous voilà, par lui, ramené au logique nommé Joe.
Dans le présent, la micro-informatique semble divisée en deux tendances, en deux branches. L'une, celle du PC standard par exemple, invite, me semble-t-il, à une fausse technicité, à une professionnalisation artificielle. Elle passe par l'apprentissage de codes opaques et complexes, par des stages de formation coûteux et ingrats qui visent à constituer une pseudo-sous-élite bureautique, et finalement à promouvoir une différenciation sociale inutile mais manipulable. Elle met l'accent sur l'obéissance à la règle. L'autre, celle notamment du Macintosh, dans une certaine mesure du TO9 de Thomson, et bien entendu celle du logique nommé Joe, cherche à rendre la technique invisible, à remplacer les codes abstraits par des images et à inscrire les choix à opérer dans un dialogue immédiatement accessible. La compétence spécialisée est dans la machine, et par là elle égalise les approches et les chances. Elle privilégie le tâtonnement, l'intuition, l'expérimentation. Il doit être bien entendu que les mêmes applications peuvent être assurées par les deux types de machines.
Sous une façade technique, ce sont deux conceptions de l'Homme, du travail, de la société et de la machine qui s'affrontent. Nul ne sait laquelle de ces tendances l'emportera dans l'avenir. Mais il y a peut-être dans ce conflit une bonne métaphore de la lutte entre l'individu et l'organisation, entre l'ingéniosité et le système. Après tout, c'est peut-être un bon sujet de Science-Fiction. À vos claviers.
- La première préface, placée en position d'interface entre les parties de l'anthologie comme le présent texte de Gérard Klein, est de Patrice Duvic. — Note de Quarante-Deux.↑
- Essai sur le plagiat, la psychanalyse et la pensée.↑
- Un prototype complet et opérationnel de la machine à différences de Babbage sera tout au moins achevé en 2002. — Note de Quarante-Deux.↑
- Electronic Numerical Integrator And Computer↑