Cette réflexion s’insère dans le cadre du projet le projet « CulturIA », financé par l’Agence Nationale de la Recherche qui étudie l’histoire culturelle de l’intelligence artificielle (IA) de sa « préhistoire » aux développements contemporains. L’IA peut se définir comme l’ensemble de méthodes mathématiques et de technologies informatiques destinées à résoudre des problèmes ordinairement traités par l’esprit humain, de l’accompagnement des tâches humaines (les outils numériques) à la substitution à l’humain (c’est l’horizon d’une « IA générale » capable de produire des raisonnements). Nous en sommes à une étape intermédiaire de ce développement technologique entamé concrètement depuis les années 1950, mais fantasmé depuis des millénaires : l’IA offre déjà de meilleures performances que l’Homme pour de nombreuses tâches spécialisées (classification d’images et de documents, traduction, analyse des tendances et prédiction, production de sons, textes et images, résolution, jeux élaborés). L’IA a montré sa capacité également à simuler plausiblement certaines interactions et, depuis 2014, des agents conversationnels arrivent à passer le test de Turing imaginé par le mathématicien en 1950 (réussir à tromper un être humain sur l’identité de celui qui échange avec vous dans une pièce). Le modèle de langage GPT 3 (ce qu’on appelle un « Large Langage Model ») a avalé 175 milliards de paramètres et est capable d’avoir une conversation plausible sur des sujets complexes, de suggérer des réponses élaborées, de recommander des livres, d’imiter de grands écrivains, de traduire d’une langue à une autre. Mais GPT3 ne fait que des prévisions (transfer learning) à partir de textes appris ; il n’est pas capable de raisonnement par analogie et n’a pas de représentation du monde : au sens de John Searle qui critiquait le test de Turing dans un article célèbre1 par la métaphore de la « chambre chinoise », il manipule des symboles mais ne pense pas.
Les derniers développements de l’IA voient les progrès de l’apprentissage machine et l’émergence d’un deep learning non supervisé qui utilise des réseaux imitant les neurones humains, capables de travailler sur des données brutes, non préparées et non structurées, sans avoir besoin qu’on lui indique les traits discriminants des données, capables aussi de les classer tout seul, mais en s’appuyant sur d’énormes quantités de données. On pense ici à Alphago qui a appris le go en jouant contre lui-même ou aux GAN (Generative Adversarial Network) qui se mettent en compétition sous le regard d’un algorithme tiers qui évalue leurs progrès.
Ces développements récents et l’émergence d’applications industrielles ont nourri d’intenses débats qui questionnent les représentations du partage entre le vivant et la machine2, interrogent les notions d’autonomie3 et d’originalité4, modifient notre rapport à la mémoire5, reformulent nos catégories philosophiques6, éthiques7 et esthétiques en interrogeant l’idée même de culture8. Mais plutôt que de restreindre l’IA à des dilemmes moraux et politiques qui simplifient le propos à outrance9, il est temps de faire de l’IA un objet culturel riche doté d’une histoire propre, en particulier culturelle. Cette approche contraste, d’une part, avec les tendances réduisant l’IA à un désastre économique10 ou civilisationnel11 et, d’autre part, avec les approches faisant de l’IA une solution miraculeuse à tous les défis sociétaux. Car l’IA est en réalité un phénomène scientifique et intellectuel multidisciplinaire et un objet culturel global, incluant l’histoire de la philosophie autant que l’histoire des mathématiques ou de la biologie. Elle recouvre une variété de savoirs allant de la philosophie du raisonnement aux sciences cognitives (les réseaux de neurones ont fourni un modèle à une discipline qui essaye bien souvent de reproduire des mécanismes humains ou adopte au moins des métaphores : réseaux à « mémoire » ou à « attention »). Certaines avancées sont technologiques (la loi de Moore), d’autres relèvent des progrès lents des mathématiques (algèbre linéaire), sur un vaste spectre de domaines disciplinaires. L’histoire culturelle des idées doit produire à la fois l’identification de points de rupture (l’invention du fameux perceptron fondé sur la théorie du feedback) et de « pentes faibles » (le progrès des automates), ds « seuils épistémologiques »12 (comme la logique formelle développée par l’école de Vienne) et d’ « unités architectoniques » (l’ère de la cybernétique, celle du deep learning) pour emprunter le vocabulaire de l’archéologie foucaldienne, modèle intellectuel qui nous invite à penser l’IA avant l’IA, avant son invention dans les années 1950.
Cette archéologie de l’IA n’est pas réductible à un modèle linéaire : elle a souvent avancé par à-coups. Nombreux sont en effet les projets restés virtuels faute de technologie (la machine de Babbage, machine à calculer programmable imaginée en 1834 mais qui n’a jamais fonctionné), les objets oubliés pendant des millénaires (les automates grecs élaborés), les inventions sans avenir (la machine d’Anticythère premier calculateur analogique antique permettant de calculer des positions astronomiques ou la machine de Wilhelm Schickard qui précède l’invention de Pascal, la Pascaline, première machine à calculer moderne, de vingt ans), comme fréquents sont les moments de suspension (l’hiver de l’IA, ce ralentissement des recherches dans les années 70), les anticipations forcenées et les tricheries (le canard mécanique de Vaucanson censé simuler la digestion, le Turc mécanique canular de la fin du XVIIIe siècle réalisé par Johann Wolfgang von Kempelen et qui impressionna le monde entier).
Or cette histoire de l’IA n’a été que très partiellement tracée : malgré les travaux de Pratt13 et Nilsson14, il faut recourir aux excellents chapitres introductifs du manuel de référence de Norvig et Russell, Artificial Intelligence: A Modern Approach. Ces travaux centrés sur la naissance de l’IA au sein de la cybernétique ou son histoire strictement scientifique ne permettent ni d’en mesurer les extensions pluridisciplinaires actuelles, ni de faire une histoire intellectuelle d’un projet aux dimensions scientifiques et aux résonances culturelles multiples. La synthèse récente de l’Université de Stanford porte le regard vers le futur plutôt que vers le passé15. Si certains créateurs de l’IA ont accédé au statut de célébrités16, peu de travaux ont été menés avec les développeurs et entrepreneurs de l’IA eux-mêmes, et jamais avec une perspective socio-anthropologique. De même, bien que ses acteurs aient souvent porté un discours public, ils ont rarement fait l’objet d’enquêtes dédiées, hormis dans une perspective critique17 ou de philosophie politique18.
La dimension culturelle de l’IA est présente dans le très important projet Global AI Narrative19 mais celui-ci entend proposer une approche internationale panoramique, en produisant des sondages et non pas un récit historique intégré qui est le cœur de notre projet. Du calculateur astronomique d’Anticythère aux ordinateurs, en passant par la Pascaline, l’analytical engine de Babbage, le logic piano de William Stanley Jevons ou le joueur d’échecs de Torrès-Quevedo, la préhistoire de l’IA s’incarne dans des objets matériels et concrets. Elle s’accompagne aussi d’images et de fictions20 du Golem à Blade Runner, de la légende des Géants de bronze de Talos à Terminator. Ces dimensions visuelles ont donné lieu à des travaux pour le moment sommaires, comme le projet d’histoire illustrée de l’IA de Pickover21, ou centrés uniquement sur l’époque historique particulière des Lumières22 et le thème des automates.
La question des représentations fictionnelles de l’IA reste éclatée dans les essais de référence23 ou les encyclopédies de la science-fiction, et demeure marquée par une approche thématique qu’il s’agit de dépasser par un travail en commun des historiens des sciences et de la culture. Il faut au contraire souligner les liens étroits entre les productions artistiques et les programmes technologiques, y compris dans les industries de l’IA24: l’art est non seulement le reflet des technologies, mais permet de prendre la mesure de ses réalisations. Ainsi, c’est avec la création de tableaux que l’on a pris conscience de la puissance des Generative Adversarial Networks et avec la production d’histoires vraisemblables ou de pastiches de grands auteurs que le modèle linguistique GPT-3 a démontré ses pouvoirs. La fiction a été utilisée pour anticiper les multiples conséquences des transformations technologiques induites par l’IA25. Yan le Cun, l’un des inventeurs des réseaux de neuronnes convolutifs qui sont à l’origine du deep learning moderne, raconte l’influence qu’a eu sur lui l’ordinateur de science-fiction HAL de 2001 l’Odyssée de l’espace, expérience séminale pour le jeune homme qu’il était et médiation fictionnelle pour de nombreux chercheurs en IA – et sans avoir besoin de rappeler qu’Ada Lovelace était la fille de Lord Byron, comment oublier que Norbert Wiener et Marvin Minsky, deux des pères fondateurs de l’intelligence artificielle, ont écrit des romans ?
L’histoire à retracer de l’IA ne saurait donc être abstraite et uniquement conceptuelle : l’IA est un ensemble de technologies indissociable de rêves et de fantasmes, ses applications sont tributaires de valeurs et d’idéologies situées. Il reste à faire une histoire longue et délibérément transculturelle de l’IA proposant de confronter les gestes artistiques aux discours des scientifiques créateurs d’IA, de manière à proposer des points de comparaison, de convergence ou d’écart entre les différents discours propres aux territoires respectifs de l’art et de la science. Il faut donc humaniser et incarner l’histoire de l’IA, des androïdes féminines qui hantent nos mémoires au corps gay de Turing en passant par les animaux, montrer qu’elle n’est pas produite par une logique scientifique déterministe, mais au contraire qu’elle s’articule à l’histoire sociale, politique et culturelle et même littéraire. On y rencontre nos vieilles inquiétudes sur le remplacement par la machine, ce que Günther Anders nommait la « honte prométhéenne », autant que de vieux fantasmes érotiques. La pomme croquée avec laquelle Turing se suicide évoque puissamment le péché de connaissance et celle d’Ève dans la Genèse, tant il est vrai que bien souvent les inventions technologiques de l’IA viennent puiser dans le répertoire mythique. L’histoire sociale de l’IA puise ses racines dès le XVIIIe siècle : le métier à tisser de Jacquard, premier exemple de cartes perforées à l’aube de l’informatique moderne, sera l’occasion de la première révolte contre les machines, celle des canuts à Lyon qui en 1831 brisèrent les métiers à tisser. La tradition des automates alimente les rêveries sur le potentiel magique des machines anthropomorphes, mais aussi les cauchemars sur le remplacement des humains par des formes de vie supérieures. Dans cette histoire déjà longue, les miracles côtoient les tragédies. Charles Babbage reprend les cartes de Jacquard dans sa machine analytique. Ada Lovelace a l’idée de rédiger le premier algorithme exécutable permettant de réaliser une série de calculs inscrits sur les cartes perforées. Ces cartes perforées sont centrales dans les mécanismes d’enregistrement et de classement moderne : en 1928, IBM fit ainsi breveter ses cartes à 80 colonnes. Sur ces cartes, les caractères alphanumériques étaient figurés par des perforations rectangulaires disposées en 80 colonnes parallèles, réparties sur 12 lignes. Les coins coupés permettaient de repérer le sens d’insertion dans le chargeur de cartes. IBM racheta ensuite l’entreprise allemande Dehomag qui contribua à la recension engagée à partir de 1933 par les nazis, période durant laquelle un demi-million d’enquêteurs se mit à faire du porte-à-porte. Le résultat fut porté sur des cartes de 60 colonnes, perforées au rythme de 450 000 par jour. Pour les nazis, la colonne 22, case 3 désignait les juifs. Au même moment, Turing inventait les « bombes » qui permirent de déchiffrer les codes de l’Enigma nazie à Blenchey Park et le « Colossus », l’un des premiers ordinateurs modernes qui fut utilisé pour préparer le débarquement de Normandie.
Cette histoire qui reste à écrire est d’autant plus importante que le rapport entre l’IA et le temps est particulièrement riche : l’IA incarne le futur de nos technologies, mais aussi une sorte de fin du temps humain en regard de l’avènement de machines éternelles et immortelles. Ses fictions mettent en scène des perturbations chronologiques : le temps arrêté par les déterminismes (Minority report), le retour dans le passé (Terminator). Or, l’IA produit du futur à partir de données passées. En ce sens, elle est foncièrement rétrograde et peut favoriser des politiques de l’inertie, voire réactionnaires. En même temps, elle rêve des machines qui échappent au temps, elle promet de manière eschatologique la fin du temps humain lorsqu’adviendra, à l’heure de la « singularité technologique », le temps des machines. De manière paradoxale (proposition d’ajout), l’IA génère des peurs et des rêves. Son histoire est non seulement « histoire tumultueuse » comme l’écrit un de ces historiens, Daniel Crevier26, mais aussi heurtée. Dans sa chronologie complexe planent à la fois le spectre de l’avant, celui d’un monde animiste où l’humain cohabiterait avec l’esprit des choses manifestant une divinité, celui d’un présent immobile contrôlé par des machines répétant une vision figée et déterministe de la condition humaine et celui de l’après, de la singularité ou du posthumanisme où l’être humain serait absorbé voire détruit pour le meilleur ou pour le pire dans l’intelligence des machines.