1 Une généalogie de l’Intelligence Artificielle

Une impeccable analyse de Dominique Lecourt, datant des années 90 du dernier siècle, où nous rencontrons encore une fois Michel Serres, passeur masqué du plus fatigué et du plus totalitaire des positivismes …

Le vocable de programme, arraché à son passé presque exclusivement théâtral, a été introduit dans le langage scientifique par le mathématicien anglais Alan Turing en 1936, dans son célèbre article sur les Nombres calculables dont les présupposés philosophiques sont assumés comme laplaciens.
Depuis, il n’a cessé d’y prospérer et d’y proliférer: la discipline intellectuelle qu’on appelle informatique s’est organisée autour du concept de la machine de Turing conçue comme une machine universelle abstraite qui pourrait effectuer la tâche de n’importe quelle autre machine. Lorsque des machines concrètes -les ordinateurs- ont été réalisées et que l’industrie s’en est emparée, les programmeurs sont apparus, puis les langages de programmation se sont diversifiés et sophistiqués. Le programme désigne l’ensemble des instructions rédigées dans le langage ad hoc qui auront à être traitées par la machine pour effectuer une tâche déterminée. Turing, qui avait affirmé que tout ce qui pouvait être calculé par un homme pouvait également l’être par une machine, avait rêvé d’en construire une qui pourrait reproduire l’activité mentale des hommes.

Allan Turing

Ce rêve s’est perpétué et comme amplifié vingt ans plus tard avec l’apparition au Collège de Darmouth de ce qu’on a dès lors appelé intelligence artificielle, dans l’euphorie de la victoire qu’avait représentée la réalisation du premier programme qui pouvait démontrer quelques théorèmes simples empruntés à la logique des propositions: l’ordinateur s’avérait capable de manipuler des symboles aussi bien que des nombres; l’idée s’affirmait concrètement que l’intelligence humaine pourrait fonctionner comme un tel ordinateur, par traitement de représentations symboliques … Searle résume fort bien le prolongement philosophique immédiat de cette idée: l’esprit serait au cerveau ce que le programme est au hardware informatique.

La ligne paraît directe, et marquer la simple mais lourde insistance d’un rêve. On évoque volontiers des précurseurs plus ou moins lointains: du célèbre mécanicien anglais Charles Babbage, auteur en 1832 du premier ouvrage sur l’économie des manufactures (On the economy of machinery and manufactures) dont Marx fera l’éloge et son miel dans Le Capital (livre I), au Chant de 18 de l’Iliade où Héphaïstos créait des femmes en or douées de raison pour le seconder!

Ada, la Fée des Différences

Mais cette continuité ne doit pas masquer qu’entre 1936 et 1956 s’est produit un événement scientifique majeur: la constitution de la biologie moléculaire. Or les interprétations que l’on a cru pouvoir donner de cet événement ont conféré à notre rêve une puissance d’envoûtement et, il faut le dire, une tournure toute nouvelle. L’examen vigilant de ces interprétations me paraît seul pouvoir éclairer les débats actuels autour desdites sciences cognitives.

L’histoire de la révolution biologique, telle qu’on n’en finit pas de la raconter, aurait commencé brutalement par un coup de génie et par une double coïncidence quasi miraculeuse. Je la rappelle selon la vulgate. Le coup de génie serait celui du célèbre physicien autrichien Erwin Schrödinger qui fait paraître en 1944, de son exil de Dublin, le petit livre intitulé Qu’est-ce que la vie? Véritable manifeste où le rapport est établi, sur un mode qu’on dira ensuite prémonitoire, entre la physique de l’atome, la mécanique statistique et la réalité biologique. Schrödinger reprenait le flambeau de Max Delbruck qui, en 1935 déjà, avait tenté de relier les lois formelles de la génétique mendélienne portant sur la transmission des caractères héréditaires à la nature physique des composants de la cellule.
Schrödinger montrait que le niveau moléculaire représentait l’échelle adéquate pour l’analyse de l’organisation même de l’hérédité. Mieux: il supposait que les atomes de l’hérédité sont organisés selon l’ordre d’une structure cristalline a-périodique. Il s’agissait d’une supposition, et d’une métaphore, mais J. D. Waston a bien montré dans La double hélice comment un physicien comme Francis Crick a pu y trouver la voie qui l’a mené, avec lui-même, à la découverte de la structure de l’ADN.

Ajoutons encore que Schrödinger pousse son interrogation plus loin, jusqu’à se demander comment se fait la transformation de l’organisation de ce support en actions liées à la vie (se mouvoir, se reproduire, échanger de la matière avec son environnement …). Or, il en vient à utiliser le mot de code, dans un sens juridique, en se référant à l’idéal laplacien!

Mais le terme de code est, bien entendu, trop étroit. Les structures chromosomiques servent en même temps à réaliser le développement qu’ils symbolisent. Elles sont le code législatif et le pouvoir exécutif -ou pour employer une autre analogie, elles sont à la fois le plan de l’architecte et l’œuvre d’art à entreprendre. Bref, le modèle sur lequel sera construit l’organisme se trouve lui-même manipulé par les règles qu’il spécifie.
Mais il manque encore à Schrödinger la métaphore linguistique qui viendra désigner le support matériel du gène comme une suite linéaire de quatre motifs de base dont l’ordre détermine le produit du gène. Une fois la métaphore du code inscrite dans un contexte linguistique, on ne tardera pas, par référence à Turing qui s’était lui aussi intéressé à des codes, à parler de programme génétique.
Mais voici les coïncidences.

Première coïncidence: la même année 1944 voit Oswald Théodore Avery (1877-1955), qui travaillait sur le principe transformant de la bactérie agent de la pneumonie, prouver que l’ADN (identifié depuis fort longtemps) était bel et bien le support indiqué, de façon spéculative, par Schrödinger. D’où une avalanche de recherches sur les acides nucléiques, malgré le scepticisme affiché et persistant de quelques grands noms. Cette coïncidence a sanctifié, si je puis dire, le rôle et les vues spéculatives de Schrödinger, puis contribué à inspirer l’idée d’une continuité historique entre les travaux des physiciens du début du siècle et ceux des biologistes, alors même que les recherches d’Avery et de son équipe ne devaient évidemment rien à Schrödinger!

Watson et Crick, bourgeois anglais explicitement racistes, dans les années 1960

Mais il en est une autre, beaucoup plus lourde de conséquences. Nous vivons encore aujourd’hui à l’ombre des oublis et des confusions dont elle a été l’occasion. L’année 1937 avait marqué le tout début de ce qui allait être la théorie de l’information, avec la publication de l’article de Claude Shannon intitulé Une analyse symbolique des relais et des commutations de circuits.
Cet article établissait le lien entre les mathématiques binaires, la logique symbolique et le fonctionnement des circuits électroniques. La perspective de Shannon était, au sens strict, technologique. Il montrait que le calcul des propositions pouvait être utilisé pour décrire le fonctionnement à deux états, ouvert ou fermé, d’un relais de commutation électromécanique. Oui/non, ouvert/fermé, vrai/faux, zéro/un, c’était toujours le même jeu.

L’idée d’information comme entité mesurable et manipulable à volonté apparaît pour la première fois. Elle va s’épanouir en Angleterre et aux États-Unis justement pendant les années 1940 sous l’effet de la rencontre de mathématiciens (Norbert Wiener et Johann von Neumann), de physiciens et techniciens (V. Bush, Bigelow) et de physiologistes (Mac Culloch, W.B. Cannon).
Dans son maître livre, écrit en 1954, sur La cybernétique et l’origine de l’information, Raymond Ruyer a bien montré que l’idée alors généralisée de l’information comme progrès d’un ordre structural efficace avait l’avantage de rendre l’entité de Shannon accessible à la mesure. Elle désigne en effet le contraire d’une destruction, d’une diminution d’ordre. Mais en physique, s’empresse-t-on d’ajouter, depuis Clausius mais surtout Boltzmann, une diminution d’ordre, cela porte le nom d’entropie. L’information sera donc définie comme le contraire d’une entropie, et elle sera mesurable comme celle-ci.

Francis Bacon, Instauratio Magna

La visée du travail des cybernéticiens n’est cependant nullement spéculative, elle est d’abord technologique: ils fabriquent des automates et des machines à information de plus en plus perfectionnés, au risque de réveiller en passant des vieux mythes technophobiques, où la peur souvent domine de voir une logique mécanique se muer en fatalité pour l’homme.

Dès le début des années cinquante, les machines automatiques issues de la cybernétique -on emprunte alors à l’auteur de science-fiction tchèque Karel Capek le mot de robot qui signifie travail forcé- sont visiblement appelées à des usages industriels importants: machines à rétroaction, elles substitueront des montages automatiques aux manipulations. On dit qu’elles réaliseront l’idéal baconien et cartésien: Que les forces naturelles travaillent par elles-mêmes comme les artisans, et remplacent les artisans.

Comme l’écrit pudiquement Ernst Mayr, la percée de la biologie moléculaire dans les années 1940-1950 coïncida avec la naissance de la science de l’information et certains des mots clés de cette discipline passèrent dans la génétique moléculaire. A titre d’exemple, il cite immédiatement la notion de programme. Cet emprunt vient se surajouter au premier, et il va contribuer à infléchir le cours des recherches, car le mot emporte alors avec lui, dans ce transfert, une part essentielle des visées théoriques au service desquelles il avait été formé: rendre compte du fonctionnement d’une machine finalisée à rétroaction. Ce qui a facilité, en un premier temps, le transfert fut que la physiologie avait trouvé beaucoup à apprendre des travaux des cybernéticiens: le montage des rétroactions avait permis en particulier de faire apparaître le montage en feed-back des connexions nerveuses.

Neurone au microscope

A la faveur de la notion de programme, sous les espèces du programme génétique, on voit ainsi les présupposés d’un modèle mécanique de certains processus physiologiques s’imposer à la biologie tout entière; et faire doublement signe vers le champ de ce qu’on appellera plus tard les neurosciences.
D’où un véritable dogme qui, on peut le dire avec François Gros dans La civilisation du gène, a mené la biologie dans une impasse au cours des années soixante: l’idée que l’organisme tout entier se construit sur un organigramme génétique, que toutes ses formes adultes sont inscrites, sous une forme codée, dans l’information contenue dans les gènes de la cellule initiale et que des mécanismes de type cybernétique, avec asservissements divers, rétroactifs ou répressifs, assurent le passage de l’information génétique à la forme adulte, du programme à sa réalisation.

Le dogme est alors si puissant, si installé, que les embryologistes ne sont vite plus écoutés: la notion de programme vient effacer celle de développement. Son simplisme triomphe: il suffit de déclencher le programme pour que tout se déroule du début à la fin comme c’était écrit.

C’est le cas de dire qu’Auguste Comte a gagné: le progrès n’est jamais que le développement d’un ordre, et ce développement est strictement déterminé par l’ordre initialement donné. L’épigenèse, essentielle au développement embryo-génétique, et tout spécialement de l’être humain, se trouve ainsi réduite à néant. La génétique moléculaire prétend expliquer à elle seule les macrostructures de l’adulte. Mieux, elle trouve à s’arrimer à la théorie néo-darwinienne de l’évolution à travers la thermodynamique statistique par le biais de la théorie de l’information; elle peut donc faire un pas de plus et dominer par un même principe explicatif le tout du vivant, de l’ADN à la pensée de l’ADN.

Michel Serres aura beaucoup fait en France pour imposer cette vue grandiose. Témoin, cette singulière introduction à Jacques Monod:

La biochimie est une chimie comme une autre, au moins dans ses méthodes et son épistémologie; la chimie est une science par la physique, au moins depuis Perrin; et la philosophie de la physique, c’est la théorie de l’information. Et donc lorsqu’un biochimiste annonce qu’il écrit une philosophie naturelle, cela signifie en clair qu’il applique la théorie de l’information (philosophie naturelle de la philosophie naturelle) à sa discipline propre.

On voit quelle dignité nouvelle prenaient les analogies notées avec insistance par les cybernéticiens, depuis un fameux article de Mac Culloch en 1937, entre les structures du système nerveux central, particulièrement les réseaux neuronaux, et les circuits électroniques. Ces analogies d’abord maniées avec prudence, voire scepticisme, apparaissaient fondées en nature! D’où, avec le développement des neurosciences, les deux questions liées qui nous reviennent avec tant de virulence aujourd’hui: le cerveau est-il un ordinateur (sophistiqué)? Les ordinateurs peuvent-ils penser? Encore faut-il voir que la conjonction qui s’opère sous nos yeux, et qui relève du totalitarisme scientiste, ne peut s’opérer sans les bons offices rendus par les psychologues.

Timbre roumain, 1958: une modernité née désuète

Je ne retracerai pas l’histoire tortueuse de la formation de l’idée de psychologie scientifique qui s’est déployée au 19éme siècle, lorsque la philosophie a lâché prise sur ce terrain. Mais il y a lieu de noter comment les théories behavioristes, et la gestalt-theorie, florissantes dans les années d’après guerre, ont pu prêter la main aux spéculations cybernéticiennes à base de théorie de l’information: si comprendre un message, c’est réagir de façon efficace à ce message, on peut le dire aussi bien de l’homme que de la machine.

Il resterait maintenant à réécrire toute cette histoire. Il n’est pas question de nier l’importance de l’intervention des physiciens dans les sciences du vivant, ni de sous-estimer la date majeure qu’a constituée la découverte de la structure en double hélice de l’ADN. Mais le paradoxe aura voulu qu’après avoir bataillé pendant un siècle contre le mécanisme en physique même, les physiciens aient importé dans l’étude du vivant une philosophie mécaniste qui alimentait depuis longtemps les rêves des technologues.

Cette philosophie bien vite dominante a réécrit l’histoire, mais en trompe-l’œil. Du coup, tout un pan de questions essentielles aux sciences du vivant s’est trouvé rejeté dans l’oubli, et concrètement négligé par les chercheurs et leurs institutions: toutes celles qui portent sur le développement des formes du vivant. La notion de programme était supposée y avoir définitivement répondu.

Le formalisme le plus sophistiqué s’est emparé du vivant et est venu recouvrir tout le champ de la culture (jusqu’à la littérature même), au bénéfice direct d’un empirisme sans frein dans la recherche effective. Relisons cependant les textes des biologistes qui s’interrogeaient sur l’évolution et l’hérédité avant que ne s’effectue l’entrée en force des concepts empruntés à Shannon et à Wiener, avant même Schrödinger. Il apparaît en clair, notamment chez Hugo De Vries, qu’était engagé un double mouvement d’approche du vivant, au niveau microscopique et au niveau macroscopique, envisagé selon la dynamique d’une création de formes.

La voie d’une mathématique originale du vivant, entrouverte par d’Arcy Thomson en 1917, On Growth of Forms, est à chercher sans doute de ce côté-là, et non dans l’usage, par ailleurs nécessaire, de statistiques qui ne touchent pas à l’objet biologique même. Or, avant de considérer, formellement et grossièrement, le cerveau comme une machine à traiter de l’information doté de réseaux électroniques extraordinairement sophistiqués, il y a lieu de considérer qu’il s’agit d’une réalité vivante; qu’elle est le résultat d’une évolution de l’espèce et d’un développement de l’individu. Il y a lieu aussi de tenir compte de ce que le cerveau humain a de singulier, et de mettre en rapport cette singularité avec cette évolution et ce développement.
Ces questions que posent aujourd’hui les neurosciences viennent de s’imposer contre le formalisme cybernéticien. Elles manifestent la part essentielle que prend, chez l’homme, l’épigenèse; celle qui, par sélection de réseaux neuronaux parmi un répertoire pratiquement infini de réseaux possibles, inscrit l’histoire individuelle (familiale, sociale, culturelle …) dans le développement de l’individu. La contingence -qui peut prendre le visage de la nécessité la plus contraignante- fait ici son entrée et vient contester l’empire du programme génétique.

Et comme le système nerveux central n’est nullement isolé, au contraire, des autres grands systèmes de l’organisme ainsi qu’on l’a montré spectaculairement à propos du système immunitaire, le support de la pensée ne saurait y être confiné. Il n’y a certes pas de pensée sans cerveau; mais on pense aussi avec les pieds, comme le disait autrefois Lacan par provocation.
Ces recherches font apparaître de surcroît la nécessité de se défaire d’une conception monadique de l’individualité. Comme l’avait fort bien aperçu naguère Gilbert Simondon, l’être humain est soumis à un double processus ininterrompu d’individuation (biologique) et d’individualisation (culturelle) qui le désigne de façon permanente comme un champ de tensions trans-individuelles et pré-individuelles, où l’inconscient trouve sa place et son efficacité.

Gilbert Simondon

La pensée, supportée par le langage, apparaît ainsi toujours elle aussi comme une réalité trans-individuelle et sous-tendue de pulsions inconscientes; les recherches menées ces dernières années par les spécialistes de l’éthologie humaine assoient ce point de vue sur des observations dirigées.
Mais, du même coup, elles remettent en question l’idée informaticienne que la pensée humaine pourrait être programmée: humaine, son libre jeu ne se comprend que par cette irruption de la contingence dans la réalisation du programme, irruption que permet le relâchement du programme lui-même; lequel apparaît comme le fruit de l’évolution de l’espèce.

Pourquoi donc, sous la bannière des sciences cognitives, l’ambition persiste-t-elle d’appliquer la notion de programme à la pensée? Non, semble-t-il, par simple naïveté philosophique. Il ne suffit pas de s’en prendre à l’idée communément acceptée par ces chercheurs que la pensée serait simplement une représentation du monde, un double, une maquette. Un faisceau de raisons positives interviennent, dont la plus importante, du point de vue philosophique, se trouve énoncée en toutes lettres dans le texte célèbre de Schrödinger lorsqu’il donne du code sa définition juridique: l’idée de programme enveloppe une idée d’ordre. Elle se prête, sous des dehors modernes, à cimenter toute idéologie d’ordre à commencer par la mise en ordre des pensées. Elle répond à la vision technologiste du monde qui a pris la relève du scientisme du siècle dernier en ravivant le thème saint-simonien de l’organisation; elle lui fournit un nouveau complément métaphysique avec un équivalent dégradé de l’idée de savoir absolu. En même temps, les applications technologiques des travaux qui s’inscrivent dans l’élan de ce mythe (travaux sur les reconnaissances de forme, sur la traduction automatique …) paraissent suffisamment prometteuses de rentabilité économique pour qu’on y investisse massivement. L’organisation de la recherche fait le reste: les appels d’offres succèdent aux appels d’offres …

Permettez que j’achève sur deux citations de l’un des penseurs auxquels font rituellement référence les spécialistes de l’intelligence artificielle: Blaise Pascal.
Chacun connaît les premières lignes de l’opuscule écrit en 1618: De l’esprit géométrique et de l’art de persuader:

On peut avoir trois principaux objets dans l’étude de la vérité: l’un de la découvrir quand on la cherche; l’autre de la démontrer quand on la possède; le dernier de la discerner d’avec le faux quand on l’examine.

Pascal montre que le second point enveloppe le dernier. Car si l’on sait la méthode pour prouver la vérité, on aura en même temps celle de la discerner puisqu’en examinant si la preuve qu’on en donne est conforme aux règles qu’on connaît, on saura si elle est exactement démontrée. Il me semble que, du point de vue épistémologique, l’intelligence artificielle peut remplir avec une puissance inégalée ce … programme, et que nul spécialiste ne saurait l’ignorer.

Mais quant à l’art de découvrir la vérité quand on la cherche, ajoute Pascal, la géométrie l’a expliqué; et c’est ce qu’elle appelle analyse, et dont il serait inutile de discourir après tant d’excellents ouvrages qui ont été faits.

L’allusion à Descartes dissimule à peine l’ironie sous l’hommage: l’art s’oppose à la méthode, qui suppose que l’on connaisse d’avance le terme du parcours pour bien conduire sa raison sur le bon chemin; il désigne une façon de s’y prendre avec l’inconnu, il s’explique, se déploie et se montre sur des exemples tirés d’une pratique qui accepte le risque de l’imprévisible. La pensée n’est pas programmable … Et telle est au demeurant sa grandeur, si l’on en croit l’auteur des Pensées: Les hommes sont si nécessairement fous que ce serait être fou, par un autre tour de folie, de ne pas être fou.

Voilà la vérité qui heureusement finira toujours pas déjouer tous les programmes de ceux qui travaillent beaucoup pour écarter ce qui n’est pas au programme.

Dominique Lecourt

A suivre …

Un commentaire sur “1 Une généalogie de l’Intelligence Artificielle

Les commentaires sont fermés.