L’IA, le brin d’herbe, la caresse et le regard

Bruno Bachimont 

Publié en ligne le 02 juin 2020

Digital Object Identifier 10.25965/interfaces-numeriques.4135

L’IA est souvent présentée comme un modèle devenu un concurrent de l’intelligence humaine. Mais si on la caractérise qu’elle est une manière artificielle de résoudre des problèmes qui requièrent de la part des humains de l’intelligence, rien n’implique qu’il lui soit nécessaire de faire preuve d’intelligence. Dans cet article, nous abordons cette question à deux niveaux : à un niveau ontologique, la machine est-elle aussi intelligente que l’humain, ou l’humain aussi stupide qu’une machine ? à un niveau sociologique, la machine n’est-elle pas appelée à remplacer l’humain du fait de nos sociétés modernes dont la rationalité calculante confine les personnes à des tâches machinales et répétitives ? Nous argumentons que la machine reste ontologiquement stupide à la différence des êtres humains, les trois énigmes du brin d’herbe, de la caresse et du regard marquant un écart irréductible, mais que la véritable question est de savoir penser une société moderne misant sur l’intelligence humaine où la machine est son complément et non son concurrent.

AI is often viewed as a model of humain intelligence that is now challenging it. However, if one reminds that AI is nothing but a means to artificially solve problems that require intelligence for humain beings in order to treat them, nothing implies that such a means should be intelligent. In this paper, we argue that this question should be answered at two levels : first from an ontological perspective, the question is whether machines are as intelligent as humans, or humans as stupid as machines. From a sociological perspective, the question is to consider whether modern society turns human beings into social robots replaceable by machines thanks to the machinal and repeatable tasks they are reduced to. We claim that machines are stupid and humans intelligent, since some enigmas (blade of grass, caress, look) put in evidence an irreducible difference. But the very question is to build a society relaying on human intelligence, rather than robotizing it, where machines are useful auxiliaries et non competitors.

Sommaire

Texte intégral

Introduction

L’intelligence artificielle, terme déjà ancien, connaît une actualité renouvelée. Avec la résurgence des outils fondés sur les réseaux de neurones, un temps bannis pour incompétence dans son traitement de la non linéarité (Minsky et Papert, 1969), l’IA rencontre des succès inédits en toutes sortes de tâches, y compris celles qui nous semblent, à nous êtres humains, non seulement difficiles mais requérant pour leur solution de mobiliser ce qui relève de la pensée et de l’intelligence. Selon un sophisme rapidement assumé, résoudre des tâches mobilisant chez les humains de l’intelligence implique qu’on mobilise cette même intelligence ou de son équivalent dans les outils traitant de ces tâches. Sophisme, car y regarder de plus près, il apparaît que tout distingue l’intelligence humaine des outils mobilisés en intelligence artificielle. Aussi faut-il prendre davantage au sérieux le terme d’intelligence artificielle : faire preuve d’intelligence par d’autres moyens que l’intelligence, autrement dit par artifice.

En effet, comme nous l’argumenterons plus bas, l’IA repose sur le calcul qui consiste dans la manipulation aveugle de symboles vides de sens. La possibilité même du calcul, et la puissance qui en découle, provient de cette rupture radicale du calcul avec le sens. Et la capacité de traitement des calculs ne devient efficace dans le traitement de problèmes complexes, faisant appel pour nous à l’intelligence dans leur résolution, qu’au prix d’une débauche de moyens, rapportant les succès de l’IA à ceux de la chimie industrielle du 19e siècle, qui est aussi proche de la chimie du vivant que l’IA de l’intelligence naturelle. Autrement dit, pour caricaturer nos propos, les succès de l’IA pour imiter l’intelligence reposent in fine sur une débauche de stupidité. Mais, si cela peut rassurer notre fierté d’êtres humains, cela ne résout en rien les problèmes posés par la place de l’IA dans notre société industrielle. Car demeurent deux questions, l’une ontologique, l’autre sociologique. La première consiste dans le fait de savoir si nous ne sommes pas après tout aussi stupides que les machines, les détrôner de leurs capacités cognitives ne les ramenant en fait qu’aux nôtres. La seconde est de savoir si, même si nous, les êtres humains, sommes ontologiquement différents des machines de par une intelligence qui leur serait inaccessible, nous ne sommes pas ramenés à des machines aveugles et sans âme dans la plupart des tâches que la société contemporaine nous demande, ce qui permettrait de nous rendre remplaçables sans coup férir, notre noblesse ontologique ne résistant pas à la réalité de nos pratiques.

La question ontologique n’est donc pas de savoir si la machine est intelligente, elle ne l’est pas, mais au contraire de savoir si, après tout, nous ne sommes pas aussi stupides qu’elle, auquel cas l’intelligence artificielle ne serait pas un projet absurde puisqu’il consisterait à reproduire la bêtise naturelle.

Pour répondre à cette question, il faudrait pouvoir résoudre (au moins) trois énigmes où l’on montrerait que la stupidité du calcul suffirait à les traiter. Ce sont les énigmes du vivant ou celle du brin d’herbe, de la caresse ou du corps propre ou chair, du regard ou du sens. Nous argumenterons que ces trois énigmes, en leur structure même, échappent au calcul car elles reposent sur un principe de globalité alors que le calcul ne procède par définition que du local au global. Par conséquent, ces énigmes qui constituent la trame de notre humanité comme vivant, comme chair, comme porteur de sens, assurent que nous, humains, échappons à ce que la machine permet de reproduire et de réduire.

La question sociologique de l’IA ne se réduit pas à celle de savoir si les machines sont intelligentes, et si les humains sont aussi stupides que les machines. Si la question posée par l’IA est si intéressante et pertinente, c’est qu’au-delà de la question ontologique se pose celle des conditions sous lesquelles sont pensées et envisagées les tâches où l’on mettrait en concurrence l’humain et la machine. Or, dès lors qu’on envisage le débat en ces termes, on s’aperçoit que le débat ontologique sur la nature de l’intelligence n’est pas la question importante. En effet, si l’IA fait débat, c’est que la plupart des tâches que l’humain doit accomplir sont pensées et formatées dans un contexte procédural, gestionnaire ou industriel, où les tâches sont conçues pour être répétables et mécanisables : leur formalisation nécessaire pour rendre leur traitement fiable, reproductible quelle que soit la personne qui s’en charge aboutit au fait que la tâche devient machinale. Si l’humain est réduit à ce qu’il peut faire de manière machinale, il devient évident que la machine peut alors le remplacer et contester sa place dans la chaîne de résolution des problèmes et d’effectuation des tâches, en trouvant dans la machine non seulement le remplacement de l’humain, mais aussi le moyen de dépasser certaines de ses insuffisances dans la réalisation de ces tâches : la machine n’est pas fatiguée, distraite, révoltée, de mauvaise humeur, etc. ; le traitement industriel des tâches intelligentes renouant ainsi avec l’argumentaire de la révolution industrielle concernant la place des machines (Jarriges, 2014).

C’est donc la question même de notre conception du travail et des tâches que les humains peuvent accomplir qui est ici bouleversée par l’émergence des outils de l’IA. Notre société a choisi de gérer la complexité qui lui est propre en décomposant les tâches de manière de plus en plus parcellaire pour les rapporter à des tâches mécaniques et fiables. Cependant, cette gestion de la complexité ne fonctionne pas ou ne fonctionne plus : la complexité n’est pas réductible à des tâches simples, au plus a-t-on une interaction complexe de tâches simples, la complexité s’étant déplacée sans être dissoute. Si la décomposition de la complexité est une voie sans issue, c’est qu’il faut l’aborder par d’autres voies, et ce sont celles où l’humain excelle : l’approche par la globalité, par des approximations non réductionnistes. Au lieu de confier la complexité de nos sociétés à des systèmes techniques qui nous échappent, il conviendrait plutôt de se reposer sur les systèmes permettant de gérer la complexité que sont le vivant, l'incarné et l’interprétant pour que nous puissions participer à la construction d’un sens partagé plutôt que d’assister, impuissants, à son naufrage.

1. L’IA comme négation du sens

La principale caractéristique que nous retenons du numérique en général et l’IA en particulier pour les définir est le calcul [2017, 2019]. Le calcul consiste dans la définition d’entités élémentaires dont on prescrit la combinatoire ou manipulation selon des règles machinales ou mécaniques. Deux propriétés essentielles précisent ce qu’il faut entendre ici par entités élémentaires et par manipulation machinale.

D’une part, les entités élémentaires sont des primitives, c’est-à-dire qu’elles sont données et n’ont pas à être définies ni décomposées en entités sous-jacentes. Ces primitives sont discrètes et formelles : discrètes dans la mesure où on leur demande, et seulement cela, d’être distinguables entre elles sans ambiguïté, c’est-à-dire par des procédés ne demandant aucune interprétation ou compréhension, comme pourrait le faire une machine. Cette distinction porte à la fois sur le type et l’occurrence : les primitives appartiennent à un alphabet formel qui prescrit les types de symboles qu’on peut utiliser ; ces types sont en nombres finis ou dénombrables (on peut donc les compter ou les énumérer les uns après les autres) ; ce peut être un alphabet de 26 lettres comme pour notre écriture, ou 128 pour l’ASCII ou 32000 pour Unicode, ou bien l’alphabet binaire consistant dans les symboles 0 et 1 ; par ailleurs, pour chaque type, on peut proposer des symboles effectifs que l’on peut toujours distinguer entre eux du fait qu’ils occupent des positions différentes dans un espace de calcul (par exemple, différents « 0 » dans un fichier numérique). Ces symboles sont en outre vides de sens et de signification : c’est le corrélat du fait que la seule chose qu’on leur demande est d’être distinguables mécaniquement, selon un procédé physique et matériel.

D’autre part, les manipulations de ces symboles sont définies sans faire appel à une quelconque interprétation ou compréhension : ce sont des exécutions aveugles et formelles, qu’une machine pourrait appliquer car il doit être possible de concevoir un mécanisme effectuant ces manipulations. Ces manipulations sont définies en fonction des types des symboles, pour opérer sur les instances.

Enfin, les symboles discrets, définis ainsi, sans signification, qui sont l’objet de l’application des règles de manipulation sans signification, opèrent dans un espace qui prescrit comment peut se réaliser la disposition des pièces : une bande mémoire d’un ordinateur où les 0 et les 1 se succèdent, un damier où les pions sont disposés, etc.

Le principe d’une telle machine est bien connu, c’est le concept de machine proposé par Turing dans son article séminal de 1937 (1995 [1937]). Mais on peut y reconnaître tout type de jeu, comme le jeu d’échec par exemple, qui définit des types de pièces (les pièces des échecs comme la tour, le fou, etc.), les instances (on a deux tours, deux fous, un roi, une reine, etc.), et les règles du jeu. Ces dernières, prescrivant comment se comporte chaque pièce d’un certain type, opèrent sur les instances disposées dans un espace de jeu.

On voit que cette définition du calcul renvoie à la caractérisation minimale du fait de pouvoir se saisir d’entités, des petits cailloux si on suit l’étymologie (calculus signifiant en effet « caillou »), et de les déplacer dans un espace. On s’aperçoit ainsi que le calcul est tout simplement la capacité à saisir avec la main une entité pour la déplacer dans un espace : si on en abstrait le principe pour ne pas se limiter à ce que la main humaine peut saisir, c’est toute entité saisissable et déplaçable dans un espace.

Une science du calcul renverra donc à l’étude des déplacements que l’on peut faire dans un espace d’entités définies de manière à être distinguables, permettant de déterminer ce que l’on saisit, et comment on le déplace dans l’espace. Comme le montre le modèle de la machine de Turing, le déplacement dans l’espace n’est pas un processus qui a besoin d’être physique : effacer un symbole à un endroit, l’écrire ailleurs, reviennent à le déplacer, puisque deux occurrences d’un même type n’étant distinguables que par leur position, la question de savoir si une occurrence à un endroit est la même que celle qui était à un autre endroit est vide de sens ; deux occurrences, abstractions faites de leur position, sont indiscernables. Comme on le sait, l’algorithmique, et l’informatique qui la comprend ou en découle, comme on voudra, est cette science.

La machine ne fait donc que manipuler des calculi vides de sens selon des règles vides de sens. Elle est donc stupide, comme l’a plaisamment souligné Gérard Berry (De la Porte, 2016), mais c’est sa vertu. Car, comme il le précise lui-même, c’est la raison pour laquelle elle nous surprend tout le temps, et nous permet de penser différemment, autrement, grâce à des apports qui sont à penser, même si littéralement, ce ne sont pas des pensées. La machine ne pense pas, certes, mais elle donne à penser, et c’est là son intérêt et sa puissance. Car le couplage humain-technique peut prendre des proportions inédites : les technologies intellectuelles au sein desquelles la machine prend une place singulière et désormais centrale grâce au calcul connaissent un déploiement sans précédent, à rapprocher des révolutions comme celle de l’écriture.

Aussi une paraphrase plus exacte de l‘intelligence artificielle est-elle de savoir comment, par des moyens stupides et sans intelligence, on arrive à réaliser des tâches qui pour nous requièrent de l’intelligence. Comme le rappelle Luc Julia (2019), outre la manipulation aveugle de calculi dépourvus de signification, la débauche des moyens techniques mis en œuvre pour réaliser des tâches non pas stupides, mais isolées et sporadiques, suggère que la machine s’y prend autrement que nous. Il semble que l’évolution ait trouvé dans l’intelligence humaine une manière de résoudre les problèmes qu’elle rencontre avec une économie de moyens et de temps que pour le moment non seulement l’on ne comprend pas mais encore que l’on est incapable de reproduire. L’intelligence serait ainsi l’économie des moyens dans la résolution de problèmes rencontrés, en somme, mais non pas de manière isolée dans des contextes artificiels (jeux d’échec, de go, interprétation d’images, etc.) mais dans l’unité d’une vie et d’un futur ouvert et incertain.

2. Les énigmes posées à la technique calculatoire

On attend toujours le Newton du brin d’herbe : par ces mots, Kant, dans la critique de la faculté de juger (1984), montre comment la science newtonienne, par sa réduction des phénomènes à des lois mathématiques formalisant la causalité, est incapable de rendre compte de l’organique. Il est nécessaire pour guider l’explication scientifique d’introduire des principes qui ne lui appartiennent pas, à savoir ceux de la finalité et de la raison suffisante. Un organe se comprend par les fins qu’il atteint et les fonctions qu’il remplit, et il s’explique par les lois scientifiques rendant compte de son fonctionnement causal. La fonction est alors une espèce d’heuristique guidant l’investigation scientifique qui ne peut, sous peine d’un réductionnisme abusif, éliminer les principes finaux et la nécessité d’y faire appel. D’ailleurs, même la physique mathématique fait appel à des principes parfois qui, pour ne pas être finaux, ne sont pas pour autant homogènes à la causalité, comme le principe du plus court chemin ou du minimum d’énergie (Kant, 1990). Si le calcul mécanise la formalisation de la causalité, la finalité lui reste extrinsèque et le fonctionnement du brin d’herbe échappe à la science et au calcul.

La seconde énigme concerne la chair, le corps propre que nous sommes et que nous vivons, sentons et pensons. Ce n’est pas un corps que nous avons, c’est une chair qui nous incarne et que nous sommes. L’incarnation, dans son paradoxe, est une présence qui n’épuise pas ce dont elle est présence. Dans le dogme chrétien, le Christ est incarné, et il est donc bien l’homme qui s’appelait Jésus, mais ce dernier n’épuise pas dans son humanité le Verbe dont il est l’incarnation. De même, nous sommes notre corps, c’est notre chair, mais notre existence ne s’épuise pas dans ni avec cette chair. Lié au corps comme chair, il y a la relation à soi comme on vient de le dire, mais aussi la relation à l’autre. Dans la caresse, comme le rappelle Lévinas (1971), je ne peux toucher qu’en étant touché moi-même. Je ne peux caresser quelqu’un sans ressentir par là-même une caresse. Le corps n’est pas solitaire ni unique, il est ouverture à un autre qui n’existe qu’à travers l’interaction caressante qui est le seul moyen pour moi de me connaître et de me sentir comme caressant. La caresse constitue un entre-deux, un intermédiaire, où ce ne sont pas réellement deux qui se rencontrent mais où deux entités se dégagent depuis leur entrelacement.

La troisième énigme est celle du regard croisé, qui n’est autre que l’énigme du cercle herméneutique. Quand les regards se croisent, je sais que l’autre sait que je le regarde, et qu’il sait que je sais qu’il sait qu’il me regarde, c’est une spécularité infinie et vertigineuse. Le croisement du regard est la complexité herméneutique où ce que je veux comprendre me comprend autant que je le comprends. Proust notait ainsi qu’en lisant un livre, je me lis à travers lui, me tendant le miroir de ma lecture.

Ces énigmes reposent en leur principe sur le même ressort : le vivant, la chair, le sens sont d’abord des interactions qui constituent ce qui fait interaction. Il n’y a pas un déjà là déjà constitué qu’il suffirait ensuite de manipuler. Il y a le cercle dynamique d’une interaction qui se transforme au fur et à mesure de son accomplissement, construisant les termes de l’interaction. Le sens précède le texte, ou plutôt pour comprendre un texte, il faut d’abord comprendre son contexte, le texte permettant ensuite de saisir le sens de ses parties et de ses composantes. Comme le note F. Rastier (1991), le sens va du global au local.

Or, le calcul va, par construction, du local au global. Comme le soulignent les définitions des systèmes formels, on se donne d’abord un alphabet des signes formels, les calculi, pour ensuite déterminer les règles présidant à leur manipulation. Les cailloux sont toujours déjà là, la condition du calcul sans en être la conséquence. L’interaction est seconde. La logique du vivant, du sens et de la chair met l’interaction en premier.

Ces apories sont célèbres et renvoient à la circularité inhérente aux systèmes complexes, le résultat ou la finalité poursuivie par le système semble être constitutive du même système : les organes du vivant se définissent par leur fonction, la chair se définit par ce qu’elle incarne, ce qu’elle manifeste alors qu’elle ne l’est pas, et le sens se caractérise par la spécularité de l’explication, l’explenans étant la conséquence de l’explenandum.

Ces énigmes résistent au calcul qui ne peut en rendre compte. Elles conservent d’ailleurs leur caractère énigmatique : souligner l’interaction comme principe n’est pas la solution mais le problème qu’il faut penser. Ces énigmes le sont aussi pour nous et pas seulement pour une intelligence artificielle, il y a toujours un chantier à leur endroit, en mobilisant des indications suggestives données notamment par Varela (1989) reprises dans les travaux sur l’énaction (Stewart et al., 2010).

Par conséquent, on peut conclure que rien ne permet de réduire l’humain au calcul, ni de considérer que l’humain est en son principe aussi stupide qu’une machine. Mais ce débat n’est sans doute pas le plus important aujourd’hui : même si le transhumanisme conduit à reposer la question de la nature de l’homme (Besnier, 2012), l’intelligence artificielle fait débat même au-delà de l’impossibilité de principe à avoir une machine intelligente.

En effet, une question était, nous avons dit, de savoir si l’humain est aussi stupide qu’une machine. Même si la réponse est négative, la question se repose si, dans notre comportement, l’humain n’est pas rendu aussi stupide qu’une machine. La machine pourrait alors remplacer l’humain abruti (i.e. ramené à l’état de brute, c’est-à-dire de bête sans raison) et démontrer les mêmes capacités.

3. IA et le traitement de la complexité: sortir de l’impasse

3.1. L’abrutissement de l’humain, devenu alors remplaçable mécaniquement

Or, le déploiement des technologies, que ce soient les technologies de production ou les technologies intellectuelles, ont pour effet de formaliser les tâches et de les décomposer pour les rendre mécaniques et machinalement reproductibles. En particulier, les technologies cognitives ont pour but et effet de rendre les tâches intellectuelles effectuables de manière systématique, reproductible et certaine. Il n’est pas nécessaire de mobiliser un quelconque parcours interprétatif, d’inventer un processus, de comprendre ce dont il est question. Il suffit de reproduire la procédure. De même que le prolétaire du 19e siècle allait à l’usine proposer sa force musculaire comme seule qualité permettant de le rémunérer, s’inscrivant dès lors dans des processus qu’il n’avait pas besoin de comprendre ni de maîtriser, le gestionnaire contemporain, pris dans sa « cage de fer bureaucratique » (Weber, 2004), n’a besoin de prêter aux procédures qu’il applique que sa capacité à déplacer des petits cailloux dans un espace de manipulation. Pousser des wagons dans une mine, ou déplacer des données dans un tableur relèvent d’un même processus de prolétarisation de l’humain via son corps ou son esprit.

Cette tendance est le propre de la technique quand elle devient un système global (Stewart et al., 2010). Elle transforme son environnement en un milieu permettant les actions techniques de s’effectuer et de se répondre. L’usine illustre parfaitement ce processus : l’environnement technique qu’est l’usine fait que les tâches qui s’y déroulent trouvent de manière immanente, entre elles et autour d’elles, les conditions de leur déroulement et de leur interaction. Les pièces d’une machine sont produites par d’autres et ses productions livrées à d’autres encore. Que les usines puissent être entièrement automatisées est la conséquence logique de la notion même.

Par conséquent, l’humain peut bien être remplacé par la machine, qui déploie dans son intelligence artificielle le comportement d’une raison rapportée à ses processus mécanisés. C’est donc la raison pour laquelle l’IA est bien une révolution dans notre société, même si ce n’est pas pour la raison qu’on invoque. Nulle suprématie de l’humain est contestée, mais le modèle même de notre société industrielle et gestionnaire est cependant remis en question, l’humain ayant trouvé une position que la machine peut précisément occuper dans un nombre croissant de situations.

3.2. Complexité et place de l’humain

Est-ce pour autant le fin mot de la discussion sur la place de l’IA ? Il nous semble que non, car la décomposition des processus, au sein de nos sociétés, en tâches mécaniquement remplaçables ne fonctionne pas. En effet, la prolétarisation, en décomposant les tâches et en prescrivant leur répétition et formalisation mécaniques, engendre une complexité qui empêche les systèmes d’être efficaces et effectifs. Cette difficulté se traduit à deux niveaux. D’une part, chaque tâche élémentaire peut devenir compliquée dans la mesure où le calcul qui doit la réaliser doit mobiliser un nombre important d’informations ou données, ainsi que d’étapes de manipulation. Même si on connaît les données utilisées, même si on comprend quel est l’algorithme mis en œuvre, on ne peut cependant suivre les opérations du calcul, le comprendre et ainsi mesurer la pertinence et l’adéquation de son résultat. D’autre part, le monde étant mis en système par la technique, il devient une gigantesque usine, chaque tâche résolue permettant de déclencher la résolution d’autres tâches, sans qu’une médiation humaine ne valide la pertinence. Autrement dit, les calculs deviennent inintelligibles dans un système incontrôlable.

Ce constat est largement partagé et souvent depuis longtemps : si les différents rapports sur l’IA militent pour avoir des outils rendant les calculs intelligibles (Villani, 2018), les dénonciations du système technique comme tendance globalisante et incontrôlable ont été formulées de diverses manières selon divers argumentaires, par exemple (Ellul, 1954) ou (Stiegler, 2002).

Par conséquent, le processus technique, transformant les tâches en actions mécanisables, n’aboutit pas : les wagons de la mine sont perdus et les cases des tableurs insignifiantes. Remplacer les acteurs humains comme acteurs des tâches qui leur incombent par des machines ne fera donc que déplacer le problème sans le résoudre. De même que les causes efficientes chez Kant ne suffisent pas à expliquer le brin d’herbe, la mécanisation des tâches ne permet pas de les traiter de manière intelligible et contrôlée. Il faut donc mobiliser ce qui relève, on n’ose l’appeler intelligence, dans la pensée ce qui est de l’ordre de l’interaction et non de la manipulation.

Cela implique que l’IA a parfaitement sa place dans la réalisation technique de certaines tâches, il serait non seulement illusoire mais inutile de vouloir s’y opposer. Mais l’essentiel est ailleurs : si la complexité ne peut être prise en charge par la prolétarisation des tâches intellectuelles, sinon il ne s’agirait pas de complexité, mais tout au plus de complication, on peut se reposer sur les spécialistes de la complexité que sont les systèmes vivants et cognitifs. L’herméneutique du sens, cette complexité qui échappe au calcul, les systèmes vivants dans leur comportement fonctionnel, sont autant de manière de traiter la complexité, non en la réduisant mécaniquement, mais en interagissant avec elle. Ce n’est donc pas en rendant les algorithmes plus intelligents qu’on résoudra ces difficultés, les algorithmes ne pouvant se ramener qu’à des calculs stupides, mais en instaurant des médiations nouvelles entre l’interprétation humaine et les résultats calculés. Une nouvelle rhétorique de l’intelligibilité est à construire, ainsi qu’une politique du contrôle, non pas au sens où ce sont les humains qu’il faudrait contrôler, mais au sens où ce sont les processus techniques qu’il faudrait arraisonner le règne des fins, s’il fallait pour conclure reprendre le lexique kantien.

Conclusion

L’IA est donc une affaire très sérieuse et très importante. Elle porte certes mal son nom, ou au contraire très bien si on suit fidèlement sa sémantique : faire des choses nous paraissant intelligentes par d’autres moyens que l’intelligence. Mécanisant les tâches que nous faisons de plus en plus machinalement dans une société mécanisée, l’IA accélère un processus selon lequel l’humain est contrôlé pour être rendu conforme à ce que les machines et les tâches qu’elles réalisent attendent.

Ce faisant, on introduit davantage d’inintelligibilité et d’incontrôlabilité : les processus, réduits à leur traitement mécanique, n’ont plus de sens, le système technique est incontrôlable. Plutôt que de réduire le monde à ce que la technique attend, on peut l’ouvrir à ce que l’humain espère, notamment en se reposant sur sa capacité fondamentale, ontologique, phénoménologique de pouvoir traiter de l’inattendu, de l’événement, du surgissement. Or, la complexité engendre toujours de l’inattendu : le rendre prévisible est vain ; il s’agit plutôt d’envisager une nouvelle critique du jugement où la détermination par les machines est certes utile ou indispensable, mais toujours insuffisante. Elle reste cependant à construire. C’est donc là un crédit qu’on peut reconnaître à l’IA, que de nous amener à renouveler de manière passionnante et urgente les termes d’une problématique déjà ancienne mais indépassable.

Dans ce contexte, les sciences de l’information et de la communication ont toute leur place. Elles se sont certes prêtées à la réduction du sens au calcul et du signe aux symboles formels, pensant acquérir ainsi une scientificité qu’elles n’ont guère obtenue. Mais au lieu d’un réductionnisme des solutions (le calcul) et des problèmes (situations isolées et contrôlées), l’enjeu est de comprendre l’intelligence comme dynamique d’ouverture sur l’incertain, l’inattendu dans la continuité d’une vie. Les sciences de l’information et de la communication ont certainement un rôle à jouer sur la compréhension de ce que l’interaction comme principe permet de comprendre dans les dynamiques du sens, mais aussi, dans un dialogue interdisciplinaire à construire, du vivant et du corps incarné.