logo du site Interfaces numériques

La complexité herméneutique à l’épreuve du calcul Hermeneutical complexity in the face of computation

Bruno BACHIMONT 

https://doi.org/10.25965/interfaces-numeriques.4686

Les textes offrent la possibilité de manipulations calcultoires via leur matérialité sémiotique : les symboles informatiques codant les caractères permettent la mobilisation d’algorithmes et outils informatiques. Cependant, ces traitements butent sur ce que nous appelons la duplicité du sémiotique, selon laquelle les symboles informatiques ne sont pas des signes dans la mesure où les premiers ne signifient rien contrairement aux seconds : les calculs sont effectués indépendamment de l’interprétation des signes textuels. Manipulation computationnelle et interprétation herméneutique sont donc hétérogènes et distincts, la première ne peut qu’approximer et simuler la seconde. Cet écart procède de la nature du sens et de ce qui manque aux machines pour y accéder. Cet article considère les différents types de complexité, analytique, synthétique et herméneutique pour voir dans la dernière ce qui résiste à réduction calculatoire. Ce constat est approfondi en revenant à la constitution phénoménologique du sens et ce qui fait que le sens d’un texte n’est accessible qu’à une entité ayant la notion d’un environnement qui l’excède et d’un ailleurs qui lui manque. Cet écart irréductible ne disqualifie pas l’intérêt des traitements algorithmiques : ils permettent bien au contraire de s’émanciper des contraintes du sens. Mais les résultats doivent être finalement repris et réassumés dans une entreprise herméneutique, pour transformer les données résultats en textes à comprendre.

Texts offer the possibility of computational manipulations via their semiotic materiality: the computer symbols encoding the characters allow the mobilization of algorithms and computer tools. However, these treatments come up against what we call the semiotic duplicity, according to which the computer symbols are not signs insofar as the first ones do not mean anything contrary to the second ones: the calculations are carried out independently from the interpretation of the textual signs. Computational manipulation and hermeneutic interpretation are thus heterogeneous and distinct, the first can only approximate and simulate the second. This gap stems from the nature of the meaning and what the machines lack in order to access it. This article considers the different types of complexity, analytic, synthetic and hermeneutic, to see in the last one what resists computational reduction. This observation is deepened by returning to the phenomenological constitution of meaning and what makes the meaning of a text accessible only to an entity having the notion of an environment that exceeds it and of an elsewhere that is missing. This irreducible gap does not disqualify the interest of algorithmic treatments: on the contrary, they allow us to free ourselves from the constraints of meaning. But the results must finally be taken up and reassumed in a hermeneutic enterprise, to transform the data results into texts to be understood.

Sommaire

Texte intégral

Version PDF 1,1 Mo

La complexité herméneutique
Bruno BACHIMONT

1. Introduction

Les techniques numériques et calculatoires ont permis de renouveler de manière profonde les techniques intellectuelles, à savoir les outils, méthodes et pratiques associées conditionnant notre capacité à produire, communiquer, échanger, consulter des objets porteurs de sens, investis d’esprit (Husserl 1982) dans nos différents cercles socio-culturels. L’intérêt de ces techniques est de permettre de toucher la duplicité du sémiotique et du sens au cœur même de son fonctionnement : en effet, la technique, comme manipulation conditionnée par des dispositifs, ne peut aborder les objets porteurs de sens qu’à travers leur matérialité, matérialité de surcroît façonnée pour permettre leur usage. Cependant ces objets sont rarement considérés seulement pour leur matérialité, selon leur efficace physique et concrète (par exemple pour leur capacité à engendrer des causes physiques, comme si l’on mesurait l’intérêt d’un document à l’énergie électrique associée), mais surtout pour les interprétations qu’ils permettent ou qu’ils suscitent.

Or, le régime du sens est différent de celui de la manipulation technique. Le premier mobilise ce qu’on peut appeler la complexité herméneutique, le second ce que nous proposons d’appeler la complexité analytique, qui renvoie essentiellement à la formalisation mathématique du réel (ce qu’on peut faire avec des équations pour le dire en une formule) ou la complexité synthétique (la modélisation par l’ingénieur d’une situation ou objet concrets). Ces trois niveaux de complexité sont distincts et n’obéissent pas aux mêmes contraintes ni ne renvoient aux mêmes objectifs. En particulier, ils sont irréductibles les uns aux autres.

Si cette approche est pertinente, cela implique que, concernant les techniques culturelles, les objets investis d’esprit, il y aura donc toujours un écart, un saut, une déhiscence entre le sens associé à ces objets et techniques et leur capacité manipulatoire.

Il convient donc dans un premier temps de revenir sur ce que nous appelons la duplicité du sémiotique pour opposer les dimensions manipulatoire et interprétative des signes. Cela nous permettra d’aborder les complexités propres à ces deux régimes. Nous terminerons par le fait que la manipulation technique ne peut être qu’une instrumentation permettant d’approximer le régime du sens et non de l’induire à partir des données textuelles ou sémiotiques. En particulier, l’approche calculatoire est par définition obérée par l’incapacité à prendre en compte le caractère situé et contextuel des textes et signes linguistiques considérés. Leur mise en donnée les transforme en réalité close et hors contexte, dé-corrélée de tout contexte. Dès lors, l’interprétation herméneutique ne peut être mobilisée, mais seulement approchée et simulée en supposant figés et fixés le cadre et le contexte du corpus mobilisé.

En cela, la question du texte et du sens renvoie à une problématique plus générale de la cognition et du vivant, où ce qui caractérise le connaissant et le vivant est d’être au centre de son action, d’être celui pour lequel il y a une situation, qu’il envisage en en dégageant les actants et en extrapolant les situations futures ou possibles. Ces constitution et extrapolation sont les conditions de l’émergence du sens, ce qui permet de viser un au-delà de la situation présente, de l’immanence immédiate.

De telles remarques n’auront pas pour vocation d’invalider les approches computationnelles ou calculatoires du traitement des textes, mais d’en circonscrire la portée pour les intégrer dans une approche instrumentée de l’interprétation et de la compréhension.

2. Duplicité

2.1. Calculus, réduction du sens, indépendance à la matière

La tradition sémiotique et linguistique nous a appris à distinguer au sein des signes le signifiant et le signifié, le signifiant ayant pour fonction d’être la présence renvoyant à une absence qu’est le signifié. Cette absence peut être due à l’idéalité de qui est ainsi signifié (le renvoi à un concept par exemple), ou à la présence ailleurs d’une entité matérielle (le renvoi à un référent physique). Indépendamment du statut que l’on voudra conférer au signifié, ce qui importe dans le fonctionnement sémiotique est bien qu’il y ait une dynamique, un processus, par lequel le signifiant signifie le signifié, le signifiant permettant l’accès à ce dernier.

Notre propos est de montrer que le calcul repose avant tout sur un fonctionnement par principe non sémiotique, supprimant tout lien avec un signifié. C’est l’autre du signe (Bachimont 2019). Dès lors, les signes informatiques ne sont plus que des signes de manière impropre, car ce sont des signes qui ne signifient rien, qui ne sont pas des signifiants.

Pour motiver cette affirmation, nous mobilisons la notion de calculus pour caractériser le numérique. Ceci, en référence à l’étymologie du terme « calcul », mais aussi pour insister sur la matérialité du numérique et sa dimension opératoire. Il faut en effet insister sur ce qu’est le numérique et non sur ce qu’on en fait. Si ce dernier point de vue permet d’en parler comme des traces, des symboles, des signes, ces dénominations sont impropres et manquent ce qui est en jeu dans le numérique.

Calculus signifie « petit caillou », comme ceux qu’on utilisait jadis et qu’on mobilise encore pour apprendre à compter, pour réaliser des manipulations opératoires permettant de trouver un résultat. Le calculus est une entité matérielle, c’est l’unité de ce qui est manipulé. C’est ce dont se saisit la machine pour réaliser le calcul. Le calculus est à l’algorithme ce que le caractère est à l’écriture : c’est l’unité permettant de le concrétiser et qui est manipulé pour constituer des entités qui peuvent certes avoir un sens, mais par ailleurs, selon une convention externe surajoutée à la manipulation des calculi.

Le calculus n’est pas un signe, il n’est pas un symbole formel. S’il partage avec ce dernier le fait d’être mobilisé dans un jeu combinatoire, il n’entre pas dans la caractérisation d’une objectivité visée ou constituée par ce jeu combinatoire. Le numérique, comme nous l’avons déjà souligné, est de nature autothétique (Bachimont 2010) : il ne pose que lui-même, il n’est que sa propre réalité opératoire, sans se rapporter à des mondes d’objets, c’est-à-dire des domaines que l’on peut appréhender comme interprétations (modèle au sens de la logique mathématique et de la théorie des modèles) de ce jeu combinatoire. Alors que le logicisme de Frege veut avoir des symboles orthothétiques, qui posent exactement l’objectivité visée (par exemple, l’arithmétique), à l’exclusion de toute autre, alors que le formalisme mobilise des symboles caractérisant et constituant des objectivités multiples, le numérique est autothétique et ne pose que son exécution machinique. Il rompt avec le logicisme frégéen qui veut avoir un formel qui caractérise la logique et le formalisme hilbertien qui vaut pour plusieurs univers du fait de ses formalité et combinatoire symbolique (Leclercq 2014).

Le calculus ne renvoie à aucune réalité existante (il n’est pas une trace, un indice ou une empreinte), ni à aucune réalité signifiée (virtuelle, elle n’est ni absente ni présente comme telle). Le calculus est sans transcendance, il n’y a rien d’autre que lui-même.

Aussi, dès lors qu’un signe est manipulé, on ne retient son signifiant que comme calculus, et non comme porteur d’un signifié. La transformation du signe en calculus neutralise son comportement sémiotique pour le dé-sémiotiser, lui retirer son caractère de signifiant. C’est donc une réduction à laquelle procède l’enrôlement du signe dans le calcul. Cette ascèse du signe qui en fait un calculus, en ne retenant du signe que son signifiant, donc sans signifié ni signification, même plus comme signifiant, mais comme calculus (ou token, jeton, etc., comme on voudra), permet de le mobiliser de manière universelle. En effet, puisque le calculus ne signifie rien, ne représente rien, n’indique rien, il peut tout représenter, signifier, indiquer. Si le calculus possède cette neutralité fondamentale, l’usage est alors libre de le mobiliser selon le régime de sens qui lui convient. On a souvent fait le rapprochement fort juste entre le numérique et l’argent (Herrenschmidt 2007) : l’argent est l’équivalent universel de toute marchandise en vue de l’échange, car il n’en représente aucune en particulier, le numérique est l’équivalent universel de toute chose du point de vue, non de l’échange, mais de la manipulation.

Le calcul n’est pas seulement la réduction du signe au calculus, de la signification à la manipulation, mais aussi une réduction de la matérialité. En effet, le calcul opère sur des entités matérielles, mais seulement en tant qu’elles sont saisissables et manipulables par un procédé technique. Autrement dit, le propre du calcul est de représenter un processus technique seulement du point de vue de ce qui est manipulé, sans prendre en compte la matérialité. C’est la raison pour laquelle le calcul est indifférent à la matière qui l’implémente ou le réalise. C’est ce que nous avons proposé d’appeler la double coupure du numérique (Bachimont 2017, 2018) : la coupure au sens, qui est réduit, et la coupure à la matière, qui est abstraite. Le calcul retient de la matière sa manipulabilité, c’est-à-dire la possibilité de distinguer des unités que l’on peut manipuler, autrement la possibilité de discrétiser, et il fait ainsi l’économie du sens ou de l’interprétation de ces unités.

2.2. Contenus numériques et duplicité sémiotique

Si on appelle contenu toute entité matérielle qui renvoie à une interprétation, dans la mesure où elle constitue une adresse demandant une réponse, une formulation, ou encore une compréhension, on peut s’interroger sur ce qu’elle devient quand sa matérialité est façonnée pour se plier à la manipulation numérique. Puisque la numérisation consiste à discrétiser le contenu en calculi permettant sa manipulation, indépendamment du sens associé et de la matérialité sous-jacente, on peut déduire qu’une entité numérique doit se caractériser par les types de manipulation qu’elle permet.

Nous appelons unités techniques de manipulation (UTM) les plus petites entités que le système numérique peut manipuler dans un contenu (Bachimont 2017). Chaque type de contenu renvoie à un type particulier d’UTM : le texte numérique renvoie aux caractères des alphabets numériques comme l’ASCII ou Unicode. La photo numérique se manipule en termes de pixels, le document graphique en termes de points, etc. Cela signifie que le système technique ne peut considérer d’entités plus petites que les UTM : ainsi un texte numérique se prête bien à l’édition, on peut intervenir au niveau du caractère, mais moins bien au niveau de l’impression car on n’accède pas aux réglages qui relèvent du niveau du point d’impression. De même, le système ne peut considérer comme entités de plus haut niveau que celles qui se décomposent en termes d’UTM : des ensembles de caractères pour un texte, de pixels pour une image. Les UTM sont les calculi, les petits cailloux faisant du contenu une entité calculable et manipulable.

Mais si la machine ne considère que les UTM, ces derniers constituent pour nous la face matérielle de signes, qui sont des signifiants et qui signifient pour nous. Autrement dit, si la machine calcule sur et au moyen de ces derniers, nous autres, animaux sémiotiques, les interprétons. Aussi convient-il de parler d’unités sémiotiques d’interprétation (USI) pour évoquer les entités que nous dégageons comme signifiantes dans le contenu. Or, en s’inscrivant dans la sémantique interprétative de F. Rastier (1987), et plus généralement dans la tradition sémiotique et herméneutique, on constate que les USI résultent de l’interprétation et n’en sont pas la condition. Autrement dit, pour dégager les USI présentes dans le contenu, il faut interpréter ce dernier, et on ne peut s’appuyer sur la donnée préalable des USI pour entreprendre l’interprétation. Il faut donc comprendre pour savoir reconnaître ce qui fait sens dans le contenu, la signifiance de ses composants. Du contexte au texte, du texte aux syntagmes puis aux signes élémentaires ou morphèmes, l’interprétation est un processus qui dégage dans son résultat ce qui fait signe. Ainsi procède-t-on du global au local dans l’interprétation, alors que, comme on l’a vu, on procède du local au global dans la manipulation des UTM.

Il n’y a donc aucune raison a priori permettant de justifier que les UTM coïncident avec les USI. C’est la raison pour laquelle il est si difficile de concevoir des outils reconnaissant automatiquement les parties signifiantes d’un contenu : de la reconnaissance des formes à celles des termes ou syntagmes, la manipulation technique procède selon des critères hétérogènes à la constitution du sens. La disponibilité de grandes bases de contenus pour appréhender le sens ne change rien à la nature de l’écart entre UTM et USI : les grandes bases restent toujours du local permettant d’approximer le global, mais en étant incapable d’appréhender ce qui n’est pas dans la base, c’est-à-dire le contexte ou l’au-delà du contenu qui préside au parcours interprétatif.

3. Complexités

Ce qui souvent permet de penser que l’écart entre calculi manipulés et signes interprétés peut être comblé est la sophistication des procédés techniques mobilisés. La complexité technique transformerait une différence de nature entre le sens et le calcul en une différence de degré : algorithmes plus performants, données plus massives seraient alors les moyens adéquats pour résorber cette déhiscence entre sens et calcul, interprétation et manipulation.

Même si la complexité technique permet d’améliorer considérablement les moyens d’approximer l’interprétation et d’en simuler les parcours, l’écart reste néanmoins fondamental. Car la complexité technique est d’un autre ordre que celle procédant de l’interprétation. En effet, la complexité technique est de deux types, complexité analytique ou synthétique, alors que l’interprétation envoie à une complexité que nous appellerons herméneutique.

La complexité analytique consiste dans le fait de pouvoir expliquer les phénomènes du réel en découpant ce dernier au moyen de lois qui vont rendre compte des diversité et variabilité des phénomènes en la réduisant à des formes abstraites. Selon l'étymologie, analytique, signifie couper en morceaux, fragmenter, découper. L’approche, qui sera en général celle des sciences de la nature, consiste à délimiter une partie du réel à travers une notion fondamental dont on va décrire formellement la variabilité, la diversité des phénomènes conduisant à l’unicité de la loi. Ainsi, le mouvement, le transfert de chaleur permettent de définir la mécanique, la thermodynamique, etc. Or, cette réduction de la diversité phénoménale en unicité formelle n’est pas une simplification mais débouche sur un type particulier de complexité : celle inhérente aux types de lois qui sont proposées et élaborées. L’exemple le plus manifeste est celui des systèmes dynamiques et de ce qu’on a appelé naguère les théories du chaos (Bergé et al. 1988). La simplicité des lois proposées débouche sur l’imprédictibilité des phénomènes, demandant d’élaborer des outils nouveaux pour étudier le comportement de tels systèmes (par exemple les cartes de Poincaré (Galison 2005)). C’est la raison pour laquelle nous proposons de qualifier cette complexité de complexité analytique, car ce sont les outils mêmes de l’analyse qui introduisent la complexité de la description.

Associée à cette complexité, en ne considérant plus seulement les théories scientifiques mais les dispositifs technoscientifiques, on peut adjoindre une complexité complémentaire que nous appellerons ici complexité synthétique. A l’instar de son étymologie (syn-thèse signifie poser ensemble) la complexité synthétique provient du fait de convoquer dans un même système des éléments hétérogènes pour lesquels on ne dispose pas de théorie globale, mais seulement locale ou propre à quelques-unes de ses parties fonctionnelles ou matérielles. Cette complexité est celle de l’ingénieur, qui doit piloter des ensembles techniques qui échappent à toute intelligibilité scientifique même si, ou plutôt parce que, elles en mobilisent de multiples. Si la complexité analytique s’illustre par la théorie des systèmes dynamiques et le chaos déterministe qu’ils engendrent, la complexité synthétique est d’ordre systémique et s’illustre de manière privilégiée dans la cybernétique, les systèmes cyber-physiques, et de manière générale dans la théorie des systèmes.

Mais ces complexités restent extérieures à l’interprétation dans la mesure où elles ne mobilisent pas l’humain et que ce dernier n’intervient pas comme composant des systèmes étudiés. La complexité herméneutique peut se caractériser comme le fait que, dès lors qu’un système mobilise un acteur humain (voire vivant), ce dernier modifie son comportement en fonction de l’interprétation qu’il produit du système qui l’englobe (Berner et Thouard 2015). De ce fait, il perturbe de l’intérieur ce système, qui dès lors ne devient plus modélisable comme tel, puisque toute modélisation étant une interprétation, elle peut être falsifiée par les acteurs qui s’en emparent. Le propre de l’humain est d’être à la fois interne et externe au système qui l’englobe : comme composant, il est interne au système, comme interprétant il lui est externe. Pascal le formule excellemment à propos de la pensée de l’espace : « Par l’espace l’univers me comprend et m’engloutit comme un point, par la pensée je le comprends » (Pascal 2015).

La complexité herméneutique introduit une circularité que les deux autres ignorent. En effet, dans le premier cas de la complexité analytique, on réduit le phénomène à une représentation idéale formalisée, et on montre que cette idéalisation est porteuse d’une indétermination ou imprédictibilité. Dans le second cas, celui de la complexité synthétique, le comportement global du système contraint le comportement local de ses composants. Il y a bien circularité, mais sous la forme de rétroaction, positive ou négative. La première conférence Macy à l’origine de la cybernétique ne portait-elle pas le titre de « Feedbacks Mechanisms and Circular Causal Systems in Biological and Social Systems » (Dupuy 1994, Triclot 2008) ? Le problème n’est pas seulement un rapport local / global, mais bien un rapport externe/interne, le fait que le sujet interprétant est capable de se projeter au-delà de la situation modélisée et de la prendre en compte pour la modifier. La complexité herméneutique montre comment le comportement local falsifie dynamiquement et en permanence le comportement global dès lors qu’il est caractérisé et interprété.

4. Communauté

La complexité herméneutique est celle qui préside à l’interprétation, quand l’humain est mobilisé dans le processus considéré. Or, la question posée ici est de pouvoir faire la part, dans un texte, entre ce qui s’adresse à une interprétation humaine et ce qui peut relève d’un traitement calculatoire. La duplicité du numérique que nous avons évoquée plus haut suggère qu’il n’existe pas d’équivalence directe entre l’interprétation sémiotique et le traitement mécanique. Autrement dit, il n’y a pas de texte pour une machine, au contraire de l’humain qui sait comment aborder et mobiliser les signes linguistiques dans leur mobilisation et contextualisation textuelles.

La raison pour laquelle il ne peut y avoir de texte pour une machine n’est pas seulement due au fait que la machine ne serait pas suffisamment perfectionnée : le problème n’est pas une différence de degré entre la compréhension humaine et le traitement calculatoire, mais une différence de nature, d’ordre ontologique par conséquent. Par principe, une machine ne peut accéder au sens, car il n’y a pas de sens pour une machine. Cette dernière n’est pas plongée dans les conditions « existentiales » de l’humain, et ne peut de ce fait en produire les conséquences. Si nous utilisons le terme d’existential, ce n’est pas du fait d’une préciosité terminologique gratuite, mais pour insister sur le fait que l’humain n’a pas des conditions existentielles, qui peuvent changer selon les individus et sont donc contingentes, mais qu’il est confronté à des conditions constitutives de son être qui sont indépassables et toujours présentes. Autrement, l’existentiel est la contingence de l’existence, l’existential est l’universel du fait pour un être humain d’être humain et vivant.

Or, ces conditions existentiales, en reprenant une catégorisation proposée naguère par François Rastier (2002), reposent sur trois postures complémentaires : ici, là-bas, ailleurs. Ou bien, le proximal, le distal, l’absent. Ces trois conditions existentiales renvoient à des manières propres de répondre à une situation, à trois existentiaux fondamentaux : faire, percevoir et dire.

L’être humain est toujours plongé dans une situation, dans laquelle il est « jeté », si on reprend le lexique heideggerien (1986), ou plongé, pour insister sur le fait qu’il ne s’agit pas d’un choix et qu’il n’y a pas d’état d’avant d’être en situation, sinon d’être dans une autre situation. La situation, au sens d’un ici et d’un maintenant qui constitue l’environnement de l’individu, est ce qui stimule l’individu, s’impose à lui, et le somme de réagir. C’est le premier existential, celui du faire : c’est la réaction à la stimulation propre à la situation, à ce qui lui est immanent et immédiat. Faire, c’est répondre, sans médiation, à l’injonction de la situation. Pour reprendre un exemple célèbre dû à Von Uexküll (1934), c’est la tique qui ne réagit que pour se laisser tomber quand passe à proximité un être vivant à sang chaud, qui fait situation pour elle. C’est une réaction, immédiate, à une situation immanente, sans considération autre, extérieure à cette dernière. Le faire repose sur un contexte direct, une réaction quasi réflexe, de l’ordre du stimulus et de la réponse.

Le second existential est celui du percevoir, dans les conditions existentiales du là-bas. Le principe qu’un être vivant est vivant dans la mesure où son action ne se réduit pas seulement à sa réaction au proximal, au faire qu’il oppose aux stimuli de la situation, mais au fait qu’il perçoit ce qui est à distance. En ce sens, il est au centre de son action, le centre qui structure son espace environnant en un ici où il est, et un là-bas où il n’est pas, mais qu’il perçoit et sent. Le propre du là-bas est de pouvoir devenir un ici, par des actions appropriées. L’être vivant pourvu de locomotion peut par exemple se rapprocher, modifier sa perception pour que le distal devienne un proximal.

Enfin, le troisième existential est celui du dire, quand le mot vient représenter ce qui est absent, troisième condition existentiale, l’ailleurs. Le dire permet de substituer à une absence une présence qui ne peut être que d’ordre sémiotique, c’est-à-dire une présence manifestant une absence, faisant venir à l’esprit une autre chose, cette autre chose ne se manifestant que dans notre esprit, sans être effectivement présente. Le dire est la manifestation de l’absence.

Le propre de ces trois existentiaux est de permettre la constitution de mondes communs et partagés entre les êtres vivants et humains. Faire, percevoir et dire constituent phénoménologiquement des modalités de rencontre et partage avec d’autres êtres pour lesquels ces existentiaux valent également. Ainsi, le faire renvoie au toucher, au contact proximal, où, quand un être vivant en touche un autre, il est obligatoirement touché en retour : pour toucher, il faut être touché (Lenay 2010), et d’emblée se constitue un monde commun, celui de l’échange réciproque du contact, voire de la caresse (on ne peut en effet caresser sans être caressé). Le premier existential conduit donc au fait que, être humain, c’est pouvoir être touché ou caressé. De même, le second existential conduit au monde commun perceptif, non pas au sens où l’on voit la même chose, mais au sens où on se voit ou perçoit réciproquement. C’est le croisement des regards, le fait d’être regardé par ce/ceux que l’on regarde.

Note de bas de page 1 :

Nous remercions le relecteur anonyme qui nous a suggéré ce concept d’Antoine Culioli, qui précise à merveille notre propos et nous permet de renforcer notre argumentation.

Enfin, l’existential du dire répond aux conditions de l’absence et de l’ailleurs. Le monde commun constitué par cet existential est celui non seulement du discours, mais surtout du dialogue. C’est celui de l’adresse, du message qu’on reçoit et qu’on perçoit comme une injonction pour lui répondre. C’est la présence d’autrui à travers sa parole. Le dire n’est pas seulement une expression, mais aussi sinon essentiellement une réception, voire une co-énonciation1 (Culioli, 1979) : tout dire s’accompagne d’une écoute active qui reconfigure et co-énonce le dit avec l’énonciateur. Le dire est la manifestation d’une absence à travers une parole qui perdure dans les termes qui l’expriment et instaure une co-construction entre le dire et le dit d’une part, entre l’énonciateur et le co-énonciateur d’autre part. Le monde commun est alors celui de l’esprit.

Trois mondes partagés donc, le monde des corps (le toucher permis par le faire qui suscite et correspond à un être touché), le monde des personnes (croisement des regards) et enfin le monde des esprits (l’ailleurs rendu présent par la parole, le discours, la culture). Le vivant, le sémiotique est donc le fait d’avoir un espace et un temps qui s’étendent au-delà du simple donné de l’immanence en situation. La perception permet d’accéder à un espace qui ne se réduit pas à un ici, mais qui s’ouvre sur un là-bas. Le dire ouvre, via la possibilité d’évoquer l’absence, sur le temps passé et futur, le révolu et l’avenir. Le vivant et le sémiotique résident donc dans la dilatation de l’espace-temps, dilatation que la technologie (Caye 2020) a pour effet d’amplifier à partir de cette donnée anthropologique fondamentale.

Or, la machine n’a pas accès à de tels mondes partagés. Elle les représente par des signes qui ne sont pas des signifiants, mais de simples instances, des jetons ou tokens permettant la manipulation. En effet, tout est rabattu sur la notion de données, c’est-à-dire ce qui est stocké et disponible en mémoire machine pour être manipulé. Le proximal, le distal et l’absent sont rapportés à des représentations formelles identiques sur le principe, même si leur syntaxe permet de les différencier. Ainsi les capteurs permettent-ils de transformer une perception distale en présence interne dans la machine en une donnée constituée à l’occasion. On pourrait rétorquer qu’il en est de même pour les êtres humains, les données cérébrales tenant lieu des perceptions délivrées par nos sens. Mais il subsiste toujours une différence phénoménologique : les données ne peuvent rendre compte du monde partagé, par exemple que le tact est à la fois le touchant et le touché, cette identité résultant d’une réciprocité. La machine peut le représenter formellement, mais elle ne peut le prendre comme fait premier, seulement comme déduction formelle. La présence de l’autre ne sera jamais qu’une inférence, mais pas une évidence phénoménologique découlant du monde partagé.

Ainsi la machine ne me touche-t-elle pas pour être touchée, ne me regarde-t-elle pas pour être regardée, ne me parle-t-elle pas pour être entendue et susciter une réponse. Il faudrait même dire que la machine ne me répond pas, ne se sent pas regardée quand je la regarde, ne se sent pas touchée quand je la touche, même si je peux tenter de le simuler formellement à l’aide des données.

Nous retrouvons ainsi la duplicité avec laquelle nous avons débuté notre réflexion. Le signe est duplice, alliant une présence technique matérielle soumise à la manipulation, et une signifiance renvoyant à une complexité herméneutique. De la même manière, le sens des situations, traduit à travers les trois existentiaux du faire, du percevoir et du dire, constitue également une duplicité analogue : rien des mondes partagés qui ne puisse être représenté par les données, rien des données qui puisse s’en rapprocher. L’évidence phénoménologique se représente, mais elle perd son caractère phénoménologique d’évidence quand elle est représentée, non pas pour signifier mais pour permettre la manipulation aveugle.

Il est toujours loisible de nier une telle évidence phénoménologique des mondes partagés : la machine serait alors un équivalent de l’être humain et pas seulement une simulation, mais il en découle que la communauté du sens n’est plus : la perception n’est plus une exploration à entreprendre, le dire une délibération à poursuivre, le faire une expérimentation à conduire. Autrement dit, plus de désir, non plus de conatus, à savoir de volonté de persévérer dans son être et de le parfaire, ou le maximiser. Sans conatus, sans désir, la machine ne sait pas qu’elle vit, et ne peut mobiliser la situation pour continuer à être. Si la caresse nous donne un milieu, le regard un monde, et la voix une culture, la machine ne peut accéder à aucun des trois : la machine n’a pas de milieu, pas d’environnement, pas de société. Cela revient à décliner le constat simple selon lequel il est impossible de donner à une machine un contexte, sinon en le réduisant à un texte, c’est-à-dire ici à une donnée (car un texte n’existe pas sans contexte, un texte sans contexte devient une donnée). La seule manière de prendre en compte le contexte d’une donnée, c’est de le représenter sous la forme de données, qui auront-elles-mêmes un contexte qui échappera à la représentation qu’on aura faite. Seul ce qui est centré, donc vivant, perçoit ou reçoit l’évidence que la présence peut renvoyer à une absence, une signification visant ce qui n’est pas là, car ailleurs (autre lieu, autre monde – fiction ou idéalité).

Conditions existentiales

Existentiaux

Communauté avec autrui

Monde constitué

Rapport au monde

Ici

Faire

Caressé / caressant

Milieu

Monde des corps

Expérimenter

Là-bas

Percevoir

Croisement des regards

Environnement

Monde des personnes

Explorer

Ailleurs

Dire

Dialogue

Culture

Monde des esprits

Délibérer

Ce qui nous permet, après ce long détour, de revenir à la question du texte. On l’aura compris, il n’y a pas de texte pour une machine. Pour deux raisons, qui sont en fait les mêmes, car elles relèvent de ce que nous avons souligné quant à la duplicité du sémiotique et du vivant. Le texte, dans sa définition sémiotique et herméneutique, renvoie à un sens qu’il délivre sur le mode d’une absence à combler, d’une lecture à produire mais qui ne sera jamais achevée car inachevable : le signe ne se résout jamais en une présence, sauf par la médiation d’une action qui déplace l’ici et maintenant pour faire du là-bas et l’ailleurs l’ici vécu et concret, un présent nouveau. Le texte renvoie donc à un contexte car il relate une parole qui s’adresse à nous et à laquelle il faut répondre. C’est la raison pour laquelle on le lit d’ailleurs. Cette remarque vaut pour tous les types de texte : littéraire, scientifique, administratif, politique, etc. Dès l’instant qu’on se prend à vouloir interpréter, c’est qu’on reçoit le texte comme un message qui nous est adressé, un ailleurs qui manifeste son absence.

Le texte peut certes être représenté par des données. Ces dernières prennent la forme matérielle des signes par lesquels le texte s’adresse à nous. Mais les données ne sont pas des signes : elles sont manipulées par le calcul de manière aveugle comme on l’a dit, ce sont de simples calculi. On ne peut donc attendre du traitement computationnel par la machine un processus de compréhension ou d’interprétation.

Cela ne signifie cependant pas que la représentation sous la forme de données des textes et leur traitement computationnel soient sans intérêt. Car, la manipulation formelle étant sans lien avec le parcours herméneutique de l’interprétation, elle permet de réaliser des assemblages de données que nous, animaux sémiotiques, recevons comme des textes, des signes à interpréter selon le contexte auquel il convient de les assigner. Si la machine ne peut nous parler, elle produit des textes qui nous interpellent et nous somment d’en rendre raison. Parole anonyme la plupart du temps, la comprendre et l’interpréter est pourtant la seule manière pour nous d’en faire quelque chose et de lui donner un statut, un rôle dans nos actions. Ce mode du comme si est bien évidemment un mode régulateur, kantien, où nous assumons l’illusion quasi-transcendantale selon laquelle on fait comme si les données manipulées avaient du sens alors qu’elles n’en ont pas, en tout cas pas un sens constitué par le calcul, mais dérivé de leur histoire et de leur origine.

Il convient alors de replonger les traitements computationnels des textes dans les fils, les tissages de l’interprétation, pour renouer avec l’étymologie du terme « texte ». C’est en discutant entre nous du sens que l’on peut donner aux calculs effectués sur les textes réduits à des données, que ces calculs peuvent retrouver le statut textuel que ces dernières ont de fait perdu en devenant des données.

5. Conclusion

La machine et les traitements computationnels offrent des perspectives inédites à la sémantique et à l’herméneutique dans la mesure où la manipulation calculatoire n’a rien à voir avec les parcours interprétatifs. Au lieu de disqualifier les traitements textuels par des moyens algorithmiques, ce constat situe au contraire là où gît leur intérêt : au lieu de nous enfermer dans la complexité herméneutique de l’interprétation, le calcul permet d’offrir des assemblages formels qu’il nous aurait été impossible de produire sinon. Mais cette possibilité déplace le problème sans le résoudre : si les traitements calculatoires sont sans lien avec le sens, quels statuts donner à leurs résultats ?

C’est là qu’il faut se souvenir que les données manipulées par la machine proviennent de textes qui ont un sens pour nous, c’est-à-dire qu’ils renvoient à un contexte, une historicité, un ailleurs. Parole à nous adressée, les textes produisent à travers les calculs qui s’en emparent de nouvelles configurations de sens à décrypter, comme si elles procédaient du calcul et des données. Ces derniers sont en quelque sorte le prétexte à en faire des textes, mais la textualisation ne peut être que notre fait, nous les vivants sémiotiques, et non celui des machines.

Il serait absurde de ne pas mobiliser et s’emparer des possibilités du calcul pour travailler les matériaux textuels. Mais la duplicité du sémiotique est là pour nous rappeler qu’il ne peut s’agir que d’un surcroît de travail interprétatif, une replongée dans les méandres du sens, pour élargir et tisser de nouveaux fils d’interprétation. Du texte calculé aux textes de son interprétation, ce qui nous rappelle que le traitement algorithmique n’est qu’un intermédiaire, une étape qui ne doit pas se solder par une interprétation paresseuse des résultats. Le principal ennemi du monde de l’esprit, et des mondes partagés constituant nos existentiaux, est somme toute le refus du sens et le travail qu’il exige, ainsi que le désir qu’il suscite et le conatus qu’il préserve. Bref, restons vivants, et nous saurons quoi faire de ces possibilités calculatoires.