Conclusions.
Énonciation et diagrammatisation1

Jean-Marie Klinkenberg 

https://doi.org/10.25965/visible.497

Sommaire
Texte intégral

C’est à un non-mathématicien qu’incombe la tâche difficile de tirer les conclusions de ce colloque dense consacré au thème « Visualisation et mathématisation ». Une tâche qui a elle-même quelque chose à voir avec la mathématisation, puisqu’il s’agit de saisir des invariants au-delà de la variation phénoménale qui a marqué ces deux journées, variation qu’ont manifestée les corpus, les méthodes, les terminologies, les horizons théoriques des participants.

Heureusement, un certain nombre de convergences rassurantes — ou inquiétantes à force d’être trop évidemment rassurantes — sautent immédiatement aux yeux. Ces convergences sont d’abord thématiques : parmi elles, la présence du diagramme, très forte chez Per Aage Brandt, Noëlle Batt et Maria Giulia Dondero mais diffuse dans bien d’autres contributions, ou encore la récurrence de l’opposition entre image scientifique et image esthétique, qui préoccupe Batt, Dondero, Francis Édeline, Jean-François Bordron. Mais il y a aussi des convergences conceptuelles. Ce sont celles-là que je voudrais tout d’abord mettre en évidence, parce qu’elles articulent solidement les textes ici rassemblés au cadre général du programme de l’ANR « Images et dispositifs de visualisation scientifique » (IDiViS) dans lequel le présent colloque prend place, comme aussi à la discipline qui vertèbre le projet : la sémiotique.

1. Paradigme référentialiste vs paradigme énonciatif

L’accent mis, tout au long de ces journées liégeoises, sur la question de la production des dispositifs visuels, des conditions d’émergence du sens (notamment par Dondero), des stratégies d’énonciation (qui ont mérité tous les soins de Paolo Fabbri) comme aussi sur la puissance argumentative de l’image, à quoi je vais revenir, n’est rien d’autre que la trace d’un retournement épistémologique aux conséquences si considérables qu’on peut à bon droit parler de changement de paradigme.

Jusqu’il y a une bonne cinquantaine d’années, la perspective référentialiste, durement critiquée ici par Fabbri, était assurément dominante. « Les théories de la physique classique », nous rappelle le Prix Nobel Louis de Broglie, « se sont développées en admettant la réalité du monde physique et en cherchant à en obtenir des représentations concrètes » (1967, p. 706). L’observation elle-même portait bien atteinte à l’état de chose existant à l’instant précédant la mesure ou l’observation, « mais il n’y avait là rien qui parût porter atteinte à l’idée qu’il existe à chaque instant une réalité physique bien déterminée, extérieure aux hommes qui l’observent ». Et même si dans la science moderne, les représentations théoriques obtenues par la recherche tendaient à s’exprimer dans le formalisme mathématique, il n’en reste pas moins que ce formalisme ne remettait pas en question « le caractère concret du monde physique dont les formules mathématiques n’avaient pour but que de donner une description plus ou moins exacte » (ibidem).

Mais ce paradigme référentialiste a lui-même une histoire. Alain Herreman nous explique bien ici que les formulations les plus totalisantes du principe de référentialité dépendent d’un moment fondateur décisif où elles se voient discursivement produites.

Dans le nouveau paradigme — que l’on peut nommer énonciatif —, l’image scientifique (comme d’ailleurs le discours scientifique dans son ensemble) n’est plus réputée renvoyer à ce qui est — ou était — déjà là, mais à ce qui se fait : ce thème est récurrent chez Dondero, Batt, Giuseppe Longo, Olivier Rey. Les schémas donnés à voir sont désormais les expressions d’hypothèses, et non des images d’objets préexistants (ce que démontre Salomon Marcus en mettant en évidence le rôle des métaphores diaphoriques, et non épiphoriques) : l’objet émerge du processus de représentation. Du coup, l’image scientifique, et particulièrement le diagramme, cesse d’être une simple illustration du raisonnement, mais participe pleinement à ce dernier (comme le fait voir Batt). Si l’image scientifique doit continuer à être décrite comme une icône, concept qui n’a rien perdu de sa validité (cfr Groupe µ, 1992), on ne doit plus entendre ce mot comme renvoyant à la représentation d’un objet identifié préalablement, et dont la connaissance serait le critère de validité de ladite icone. L’icône ne donne plus lieu à la vérification d’une ressemblance ou à la mesure d’une distance qu’un stimulus prend avec un référent connu (grâce aux transformations qui ont fait l’objet d’un des tous premiers colloques du programme IDiViS) : c’est un mécanisme de formulation d’hypothèses et de formalisation de données. C’est un processus, et non plus un état. On comprend dès lors qu’au lieu de parler d’icône, plusieurs participants au colloque préfèrent utiliser des formulations revêtant une dimension aspectuelle : ils parlent ainsi d’un processus d’iconisation en cours. Car l’image n’est plus la fille d’un référent : elle est « en quête de ce référent », selon une formule de Dondero.

Massivement illustré dans les textes ici offerts au lecteur, ce changement de paradigme n’est pas neuf, mais en cours depuis un certain temps. Et on sait quel fut son moteur : l’élaboration de la physique contemporaine, et spécialement les nouvelles théories des particules. Celles-ci ruinent en effet la conception atomiste classique, où ces particules sont conçues comme des objets identifiables dotés d’une position déterminée dans le temps et dans l’espace pour ne plus leur donner plus que le statut d’entités mathématiques. Le comportement de ces entités peut certes être modélisé, mais l’éventuel substrat physique de ce comportement est indécidable.

Il pose toutefois deux questions, qui ne sont pas encore entièrement résolues. Il y a d’un côté celle du statut problématique que peut encore conserver l’approximation du réel, dont on a fait longtemps l’horizon de la science et de l’autre celui de la validité du processus de production de l’image scientifique.

Note de bas de page 2 :

Qu’il ne faut d’ailleurs pas caricaturer, dans un geste polémique. Vincent Israel-Jost, dont la contribution au colloque n’est pas reprise ici, y a bien mis en évidence les limites qu’on a toujours reconnues à l’observation.

Du premier côté, le modèle référentialiste2 n’a pas disparu. Il a non point survécu, mais trouvé une nouvelle jeunesse, grâce à plusieurs aggiornamenti, le principal étant à chercher du côté de la morphologie. On pense ici aux travaux de René Thom sur les formes naturelles (1972), poursuivis par Jean Petitot (1992, 1996), et qui mettent en évidence que des phénomènes auto-organisateurs existent déjà spontanément dans le substrat naturel : « Les formes ne sont pas seulement des constructions perceptives mais possèdent des corrélats objectifs » (Petitot, 1996, p. 67). La forme, que l’on retrouve dans l’image, est donc le phénomène de l’organisation de la matière. Une thèse qui a parfois des accents hylozoïstes, en dépit des reformulations que leur donnent Zeeman (1977) ou Chazal (1997), et volontiers reprise par la sémiotique philosophique. Ainsi pour Jean-François Bordron, « il faut (…) que ce qui se présente comme devant être catégorisé soit en quelque façon en puissance de catégorisation » (2000, p. 12) et il s’agit d’admettre « qu’il existe une phénoménalité des entités du monde » (1998, p. 99).

La question du rapport entre ce référentialisme-là et la perspective énonciative devra être abordée un jour ou l’autre. Même si l’on ne va pas jusqu’à l’antiréalisme textualiste radical représenté par Bruno Latour, qui relaie les positions de l’empirisme anglo-saxon défendues par Rorty, Putnam et d’autres, ce qui a été dit plus haut souligne en tout cas le caractère infranchissable de la distance entre les deux positions. (Celle-ci a bien été mise en évidence par Francis Édeline dans son commentaire sur les fractales lesquelles, pourtant, apparaissent aux yeux de beaucoup comme les formes mathématiques les plus aptes à rendre compte du réel). On ne peut en tout cas faire coexister aujourd’hui Latour et Petitot, sauf au prix de l’incohérence.

2. Action

Revenons à la production de l’image scientifique.

Autant qu’une hypothèse, ce qu’elle note est un tracé, ou mieux : un geste, comme Rey et Longo le montrent abondamment. De ce geste, qui est un produit du corps et est donc déterminé par ses propriétés (« Le corps et l’esprit coopèrent pour faire advenir le virtuel », dit Batt), même un Descartes n’a pu se défaire, comme l’a démontré Laurence Bouquiaux. Le corps se trouve de la sorte à l’origine de l’abstraction mathématique, comme il est à l’origine de tout mouvement d’abstraction. Longo parle ainsi d’abstraction « préconceptuelle », comme mémoire d’un geste protensif.

Cette conception entraine-t-elle que l’on accorde de nouvelles fonctions à l’image ? J’y reviens au paragraphe suivant. Mais il faut déjà noter qu’elle renvoie à une perspective plus générale, qui excède la question de l’image scientifique : celle de la connaissance. Prévaut largement dans les textes ici rassemblés la perspective selon laquelle « c’est l’action qui constitue la connaissance », selon la formule de Bailly et Longo (2006, p. 57), lesquels renvoient à celle de Giulio Preti, pour qui « toute la connaissance est expérience », et s’inscrivent dans la lignée de John Dewey dont on sait qu’il fait de la connaissance « le processus à travers lequel la proposition est construite comme vraie ». À la suite du Groupe µ (1992), Rey fait bien ici de la connaissance visuelle, plus particulièrement visée par ces journées, une modalité de l’action.

Note de bas de page 3 :

Voir e.g. Groupe µ, 2011.

De la conception que nous avons de la connaissance, on passe évidemment à la conception que nous avons du sens. La conception pragmatique qui se dessine avec le paradigme énonciatif tend à s’opposer à ce qui a longtemps constitué un noyau dur de la sémiotique européenne, que le principe méthodologique d’immanence — simplement adopté « pour écarter de la théorie sémiotique toute querelle métaphysique » et « éviter toute prise de position ontologique » (Greimas et Courtès, 1979, p. 181) — a fait dériver vers l’essentialisme, voire le platonisme. Grâce au nouveau paradigme se dessine ainsi la perspective d’une sémiotique corporalisée, qui ne devrait d’ailleurs pas hésiter à aller chercher son inspiration du côté de la phylogenèse. Mais une telle sémiotique3 ne saurait substituer un autonomisme neuronal (défendu par Varela, pour qui le système nerveux est entièrement clôturé sur lui-même ; il « n’a ni entrée ni sortie ; et aucune caractéristique intrinsèque de son organisation ne lui permet de distinguer, par la dynamique de ses changements d’état, l’origine interne ou externe de ces changements » ; 1989, p. 150) à l’autonomisme idéaliste : elle devra nécessairement être interactionniste. Plutôt que d’action, il faut en effet parler d’interaction, avec le milieu comme avec le partenaire.

3. Visualisation

Davantage que le langage, la visualisation semble être l’interface la plus indiquée entre la pensée scientifique et le sujet humain, ce que note bien Longo. La science vise à expliquer les phénomènes, nous rappelle utilement Marcus, et le fait est qu’elle s’y prend de préférence par une démarche de visibilisation : « Porter l’invisible au visible », selon la formule de Monique Sicard (1998, p. 9), tel est son programme. Pas plus dans l’image quelconque que dans l’image scientifique — mais la chose doit être vigoureusement soulignée dans le cas de cette dernière —, l’indicialité de l’image scientifique ne doit être conçue de manière naïve : l’image n’est pas un instrument de reproduction, mais bien un instrument d’intellection, ce que démontre abondamment Luciano Boi.

Dans ce processus, deux nouvelles fonctions échoient désormais à l’image.

La première fait d’elle une modalité généralisante de l’information fournie par les observables (ce qui rompt avec l’idée qu’une image est toujours locale, et particularisante) : il s’agit bien pour elle d’exprimer la dynamique génératrice des structures profondes. J’y reviens ci-après au paragraphe 5.

Note de bas de page 4 :

L’argumentation a été en 2010 le thème du congrès de l’AISV (Association internationale de sémiotique visuelle, International Association for Visual Semiotics, Asociación internacional de semiótica visual), que je préside. À l’occasion de ce congrès, dont le thème est « Rhétorique du visible. Stratégies de l’image entre signification et communication » et qui s’est tenu à Venise du 13 au 16 avril 2010 (cfr Migliore, 2011), le réseau du projet « Images et dispositifs de visualisation scientifique » a tenu un de ses colloques, fort logiquement consacré au thème « Rhétorique du visible et images et dispositifs de visualisation scientifique ».

La seconde fait d’elle un instrument d’argumentation : selon la formule de Francis Édeline (2011), « une image ne démontre pas, elle convainc ».4 Cette argumentation est connaturelle au discours scientifique, dont l’obligation de communiquer est soulignée par plusieurs intervenants : l’image joue donc un rôle médiateur, occupant une place intermédiaire entre les observables et le formalisme mathématique. Mais on comprend qu’une bonne partie du discours scientifique récuse ce rôle et se méfie de l’image, qu’il voudrait voir disparaitre au profit du formalisme : non seulement il entend prendre ses distances avec le sensible, l’intuition, l’imagination, mais, surtout, il redoute le relativisme que la prise au sérieux de cette tâche présuppose : pointer le caractère argumentatif de la visualisation, c’est du même coup admettre son caractère provisoire.

4. Vision

La visualisation est davantage que la vision. Mais la première est rendue possible par la seconde, et on ne saurait les opposer. Il n’y a pas, en effet, de vision qui ne soit modélisatrice, structurante et sémiotisante (sur ceci, cfr Groupe µ, 1992), « diagrammatisante » diraient certains participants au présent numéro. Si la visualisation est, selon Vivien Lloveria, le processus qui consiste à rendre visible pour homogénéiser l’hétérogène afin de lui donner sens, c’est bien ce que fait déjà la simple vision, grâce au double mécanisme d’égalisation des stimulations correspondant aux plages perçues et de différenciation de ces plages.

Note de bas de page 5 :

Cfr Groupe µ, 1992, Dondero & Moutat, 2010, Klinkenberg, 2010a.

Pourquoi ce tropisme du discours scientifique pour la vision ? et plus généralement pourquoi ce privilège apparent de la vision dans toutes les démarches de la connaissance ? En soi, la notion de transformation5 est indifférente au canal choisi : on pourrait, par exemple, transformer un phénomène thermique en une image sonore, ou un phénomène spatial en une image faisant intervenir des différences de rugosité. Mais il est de fait que les transformations à aboutissement visuel semblent jouir d’une préférence dans nos représentations et leur puissance cognitive est reconnue depuis la plus haute Antiquité (pour Aristote, de tous nos sens, la vision « est celui qui nous fait acquérir le plus de connaissances »). Donc, pourquoi « faire voir à tout prix » et ne pouvoir se passer d’images ? Question que je posais déjà, sous ce titre, lors d’un des précédents colloques du programme « Images et dispositifs de visualisation scientifique » (Klinkenberg, 2010b).

Une première caractéristique, que la vision partage avec l’ouïe, est que toutes deux permettent le traitement des données à distance. Elles garantissent ainsi la capacité de suivre et d’anticiper les mouvements et les trajectoires, capitale pour le vivant (Longo) ; mais elle autorise également la gestion de la densité : une gestion différenciée qui permet de faire varier l’appréhension phénoménologique du sens de l’image (et du coup, de fonder la différence entre image scientifique et image esthétique, ce qu’établit Bordron).

Le privilège du canal visuel est aussi dû à sa relative puissance, qui lui permet de traiter un grand nombre d’informations dans un laps de temps donné (107 bits par seconde, soit sept fois plus que l’oreille) et autorise une puissante discrimination des données en même temps que leur aperception simultanée. En permettant d’embrasser l’espace, qui est un des paramètres importants de maints phénomènes scientifiques, la vision permet aussi d’exprimer des relations tabulaires : ce qui revêtira toute son importance ci-après dans mon paragraphe 5, conclusion de mes conclusions.

Distance et puissance confèrent aux produits de ce canal une forte valeur opérationnelle. Si toute sensorialité autorise le jugement et la décision, et permet ainsi au sujet de simuler l’action, d’anticiper ses conséquences, d’adopter les attitudes et les comportements adéquats, distance et puissance donnent aux catégories établies grâce à la vision une forte valeur de survie dans l’environnement. Or ces caractéristiques affectent sans nul doute les modalités du processus de désensorialisation par lequel passe le travail de catégorisation (Groupe µ, 2004). Car l’élimination du sensoriel dans la pensée scientifique n’est qu’une tendance : si la physique, la chimie, l’hydraulique, et en général les sciences dites de la nature, comportent de nombreux résidus sensoriels, les mathématiques, par contre, en sont davantage exemptes. Mais elles présentent tout de même encore des traces, réelles ou projetées, de sensorialité, notamment dans les métaphores qu’elles mobilisent.

5. Le diagramme enfin

Après ce qui n’a pas été un détour et qui nous a mené de l’action et de la visualisation à la vision, nous sommes armés pour revenir au diagramme, qui a mérité toute l’attention de Brandt.

Une question restait en effet pendante, que son examen va permettre de résoudre : si l’on put souligner l’efficacité des mathématiques (si remarquable que l’on a même pu parler à leur endroit de « réussite exagérée » : Wigner, 1960), à quoi est due la particulière rentabilité du binôme mathématisation-visualisation ?

La réponse tient en un seul mot : médiation.

Dans sa contribution, Marcus cite Thom (1993), pour qui « on comprend seulement ce qui est continu, mais on voit effectivement seulement ce qui est fini. » Or le binôme mathématisation-visualisation permet de négocier l’écart entre le visible et l’intelligible, et autorise l’approximation du fini par l’infini et vice-versa. Et cette médiation, c’est assurément le diagramme qui s’en charge le mieux, notamment en ce qu’il permet de médier le local et le global, le général et le particulier.

L’ensemble du dispositif qu’est le discours scientifique exprime la généralité. Comment pourrait-il en aller autrement, dira-t-on, dès lors qu’il sert le discours scientifique, et qu’il n’y a de science que du général ? Mais il faut aller au-delà de ce slogan, qui a le gout de la pétition de principe, pour constater que la mission d’exprimer la généralité est inégalement répartie au sein du dispositif : la formalisation mathématique se situe résolument du côté du général, le texte argumentatif oscillant entre les deux pôles (tantôt il formule verbalement les propositions générales exprimées avec plus de compacité par la formule ; tantôt, il se réfère à des faits particuliers). Le diagramme permet d’échapper à cette oscillation. S’il permet également une expression des deux pôles, c’est cette fois sous la forme d’une conjonction, rendue possible par la tabularité, laquelle provient elle-même des potentialités de la vision.

Le diagramme exprime en effet à la fois le général et le particulier. Il particularise une première fois parce qu’il attribue des contenus aux lois. Il le fait aussi parce que sa tabularité permet d’observer un point particulier où s’applique la loi générale exprimée par la formule, de faire arrêt sur lui. Mais le nombre de ces points d’arrêt est infini, puisque le diagramme exprime aussi le continu. Il permet donc de saisir les faits — des grandeurs, des phénomènes physiques, des phénomènes sociaux… — dans le continu de leur réalisation ; il permet de parcourir toute la série des formes particulières qu’ils prennent. Il rend donc compte simultanément des particuliers — de la totalité des particuliers — et de la généralité qui engendre cette totalité ou qui en est l’expression.

Note de bas de page 6 :

Sur tout ceci, cf. Klinkenberg, 2009.

Comme la formule, le diagramme a une fonction d’analyse, mais si la formule exprime toutes les potentialités de cette analyse, elle le fait de manière intemporelle, et donc statique. Par son orientationnalité, qui permet de parcourir la totalité des actualisations, le diagramme introduit dans l’analyse une dimension dynamique. Ici encore, intemporalité et processualité connaissent une dialectique dont le résultat est la simultanéité6.

En mettant en place une « interaction permanente de l’intelligible avec le visible » (Marcus), le binôme mathématisation-visualisation permet ainsi une action nouvelle : conce-voir : autrement dit, accéder à un voir conceptuel.