Une image ne démontre pas, elle convainc

Francis Edeline 

https://doi.org/10.25965/visible.164

La démarche scientifique consiste, dans un premier temps, à décrire correctement le monde réel. Dans un second temps elle cherche à fournir de cette description un équivalent symbolique, appelé modèle, dont le fonctionnement soit capable de reproduire, aussi fidèlement que possible, les caractéristiques spatiales et temporelles du monde réel. Dans l’ensemble de ces opérations le scientifique fait presque toujours appel à la visualisation, quoique ce ne soit pas strictement indispensable, et fasse même courir le risque de tomber dans divers pièges.
Si l’image reste néanmoins universellement utilisée, c’est qu’elle présente par ailleurs des avantages, au premier rang desquels la possibilité d’embrasser d’un seul coup d’œil l’ensemble d’un phénomène ou d’un processus. C’est sur une image qu’on perçoit le mieux la correspondance entre un modèle et des points expérimentaux, et c’est donc d’ordinaire l’image qui conditionne le degré de conviction du chercheur.
Néanmoins seuls le langage logique et le langage mathématique ont valeur démonstrative. Il suffit d’ébaucher une théorie de la mesure pour s’apercevoir que la transposition du domaine des nombres à celui des images ne peut être qu’approximative. On soulèvera également le problème épistémologique du statut exact du concept de modèle, c’est-à-dire de la possibilité même de faire correspondre une équation au monde réel. Il apparaîtra qu’une modélisation est toujours un compromis entre deux excès : l’excès de généralité et la surparamé-trisation.

Sommaire
Texte intégral

À l’issue des six années consacrées, par notre groupe, à l’étude de l’image scientifique, nous devons entériner le fait qu’il existe non pas une mais des images scientifiques, de types et de fonctions diverses. Les six catégories qui me paraissent le plus nettement individualisées sont :

  • Figures abstraites (logico-mathématiques)

  • Images-sources (enregistrements visuels ou convertis en visuel)

  • Diagrammes conceptuels (soutiens d’un raisonnement ou d’une expérience de pensée)

  • Nomogrammes (sortes de machines à calculer graphiques)

  • Schémas

  • Graphiques expérimentaux ou Images de travail

Note de bas de page 1 :

Francis Edeline, « L’image scientifique comme lieu de travail », VISIBLE n° 8, p. 167-183, PULIM, Limoges, 2011.

Celle qui sans conteste a reçu de nous le maximum d’attention, c’est l’image-source. Le nomogramme par contre a été à peine mentionné, à part les quelques mots que je lui ai consacrés à Strasbourg1. Si je fais cette énumération, c’est pour préciser que je m’adresserai ci-après exclusivement à l’image mathématique (un petit peu) et à l’image de travail (surtout).

1. L’évolution intersémiotique de l’image

On se souvient que beaucoup d’auteurs, et non des moindres (Hjelmslev et Barthes !) estimaient que le langage était le système de signes le plus efficace et le plus complet, et que tous les autres systèmes, sans exception, pouvaient être traduits en termes linguistiques. Le travail de notre groupe, consacré à un corpus gigantesque d’images scientifiques visuelles, leur donne tort. La mathématique, par exemple, est à l’étroit dans le code linguistique. Paralysée par ses insuffisances, la réflexion mathématique, et plus généralement scientifique, n’a pu les surmonter que par un recours systématique à l’image. Je me propose d’examiner la principale de ces insuffisances : la séquentialité.

Note de bas de page 2 :

Jean-Marie Klinkenberg, « La relation texte-image. Essai de grammaire générale », Bulletin de la Classe des Lettres, Académie royale de Belgique, 6° série, Tome XIX, 21-79, 2008. En ligne <20090128_Klinkenberg.pdf>

L’écriture des mathématiques et de la logique est devenue intersémiotique, dans le sens où elle utilise simultanément (et non conjointement comme dans les énoncés pluricodes étudiés par Klinkenberg2) les mécanismes des codes linguistique et visuel.

Par exemple la simple écriture des quotients

Image 10000200000000130000001FA8D884C3.png

(qu’on lit a sur b) est déjà une entorse à la linéarité puisque cette disposition introduit dans l’écriture trois niveaux au lieu d’un seul. Avec

Image 100000000000001B000000240ADA42BE.png

c’est cinq niveaux qui apparaissent. Par ailleurs le répertoire des signes s’est avéré lui aussi insuffisant et il est devenu courant d’utiliser dans le même énoncé des polices différentes : R, ℑ, ℵ etc.

ainsi que des signes inventés comme Nabla :

Image 100002000000000B0000001C00608054.png

On constate dans ces exemples une compétition entre deux forces ou objectifs : clarté de saisie pour l’esprit vs regroupement économique. On recherche le meilleur compromis, et c’est un compromis zipfien. Le regroupement est une caractéristique fondamentale du fonctionnement nerveux et de la pensée (qui procède par catégorisation et hiérarchisation).

Note de bas de page 3 :

Ibid.

Note de bas de page 4 :

Et il y en a bien d’autres : polaire, triangulaire, elliptique, bi- ou semi-loga-rithmique, probit, Rosin-Rammler etc.

Si le langage mathématique tend à devenir intersémiotique par le recours à des dispositifs non linéaires mais spatiaux (caractéristiques des codes visuels), un mouvement inverse est notable dans l’image scientifique. Dans cette dernière en effet le langage n’est pas absent (ce qui en fait un énoncé pluricode selon Klinkenberg3) mais en outre et surtout des contraintes sont introduites dans l’occupation de l’espace, qui se structure et se rapproche ainsi d’un langage selon une évolution intersémiotique. Les points expérimentaux ne peuvent se disposer n’importe où, comme dans une simple peinture, mais doivent se conformer à un formatage rigoureux dont l’exemple le plus simple est le diagramme cartésien4.

En définitive les deux systèmes vont à la rencontre l’un de l’autre : le langage devient image et l’image devient langage. Généralement dans de tels cas on parvient peu à peu et automatiquement à un état d’équilibre optimal. On se demandera alors ce qui est si précieux dans l’image, quel est le secours essentiel qu’elle apporte au langage.

En premier lieu on n’oubliera pas qu’avec l’image scientifique il ne s’agit pas d’explorer le monde par le sens de la vue. Elle n’est pas une transformation géométrique des formes visuellement perceptibles comme le seraient un portrait ou une photographie. Son rapport au monde est d’une autre sorte, comme on le verra au §3. On découvre alors que ce n’est pas la totalité des dimensions du signe visuel (forme, couleur, texture) qui est ainsi « squattée » par la pensée mathématique : seule la forme entre en ligne de compte, les deux autres ayant un rôle tout à fait secondaire. La raison en est simple : ces derniers sont des continuums qui concernent des surfaces et ils ne sont qu’imparfaitement discrétisables, de sorte que leur capacité à porter de l’information est très limitée. C’est donc la ligne, et la forme qu’elle peut prendre, qui sont comme le verra les porteurs les plus concentrés de l’information impliquée dans une modélisation.

Le cerveau prend connaissance des énoncés via les sens, avec des limitations spécifiques à chacun d’eux. Cette question est examinée plus en détail à l’Annexe I.

Prenons le cas d’une démonstration logique ou mathématique. En termes absolus elle ne fait nullement intervenir le temps : elle est essentiellement tautologique, et sa conclusion est déjà instantanément présente dans ses prémisses. Néanmoins pour la communiquer nous aurons recours au langage qui, par son caractère linéaire, la narrativise. Joue alors la contrainte de l’épaisseur du présent, qui nous empêche de la saisir globalement si elle est quelque peu complexe. En nous aidant d’une disposition visuelle, spatiale, des étapes successives du raisonnement, nous échappons à cette contrainte grâce à la synopsie, qui nous permet de voir ensemble lesdites étapes, et qui est devenue de ce fait le puissant adjuvant de la pensée que nous connaissons. Deviennent disponibles simultanément le pas à pas de la démonstration et l’ensemble du processus. L’image se comporte comme une mémoire externe : on dira qu’elle dilate le présent et que, ce faisant, elle corrige partiellement l’artifice que constitue l’introduction du temps (sous la forme d’un séquençage narratif) dans la démonstration. La conviction pourra ensuite découler de la saisie globale ainsi obtenue.

Mais ceci n’est peut-être pas encore « le tout » de la conviction : cette sorte d’« éclair » par lequel une démonstration est « adoptée », prise en charge sans réserve, avec sincérité, « comme si nous l’avions trouvée nous-même », certain de pouvoir la refaire. C’est donc aussi une « participation », dont les aspects psychologiques ne me semblent pas encore clairement cernés.

2. Les modèles

Note de bas de page 5 :

Dans la suite de cette étude il s’agira toujours de modèles conceptuels, sachant qu’il existe aussi des modèles matériels, p.ex. les boules et tiges de métal utilisées pour représenter des molécules (ces derniers ont été bien étudiés notamment par Eric Francoeur, « Beyond dematerialization and inscription.- Does the materiality of molecular models really matter? » HYLE.6 n°1, 2000, p. 63-84.

Note de bas de page 6 :

Voir par exemple Jean-Claude Falmagne, « Mesurage, modèles mathématiques et psychophysique », Traité de psychologie expérimentale. Ed. Marc Richelle, Jean Requin, Michèle Robert, PUF, Paris, 1994 (I/3), p. 84 et sv.

Note de bas de page 7 :

Ibid. p.79.

Quittons à présent le domaine logico-mathématique pour examiner l’image de travail dans les sciences appliquées, et demandons-nous en quoi consiste exactement un modèle5. Cela nous amènera à esquisser une approche sémiotique de la mesure. En psychologie expérimentale, la théorie du mesurage reste quelque peu ambiguë6. Le mesurage consiste à « assigner un nombre » à une grandeur perçue, « en tant que mesure » de cette grandeur. La légitimité de cette assignation est garantie par l’intuition, laquelle « vient certainement de ce que notre expérience personnelle du monde physique nous a convaincus qu’il obéit à certaines contraintes ou lois ». La perception est donc clairement impliquée. Mais par ailleurs on nous avertit7 que le codage de données expérimentales dans un langage formel « appauvrit l’expérience et la concrétise. Il rend possible la construction de modèles, mais aussi en impose les limites. En effet, un modèle se définit sous la forme de propositions énoncées dans les termes de ce langage, et contraignant les protocoles expérimentaux possibles. » [je souligne] Mais la confiance que nous accordons aux transpositions numériques vient surtout, me semble-t-il, de leur réversibilité : à l’issue d’un calcul, les valeurs numériques peuvent être retransformées en grandeurs physiques à nouveau directement accessibles à l’intuition.

La modélisation comporte quatre étapes successives, chacune étant génératrice d’imprécision. La fig.1 montre que deux de ces étapes se situent dans le monde physique et les deux autres dans la sphère mentale ou symbolique.

image

Étape (a)

Au moyen d’observations ou d’expérimentations on enregistre un corpus de points expérimentaux. On passe ainsi des grandeurs physiques (pressions, températures, vitesses…) à des nombres. Bien évidemment la précision des moyens mis en œuvre va déjà jouer à ce stade, sans parler des relations d’incertitude qui règnent à l’échelle subatomique. Mais plus fondamentalement nous faisons par là même confiance en l’hypothèse que les propriétés des nombres, les lois dont parlait Falmagne ci-dessus (en particulier la continuité et l’existence d’une unité invariable) sont les mêmes que celles de la nature. Or si nous sommes certains que le millième euro de notre fortune a la même valeur que le premier, sommes-nous aussi convaincus qu’un degré centigrade entre 87 et 88°, dans de l’eau qui va bouillir, soit identique à un °C entre -7 et -6°, dans de la glace ?

L’ensemble de l’étape (a) va se traduire par une table de correspondance, souvent appelée légende ou table des symboles, entre les diverses grandeurs physiques et un symbole qu’on leur aura attribué (fig.2). On est ainsi passé au plan symbolique, par la voie d’une conceptualisation : ce qui a une énorme portée au plan du réalisme, et j’y reviendrai en détail plus loin.

image

Étape (b)

Une fois sur le plan symbolique des nombres, on y reste pour élaborer un modèle mathématique dans lequel les symboles (et leurs valeurs numériques) sont engagés dans des relations, et dont l’état final sera une équation (fig.3).

image

Le choix de cette équation est orienté par l’examen visuel de la disposition des points expérimentaux. Dans le cas de l’exemple (fig.4) nous rechercherons une équation pouvant engendrer une courbe, ascendante, monotone, à concavité tournée vers le bas, et asymptotique.

image

En l’écrivant, nous faisons à nouveau confiance en des hypothèses très lourdes, qui consistent à admettre que la correspondance entre le plan symbolique et le plan réel se poursuit. En particulier

  • qu’il existe dans le monde réel des constantes ;

  • que des propriétés telles que l’additivité (à laquelle se ramènent en somme toutes les autres opérations) y règnent aussi ;

  • qu’il existe dans la nature des lois générales ;

  • qu’il existe des lois de conservation (de la masse, de l’énergie, de la quantité de mouvement… peu importe) que l’on pourra manifester par le signe =, caractéristique de toute équation (un illuminé créationniste n’a pas le droit d’écrire une équation).

Cette étape n’entraîne comme erreurs que celles liées à l’oubli de facteurs actifs ou à des hypothèses simplificatrices.

Étape (c)

Cette étape consiste à calculer des valeurs théoriques à l’aide du modèle, et donc entraîne des erreurs d’arrondi dans le calcul du résultat final. Ensuite on visualise ces résultats par des tracés graphiques, qui sont exécutés avec des instruments imparfaits, donnant des traits ayant une épaisseur, des points non ponctuels et des angles approximatifs. On produit ainsi une image de travail où figurent simultanément les points expérimentaux provenant du monde naturel et les valeurs calculées issues du modèle conceptuel (fig.4). C’est donc un lieu de contact entre le sujet et l’objet. Elle opère un retour au monde physique.

Étape (d)

Il reste à comparer les valeurs observées aux valeurs calculées. C’est ici que la puissance de conviction du canal visuel se manifeste à plein, car un tableau de chiffres n’a guère le même pouvoir. Le degré de correspondance entre les deux séries de valeurs est apprécié visuellement d’abord, puis calculé à partir de leurs écarts ε. Une partie des écarts provient des imperfections et erreurs relevées plus haut (… et qui ne se compensent pas nécessairement, comme on aimerait à le croire !), et le reste est dû à l’imperfection du modèle lui-même. Idéalement ε ne doit pouvoir être corrélé à rien. L’analyse de l’erreur revêt donc une importance cruciale, sur laquelle je reviendrai plus longuement, exemples à l’appui. On observera enfin que l’ensemble des quatre étapes forme un cycle fermé, et même une boucle, fait sur lequel je reviendrai également.

Note de bas de page 8 :

Les chercheurs européens ont tendance à privilégier l’approche hypothético-déductive (ils cherchent avant tout à comprendre), alors que l’approche anglo-saxonne est plus volontiers empirique (on renonce à comprendre, voire on estime qu’il est vain d’essayer de comprendre, et on se satisfait de décrire).

Devant un ensemble de données expérimentales, un grand nombre de modèles sont concevables. On peut les diviser en deux grandes classes : les modèles rationnels ou hypothético-déductifs, et les modèles empiriques ou descriptifs. De nombreux modèles se situent toutefois entre les deux : partis d’une formulation rationnelle stricte, ils ont ensuite amélioré leurs performances par l’introduction de paramètres correcteurs empiriques8.

Un modèle est dit « théorique » lorsqu’il s’inscrit dans le cadre d’une théorie générale préexistante. Un tel modèle doit avoir une valeur explicative et non simplement descriptive. Être explicatif signifie (a) avoir identifié tous les facteurs en jeu (ou au moins les principaux), et (b) proposer entre eux des relations quantitatives validées par l’expérience. Un modèle simplement descriptif, plus souvent appelé empirique, peut se révéler très supérieur dans sa correspondance avec les faits observés, mais il ne possède aucune valeur explicative. Lorsqu’on a établi d’un processus un modèle empirique, même extrêmement satisfaisant sur le plan descriptif et même prédictif, on ne peut aucunement prétendre en avoir trouvé le sens.

Il est piquant d’illustrer ce point à partir justement des théories de la perception, en particulier visuelle, où se rencontre précisément la compétition entre les deux approches (voir fig. 5). Le modèle de Weber-Fechner est un bon exemple d’approche hypothético-déductive à haute valeur explicative mais à pouvoir de prévision limité. Le modèle semi-empirique de Stevens par contre est dénué de valeur explicative : l’exposant p qu’il contient n’a aucune signification bio-physique, et de plus il rend l’équation fortement non-linéaire, mais son équation « colle » mieux aux faits.

image

Une autre faiblesse constitutive des modèles empiriques est qu’ils ne fonctionnent qu’entre les limites des valeurs observées ayant servi à les établir : ils ne peuvent être extrapolés, alors que les modèles hypothético-déductifs le peuvent. Illustrons ce point par un exemple. On a calculé que la distribution diurne de la concentration des eaux d’égout de la ville de Minneapolis (en 1971) pouvait être normalisée en y ajustant un polynôme du 4° degré, pour tenir compte des pics et des creux observés dans l’évacuation (2 max. et 2 min.). La concordance est excellente, mais le modèle ne peut évidemment être utilisé pour des prévisions, car dans la réalité le cycle se reproduit chaque jour alors que le modèle n’est pas cyclique.

On voit à quel point le sens de la vue est impliqué dans ces procédures, même si le dernier mot appartient toujours au calcul.

3. Le réalisme

Note de bas de page 9 :

Colin Cherry, On human communication. New York, Science editions, John Wiley, 1961, p. 62.

Dans le travail scientifique on est toujours pris en tenaille entre deux souhaits quasi-antithétiques : le souhait rationnel de comprendre ce qui se passe dans la nature, et le souhait pragmatique de la prévoir avec précision afin d’agir sur elle avec efficacité. Le premier souhait conduit nécessairement à une simplification, donc à une description approximative du réel. En outre cette compréhension a son siège dans la sphère mentale, où elle prend une forme symbolique et s’exprime par des concepts : or le symbole est par définition distinct de la chose signifiée, et le concept n’est pas un objet de la nature (en d’autres termes : la nature ne fonctionne pas à coups de concepts). C’est ce qui a conduit beaucoup de philosophes des sciences à nier qu’un modèle ait une quelconque ressemblance avec les phénomènes qu’il prétend décrire. Ce débat épistémologique sur le statut ontologique des modèles est crucial, mais ce n’est pas ici le lieu de l’aborder, sinon pour préciser que nous ne pouvons accepter ni le réalisme inconditionnel ni l’antiréalisme radical et penchons pour une solution interactive, dont précisément l’« image de travail » est la parfaite illustration. Nous adhérons donc, en tant que sémioticiens cognitivistes et interactionnistes, parmi toutes les formes de réalisme énumérées par Petitot et d’autres (fig. 6), à un réalisme modéré. Avec Colin Cherry9 nous pensons que la nature n’est pas intrinsèquement signifiante. Nous en recevons des signaux et non des signes. La nature « ne coopère pas », car « il n’y a pas de lien de type communicationnel avec le monde naturel ».

image

Certains aspects de l’option choisie quant au réalisme ne peuvent néanmoins être passés sous silence, car ils ont une incidence directe sur la façon de concevoir et de traiter les modèles. Trois cas me paraissent se dégager, et on voit immédiatement que le type d’équation susceptible de modéliser chacune de ces options est fondamentalement différent :

Option déterministe

  • Forme classique : Natura non facit saltus.

  • Formes actuelles : pour Thom c’est le contraire, nous ne percevons que des discontinuités ; selon la théorie du chaos, une sensibilité extrême aux conditions initiales, conjuguée à l’impossibilité pour nous de les mesurer avec une précision absolue, conduit à des états en apparence chaotiques mais néanmoins strictement déterminés.

Option indéterministe

Note de bas de page 10 :

Norbert Wiener, Cybernétique et société - l'usage humain des êtres humains. Paris, 10/18, 1962, p. 10.

  • pour Wiener10 : « le hasard est non seulement (…) un instrument mathématique au service de la physique, mais (…) une partie de la trame et de la nature de la Nature. »

Note de bas de page 11 :

Ibid., p. 7.

Note de bas de page 12 :

Et les relations d’incertitude le confirment quantitativement.

Contrairement à l’opinion de Norbert Wiener, qui reconnaît d’ailleurs lui-même11 qu’« aucune mesure physique n’est parfaitement précise », c’est dans le concept même de mesure, c’est-à-dire à la faveur de cette opération par laquelle nous pensons pouvoir attribuer (sans perte) des grandeurs du monde physique à des nombres du domaine mathématique, que s’introduit en partie le flou que nous appelons hasard. C’est donc bien de nous, de notre intervention, qu’il procède12, et cela ne démontre nullement que le hasard soit un constituant du réel, constituant dont on serait d’ailleurs bien en peine de définir la nature. Que ce flou ait une structure, et qu’il obéisse à la loi dite « des grands nombres », reste néanmoins mystérieux…

4. Pour un réalisme indiciel.

Note de bas de page 13 :

Voir ma contribution aux journées d’étude de Strasbourg. Francis Edeline, “ Des expériences visuelles aux énoncés linguistiques – contribution de la théorie des graphes ” (Journées d’études IRIST « Les images scientifiques, de leur production à leur diffusion » Strasbourg, 2008), in Nouveaux Actes Sémiotiques, Limoges, https://www.unilim.fr/actes-semiotiques/1696

Il est tout de même remarquable qu’une science efficace ait pu se développer sous des bannières aussi différentes. Cela suggère que ces options ne concernent que le cadre conceptuel de notre travail, le réel lui-même ne pouvant être abordé qu’indirectement et de façon eidétique. Mais on ne peut pour autant dénier aux modèles, et donc aux images qu’on en tire, toute capacité de représentation isomorphique ou homéomorphique. En effet dans la chaîne qui va d’un processus physique aux points expérimentaux que nous en recueillons, puis à leur transposition symbolique et au travail de modélisation, quelque chose se conserve qui est de l’ordre de la forme. Qu’il en est bien ainsi est démontré par le chemin inverse, qui nous assure une prise non illusoire sur les choses. L’ensemble de ces opérations n’est autre qu’une sémiose, avec ses deux volets, ana- et cata-sémiotique13.

Note de bas de page 14 :

Ceci a lieu à l’échelle subatomique, où jouent les relations d’incertitude, en particulier lorsqu’on cherche à représenter la forme, la structure, la configuration d’une molécule. Cette restriction n’est toutefois plus d’application lorsqu’on détermine des grandeurs à l’échelle macroscopique. Voir Pawel Zeidler, « The Epistemological Status of Theoretical Models of Molecular Structure » HYLE.6 n°1, 2000, p. 8.

Note de bas de page 15 :

Ibid, p. 9.

Note de bas de page 16 :

Ramsey, apud Zeidler, 2000, p.10.

Souvent dans le débat sur le réalisme on invoque le fait que la technique de mesure modifie l’objet mesuré14. On en déduit par exemple qu’une molécule n’a pas de forme « en soi » et permanente : la forme est une propriété momentanée15, elle n’est pas une propriété intrinsèque mais une propriété de réponse16. De là on en vient à nier qu’un modèle élaboré sur de telles bases puisse présenter la moindre similitude structurelle avec l’objet modélisé. Les modèles sont alors vus comme de simples constructions, c’est-à-dire, sous-entendu, arbitraires.

Note de bas de page 17 :

Le monde vivant nous offre quelques exemples remarquables de cette identification/copie par empreinte, sanctionnés par l’évolution. La spécificité enzymatique (qui peut aller d’une classe entière de réactions chimiques à celle d’un isomère optique) est expliquée par la configuration stérique de l’enzyme par rapport à son substrat. Les phénomènes de rejet dans le système immunitaire s’expliquent de façon semblable, tout comme l’action des cellules réceptrices du goût dans la théorie d’Amoore (1952, présentée et développée dans Meierhenrich et al, 2005). Quant à la double hélice, elle n’engendre pas une copie allant du même au même, mais bien la création d’un véritable négatif au moyen des bases puriques conjuguées. La répétition de cette opération, soit la création du négatif du négatif, réalise alors la copie exacte.

Pour résoudre cette difficulté des positions réalistes, il convient selon moi de considérer l’ensemble « système mesuré – système mesurant ». Ils sont en interaction. S’il est vrai que le second influence le premier, il est tout aussi vrai que le premier influence le second : c’est ce qui nous fournit les « points expérimentaux ». La nature de cette influence est à creuser car c’est en elle que réside la similitude niée par certains. Le mot similitude est d’ailleurs sans doute ici trop fort. Il serait plus productif d’aborder le problème à partir du concept d’indice et d’élaborer un réalisme indiciel : l’empreinte, le symbolon, sont des images en creux, en négatif, mais elles sont suffisamment fidèles pour permettre la reconnaissance17. Dans le cas qui nous (pré)occupe existe aussi cette continuité matérielle (par contact, ou mieux interaction) qui définit sémiotiquement l’indice.

On peut donc admettre que l’« empreinte » obtenue par une technique expérimentale déterminée est fidèle « dans les conditions de la mesure ». D’accord elle ne donne pas l’image absolue et éternelle d’un objet,- qui n’est d’ailleurs ni absolu ni éternel mais en incessante interaction,- mais elle est quand même exacte hic et nunc et sic.

Note de bas de page 18 :

Jimenez (1997)

Note de bas de page 19 :

On laissera de côté, parce que non pertinent ici, le problème du réalisme abordé plus haut.

Jimenez18 évoque le cas d’un individu qui se déplace à tâtons dans le noir et dans un environnement qu’il ne connaît pas : « Il ne perçoit, stricto sensu, que l’aire couverte par ses pieds ou ses mains (…) S’il se heurte à un obstacle, il saura quelque chose à propos de ce que son environnement n’est pas, sans pourtant mieux connaître ce qu’il est. » Nous interpréterions différemment cette expérience de pensée. L’individu en question a bel et bien obtenu une information indicielle (puisqu’il y a eu contact physique) sur son environnement, et c’est le maximum qu’un être percevant puisse espérer.19 Ce que montre cet exemple extrême, c’est que les informations perceptives recueillies (ici tactiles mais il en va de même pour les autres sensorialités) peuvent n’être pas jointives (les deux mains et les deux pieds sont séparés) et néanmoins permettre au sujet de résoudre son problème de traversée. Dans le cas d’un être humain normalement constitué, ce recueil d’informations a beau être énormément renforcé par l’existence de sensorialités multiples et performantes, il demeure néanmoins parcellaire. Nous « palpons » le monde et construisons de lui une image partielle en creux qui est strictement de l’ordre de l’indice. Le reste n’est que reconstruction inférentielle. À y regarder de près, nous ne percevons jamais que le négatif des choses, puisque nous sommes par rapport à elles toujours en dehors. C’est par un travail de reconstruction mentale que nous les établissons dans le statut d’objet.

Il semble également qu’on puisse faire un parallèle entre

  1. le dispositif expérimental, où coexistent le système mesuré et le système mesurant ;

  2. l’image de travail, où coexistent des points expérimentaux et un modèle.

Dans les deux cas on observe l’affrontement sujet/objet, qui est bien le point origine de toute sémiotique, et à partir duquel on peut remonter à l’opposition suivante :

Note de bas de page 20 :

Sur le sens de ces deux notions, voir Groupe µ, Rhétorique générale. Paris, Larousse, 1970.

  1. au plan des concepts ou des symboles règne le mode Σ ;

  2. au plan des objets règne le mode Π20.

À cela tiendrait l’impossibilité d’atteindre une coïncidence parfaite entre la pensée (subjective) et l’univers (objectif). La pensée est faite de concepts, par définition généraux et immatériels, alors que l’univers est fait de particules individuelles et matérielles (avec les corrections que la physique actuelle impose au mot matière) qui interagissent. Nous disons « hydrogène » ou « électron », mais qui nous assure que tous les neutrons ne diffèrent pas les uns des autres (comme les visages des hommes ou les feuilles des arbres) par des traits non encore aperçus ? Le mode Σ confère à ces êtres finis que nous sommes des concepts de portée infinie : c’est sans doute la seule possibilité pour nous de saisir un monde qui est infini dans sa nature.

5. Les pièges de la représentation visuelle

On commencera par souligner la grande différence qui distingue l’image mathématique de l’image de travail : c’est que dans la première la fiabilité du sens de la vue joue un rôle quasi nul. Il est parfaitement possible de faire un raisonnement juste sur une figure fausse ou grossièrement approximative. La raison en est simple : ces figures ne contiennent que des concepts et ne sont aucunement en relation avec le monde des objets. Ce qui suit concernera donc exclusivement les images de travail.

Note de bas de page 21 :

Gaetano Kanizsa, La grammaire du voir. Paris, Diderot, arts et sciences, 1997.

Note de bas de page 22 :

Irvin Rock, La Perception. Louvain, De Boeck Université, 2001.

Ce qui vient d’abord à l’esprit lorsqu’on parle de pièges visuels, c’est l’ensemble des illusions d’optique et des phénomènes de construction d’images par l’appareil visuel. Ils ont été abondamment étudiés par les psychologues de la Gestalt et par leurs continuateurs comme Kanizsa21 ou Rock22. Il est inutile d’insister sur ces phénomènes bien connus et même largement popularisés (fig.7).

image

Note de bas de page 23 :

Dont les quatre plus connues sont : la réciproque, l’exponentielle, la logarithmique et la fonction puissance.

Note de bas de page 24 :

Leland Wilkinson, Cognitive Science and Graphic Design. New York, SYSTAT 10, 2000.

Ceci étant dit, l’image de travail essaie de profiter au maximum de la grande sensibilité de l’œil à la rectilinéarité. Un écart à la ligne droite est aisément perçu, alors que le même œil ne permet guère de distinguer entre eux des arcs de cercle, d’ellipse, d’hyperbole, d’exponentielle etc. C’est pourquoi si une équation se représente par une courbe, on cherche d’abord à la linéariser par diverses transformations algébriques23. Mais ce faisant on introduit une anamorphose qui peut se révéler trompeuse, notamment en contractant les écarts dans certaines zones et en les dilatant dans d’autres. C’est surtout pour une inclinaison proche de 45° que l’œil excelle à juger de la rectilinéarité. La fig. 8, reproduite de Wilkinson24, montre en outre qu’en jouant sur les échelles on peut renforcer ou atténuer l’impression de corrélation.

image

Note de bas de page 25 :

David A. Ratkowsky, Handbook of nonlinear regression. New York, Marcel Dekker, 1989.

Moins connus et bien plus pernicieux sont les problèmes statistiques associés à l’ajustement graphique d’un tracé théorique, issu d’un modèle, à des points expérimentaux issus du monde naturel. J’en soulignerai trois, d’après Ratkowsky25.

Le premier concerne le coefficient de corrélation R2, dont on croit souvent qu’il donne dans tous les cas le « % de variation expliquée » par le modèle. On s’en sert donc pour apprécier le « fit », ou qualité de l’ajustement. En fait ce n’est strictement vrai que pour des modèles linéaires ayant un terme constant. Si ce n’est pas le cas il faut examiner la structure de l’erreur résiduelle et entrer dans une procédure compliquée où R2 n’a plus aucun rôle à jouer. Mais il existe heureusement des compromis acceptables : les modèles quasi-linéaires, dont le nom indique bien qu’ils sont des approximations.

Les deux autres problèmes sont de loin plus graves, car ils engagent le statut épistémologique des modèles. Un modèle est par essence général. Fait de concepts, il doit s’appliquer à de multiples situations et non à une seule. Sa généralité est garante de son pouvoir explicatif, dont découlent aussi ces phénomènes d’ordre intuitif et fort mal connus : la compréhension et la conviction. Mais la recherche de la généralité entraîne automatiquement une perte dans la qualité de la prévision : ces deux types de qualité varient en sens inverse l’une de l’autre. On illustre bien cette antinomie par l’inférence bayesienne (du nom du génial statisticien Bayes). La fig.9 montre que le modèle M1 prévoit avec grande précision les données comprises dans la fourchette C. Le modèle M2 est beaucoup moins précis dans ce domaine, mais il étend par contre ses prévisions à un domaine bien plus large que C.

image

Nous avons déjà rencontré cela avec les équations de Fechner et de Stevens, où les points expérimentaux se disposent selon une courbe dont la concavité est tournée vers le bas. Le modèle de Weber-Fechner est simple et linéaire au sens mathématique du terme, par contre le modèle de Stevens est rendu fortement non-linéaire par le paramètre p en exposant. Il s’ensuit que dans ce dernier modèle le coefficient R2 de régression ne représente pas le % de variabilité expliquée, même si (pour l’œil comme pour le calcul !) l’ajustement semble meilleur.

Réexaminons cette question en termes statistiques. Un modèle tel que M1 est généralement plus compliqué et comporte davantage de paramètres. Or, ajouter des paramètres diminue le nombre de degrés de liberté et fait par conséquent augmenter la variance, de même que la non-linéarité. C’est surtout grave lorsque des paramètres nouveaux apparaissent en exposant. La recherche de modèles compliqués est contraire au principe de parcimonie (Occam fut excommunié !). À la limite on peut faire passer la courbe du modèle par tous les points expérimentaux : il suffit que le nombre de paramètres soit ≥ au nombre de points. Mais alors la plupart des paramètres ne sont plus mesurables ou n’ont pas de signification physique. C’est le cas de l’excellente équation de Benson & Krause permettant de calculer la quantité d’oxygène que l’on peut dissoudre dans l’eau à n’importe quelle température (fig. 10). On a donc, pour des raisons statistiques, intérêt à rechercher un modèle de forme simple et comportant un nombre minimum de paramètres. Mais pas un modèle trop simple, qui se contenterait par exemple de modéliser une croissance ou une décroissance sans s’inquiéter de sa forme, alors que le phénomène est notoirement plus complexe : un tel modèle n’explique plus rien, car il peut servir partout et est trop général.

En résumé, deux pièges sont à éviter : la surparamétrisation et l’excès de généralité.

image

6. Une philosophie de l’approximation

Après avoir montré tant d’exemples de données expérimentales « dispersées », je n’aurai aucune peine à enchaîner avec le problème de l’approximation en science. La grande question est de savoir si le comportement erratique des systèmes physiques est inhérent au monde physique ou simplement dû à l’imperfection de nos mesures, ou les deux. Notre position sur le hasard a déjà été précisée plus haut. En fait nous posons à la nature des questions trop simples, et c’est pourquoi elle nous répond imparfaitement. Toute expérimentation est la traduction de notre intention d’obtenir la réponse à une question déterminée, mais elle relègue de ce fait tous les autres fils de l’écheveau au rang de bruits.

Note de bas de page 26 :

Quelques exemples d’approximations assumées : le mouvement sans frottement, le fluide sans viscosité, la masse de l’électron supposée nulle.

Note de bas de page 27 :

Un cas parmi des centaines d’autres : le repérage de raies noires dans le spectre des rayons solaires, que l’on avait d’abord cru continu.

Celui qui se consacre aux sciences de la nature doit apprendre à vivre dans l’approximation26. Il doit en comprendre l’origine (les origines). Au lieu de la déplorer et de la considérer comme un mal nécessaire, il doit reconnaître en elle (sans paradoxe !) l’unique source de progrès. En effet l’approximation est un écart par rapport à un modèle, et un écart est toujours source de sens. Le cycle dont il a été question plus haut (fig.1) est en réalité une boucle, par laquelle se met en place un va-et-vient heuristique. Or c’est d’abord sur l’image que sont détectés les écarts, dont l’existence nous rappelle l’imperfection de tout modèle. La science progresse exclusivement par la détection et l’analyse de ces écarts. Ce qui est bruit aujourd’hui sera source d’information demain. Il y a de cela d’innombrables exemples27. Une telle attitude est exactement l’inverse de la résignation devant la fatalité du hasard, que suppose la position de Wiener. Ainsi l’image scientifique nous informe aussi bien positivement que négativement.

Les fig.11 et 12 montrent comment, poursuivant notre exemple, nous pouvons extraire d’une analyse de la structure de l’erreur résiduelle ε (écart entre valeurs observées et valeurs calculées) deux informations intéressantes : (1) cette erreur n’est pas indépendante mais bien liée à la pente de la courbe, et (2) les valeurs observées finales sont systématiquement inférieures aux valeurs calculées, ce qui fait présumer une erreur par défaut sur Cs.

image

image

Cette idée d’une progression de la science grâce à des approximations successives implique aussi celle que ces approximations sont chaque fois meilleures (d’où le progrès). Les écarts avec l’observation ne peuvent que diminuer, sinon la nouvelle théorie qui les produit serait rejetée. D’où la notion d’un processus asymptotique, ou d’une convergence, avec un horizon peut-être impossible à atteindre mais à l’existence duquel on affecte de croire : le modèle de Dieu le Père, avec ε = 0. C’est un réalisme asymptotique.

Note de bas de page 28 :

Valentin N. Ostrovsky, « Towards a Philosophy of Approximations in the “Exact” Sciences » HYLE.11 n°2, 2005, p. 106-126.

La thèse de l’approximation en science a été traitée de façon provocante par Valentin Ostrovsky28. Il suggère une complémentarité entre sujet et objet dans le statut même de la science, vue comme une interface entre les deux. Il oppose ainsi le quantitatif (recherche de solutions objectives exactes) au qualitatif, basé sur des approximations à grande valeur heuristique et pouvant servir de support à l’intuition. Il invite à étudier de plus près le mode dit qualitatif, nécessairement lié à un sujet, tout comme l’est aussi le sens, par opposition à l’information liée, elle, au quantitatif. Il va jusqu’à proposer la fusion des deux concepts : le sens c’est la qualité. Mais ce concept de qualité reste bien difficile à définir avec précision. Dans une envolée finale, Ostrovsky place cette distinction sous l’autorité du Principe de Complémentarité de Bohr, généralisé.

7. Quelques conclusions

On voit qu’en science une image n’intervient jamais seule : elle fait partie d’une procédure dont elle n’est qu’un moment, d’une chaîne dont elle n’est qu’un maillon. Mais c’est une procédure cyclique et ce maillon est déterminant, car c’est lui qui permet la synopsie, c’est-à-dire qui dilate le présent.

Note de bas de page 29 :

Parmi les exemples les plus connus : l’analogie hydraulique en électricité.

Sur le plan formel, son évolution intersémiotique la fait participer directement à la démarche rationnelle. En permettant, même à ce qui n’est pas visuel, de transiter par le visuel (des intensités, des potentiels, des viscosités, des vitesses, des pressions, le temps…) son rôle dépasse l’iconisme étroit d’un portrait mais se situe davantage au niveau du concept mental. Elle est d’ailleurs par excellence le lieu de l’interface sujet/objet, interface qui affecte la forme d’une liaison indicielle. Elle oblige ainsi à s’interroger sur le concept de forme puisqu’elle permet de repérer une communauté de forme entre des phénomènes par ailleurs très dissemblables29. Le degré ultime de cette conceptualisation formelle est la mathématique qui est, selon la belle formule de Valéry, la « physique de l’objet quelconque ». Ayons donc un instant de recueillement à la mémoire de l’évêque Nicole Oresme, inventeur de la représentation graphique au XIVe siècle.