Mathématisation, visualisation : entre transduction et traduction

Vivien Lloveria 

https://doi.org/10.25965/visible.489

Sommaire
Texte intégral

Introduction

Cette étude vise une contribution à la question du rapport entre mathématisation et visualisation par l’étude d’une image scientifique, la radioscopie numérique (figure 1), engagée dans une situation concrète de pratique d’inspection-filtrage en sûreté du transport aérien. Partant de la définition générale de la pratique de sûreté, nous tenterons d’identifier et de décrire le lien entre les propriétés actorielles de l’image et ses fonctions actantielles au sein de la scène pratique.

Figure 1. Radioscopie numérique. École Nationale d'Aviation Civile (ENAC).

Figure 1. Radioscopie numérique. École Nationale d'Aviation Civile (ENAC).

Il s’agira de préciser, par l’étude des empreintes du mode opératoire de la production de l’image, quelle place accorder à la mathématisation face au rendu visuel et comment elle s’instaure à la fois comme lieu de constitution des virtualités de l’image et comme instance de contrôle de leurs actualisations et réalisations dans la visualisation radioscopique.

Note de bas de page 1 :

Je reprends ici les mots de Maria Giulia Dondero sur la distinction de Goodman entre « allographie » et « autographie », pour cela voir Dondero (2009).

Pour cela, nous aborderons premièrement sa fonction de « transduction » qui, proche de « l’autographie », vise à « identifier et fixer » le phénomène de traversée des corps des rayons X. Dans un deuxième temps nous déterminerons son rôle de « traduction », apparentée cette fois-ci à « l’allographie », lieu de conjonction et d’ajustement entre l’expérience scientifique et les « expériences de pensée »1 qui soumettent l’image au /devoir faire/ de la pratique et au /pouvoir faire/ de son opérateur humain. Dans cette image hybride, nous nous focaliserons sur les tactiques interprétatives et sur le passage d’une pseudo « authenticité » à une « reformulation stratégique » qui ne sera pas sans conséquence sur les régimes de croyance de l’image.

Pour terminer, nous détaillerons le rôle de la mathématisation dans le maintien de la relation fiduciaire entre un énonciateur « machine » et l’observateur-énonciataire humain.

Note de bas de page 2 :

Voir Fontanille et Zilberberg (1998, p. 205).

Nous observerons comment les données mathématiques conservent et compensent « numériquement » des détériorations pourtant matérielles, illustrant ce glissement, décrit par Fontanille et Zilberberg2, de la fiabilité des « états de choses » à la fiabilité d’un « état d’âme ».

La pratique de sûreté du transport aérien

Note de bas de page 3 :

Entrée « Sûreté » des définitions du chapitre 1 de l’Annexe 17 de l’OACI (2006).

Note de bas de page 4 :

Comme plan de l’expression la scène est « l’expérience d’une interaction avec un texte […] ou avec un ou plusieurs objets, et qui s’organisent autour d’une pratique ». Comme plan du contenu elle devient une scène prédicative qui « se compose d’un ou plusieurs procès, environné par les actants propres au macro-prédicat de la pratique ». De plus elle « consiste également en relations entre ces différents rôles, des relations modales et passionnelles, pour l’essentiel ». Voir Fontanille (2008, pp. 25-27).

Si nous nous référons à la réglementation de l’Organisation de l’Aviation Civile Internationale (OACI), la sûreté est définie comme « la protection de l’aviation civile contre les actes d’intervention illicite »3. Partant de cela nous pouvons d’ores et déjà constituer une scène prédicative4 composée d’au moins trois actants : 1) un actant source de l’acte illicite (un malfaiteur), 2) un actant cible (l’aviation civile) et 3) un actant de contrôle de type « obstacle » (la sûreté).

Note de bas de page 5 :

Défini par Greimas comme un « vouloir ne pas être ». Voir Greimas (1983, p. 99).

L’actant source apparaît ici comme un nuisible5 pour l’existence de l’aviation civile qui viserait en celle-ci un /faire ne pas être/. Cette « menace » peut à son tour se démultiplier en une scène prédicative comprenant l’opérateur de l’acte (p. e. les terroristes), des objets (p. e. les armes), des textes (p. e. des lettres de menace) et des actes (p. e. prendre en otage). L’actant cible de la même manière que l’actant source peut s’assimiler à une scène prédicative, celle d’un transport de passagers et d’objets dans un avion. La transformation est ici un déplacement spécifique qui requiert la « médiation » d’un avion apportant son lot d’avantages (p. e. la vitesse) et d’inconvénients (p. e. la vulnérabilité). Bien évidemment, la visée de l’aviation civile s’oppose à celle du malfaiteur et consiste en un /faire être/, celui du transport aérien.

Enfin, la visée de maintien associée à l’actant de contrôle pourrait se scinder en deux visées complémentaires : 1) la » lutte » contre le malfaiteur qui relève d’une manipulation de type empêcher /faire ne pas faire/ et 2) la « prudence » vis-à-vis des répercussions de sa propre intervention sur le bon déroulement des opérations de l’aviation civile qui, d’un point de vue modal, relèverait d’un /ne pas faire ne pas être/.

Note de bas de page 6 :

Nous pourrions reprendre le terme de « transformation stationnaire » utilisé par Landowski pour désigner non pas l’action qui vise la transformation d’un objet déterminé mais « le cas échéant, si cet objet se trouve menacé de quelque transformation tenue pour indésirable, à assurer au contraire son maintien en l’état ». Voir Landowski (2000).

Note de bas de page 7 :

L’être du faire comme « énoncé d’état, hiérarchiquement supérieur, qui rend compte de l’existence virtuelle, logiquement présupposée, de l’instance produisant le faire. Cet être du faire […] peut dès lors être dénommé compétence ». Voir Greimas (1983, p. 70).

Par conséquent, la scène pratique de la sûreté ne semble pas organisée autour d’une transformation d’un état dans un autre mais par le maintien d’un état initial6 en empêchant l’émergence d’un « faire » menaçant (action sur sa compétence7) et en veillant à la conservation d’un « faire » déjà là (l’aviation civile).

Note de bas de page 8 :

À la suite de Landowski, Fontanille reprend le terme de situation sémiotique pour associer deux types d’expériences : 1) l’expérience d’une pratique ou de la scène comme décrite précédemment, 2) l’expérience de l’ajustement entre plusieurs pratiques, dénommée « stratégie ». Voir Fontanille (2008, p. 25).

Note de bas de page 9 :

Aux sujets des obstacles voir Fontanille (2004, pp. 213-223).

Étant donné que l’arbitrage de cet actant de contrôle se fait entre deux pratiques, nous pouvons maintenant considérer la sûreté comme une pratique « stratégique ». En effet, le niveau de pertinence sémiotique analysé serait donc celui d’une « situation sémiotique » qui contiendrait le niveau des pratiques individuelles et le niveau stratégique de leurs interactions8. Enfin, dernier élément : concernant la forme sensible de cet actant, nous avons précédemment cité la notion d’obstacle. Précisons qu’il s’agira ici d’un obstacle « total » et non « partiel »9 de manière à virtualiser et non potentialiser la présence menaçante. Nous allons maintenant décrire quelle est la place et la fonction de l’inspection filtrage au sein de cette pratique de sûreté.

L’inspection-filtrage

Note de bas de page 10 :

Entrée « Inspection-filtrage » des définitions du chapitre 1 de l’Annexe 17 de l’OACI (2006).

Par rapport à l’ensemble de la pratique de sûreté, l’inspection-filtrage est située en amont du processus de neutralisation de la menace. Du point de vue aspectuel, l’inspection-filtrage se focalise sur la phase d’émergence de la menace (ou phase inchoative) et l’objectif sera ici de « faire sentir » cette présence menaçante pour agir sur elle en l’empêchant de se réaliser. Concrètement, pour l’OACI, elle se présente comme « la mise en œuvre de moyens techniques ou autres en vue d’identifier et / ou détecter les armes, les explosifs ou tous autres engins, articles ou substances dangereux qui peuvent être utilisés pour commettre des actes illicites »10.

À première vue, cette définition se focalise essentiellement sur le macro-prédicat « inspection » qui laisse place à ses deux sous-prédicats : 1) la détection et 2) l’identification.

La détection

Note de bas de page 11 :

On peut noter la proximité des termes. Le latin detegere veut dire « découvrir » (ou littéralement enlever le « toit ») et inspectare qui veut dire examiner (ou littéralement in-spectare « voir dans »). L’un se place du côté de l’observateur qui plonge dans l’objet, l’autre du côté de l’objet qui se laisse voir.

Note de bas de page 12 :

Sur la véridiction voir Greimas et Courtes (1993, p. 419).

Premièrement, la détection, qui se rapproche étymologiquement de l’inspection11, fait apparaître un nouvel actant, obstacle à la saisie de la menace, dans la scène prédicative de la sûreté. En effet, l’acte de découvrir présuppose l’existence d’un « couvrant », que nous assimilerons à un « paraître » et qui pose un problème de type véridictoire. Si nous définissons la véridiction comme un « jeu de la vérité » entre deux dimensions de l’existence (le « paraître » qui relèverait de la manifestation, et « l’être » associé à l’immanence), leurs non-correspondances « possibles » nécessitent alors de la part de l’observateur le recours à un jugement véridictoire pour « statuer sur l’être de l’être »12.

Note de bas de page 13 :

J’emprunte ici à Per Aage Brandt le terme moins connoté de « dissimulation » pour désigner ce que Greimas appelait le « secret ». Voir Brandt (1995).

Note de bas de page 14 :

« Simulation » vient remplacer « mensonge » ; voir Brandt (1995).

Dans le cas présent, la possibilité d’une « détection » présuppose celle d’un être qui ne paraît pas, ou autrement dit d’un être dont on ne peut sentir la présence (p. e. invisible, inaudible). Nous serions alors dans la position d’une « dissimulation »13 /être et non paraître/. Mais corrélativement elle présuppose aussi la présence effective d’une « simulation »14, c'est-à-dire un paraître qui ne correspond pas à l’être visé /paraître – non être/.

Note de bas de page 15 :

Ces mouvements sont précisément décrits dans Flores (1995).

Note de bas de page 16 :

De la même manière l’effet de sens « vérité » décrit par Greimas sera remplacé, en référence à Brandt (1995), par le terme moins connoté d’« évidence ».

La détection s’effectuerait donc à travers deux mouvements complémentaires15 : 1) une « révélation » c’est-à-dire la transformation d’un état de dissimulation /être – non paraître/ en celui d’une « évidence »16 /être – paraître/ et 2) une « authentification », c’est-à-dire la transformation d’un état de « simulation » /paraître – non être/ en celui d’une évidence /paraître – être/.

L’identification

Note de bas de page 17 :

L’idée est ici de reprendre la définition du Groupe µ du type comme « intégration » et « stabilisation d’expériences antérieures », tout en substituant l’idée d’une « représentation mentale » proposée par Klinkenberg (1996, p. 385) par une empreinte, une mémoire du corps plus proche des propositions de Fontanille (2004). Dans ce contexte le passage du stimulus au signifiant du Groupe µ correspondrait à notre stabilisation, et le passage du signifiant au type à notre iconisation dans le sens d’une équivalence sensori-motrice.

Deuxièmement, l’identification pourrait se résumer, de manière générale, à l’acte d’associer une identité, une expérience déjà vécue à une situation nouvelle. Elle vise dans la saisie à rendre « identique » une forme visée c’est-à-dire à conformer une occurrence sensible à un type « sensible »17.

L’identification nécessiterait au moins deux conditions : 1) une stabilisation d’une interaction entre matière et énergie de manière à la saisir dans le champ perceptif (stabilisation d’une forme visuelle par exemple), 2) une équivalence entre cette figure externe de la sémiotique du monde naturel (du côté des actants de l’énoncé), avec une figure intériorisée du côté des actants de l’énonciation (expérience sensori-motrice humaine ou artificielle) qui engendrerait l’iconisation des figures, c'est-à-dire l’expression de leur propension à être « reconnue ».

Par exemple pour reconnaître une arme dans une image, il faut que la forme de l’arme soit visuellement saisissable et stabilisée pour poser les conditions d’une équivalence (un ajustement sensori-moteur) avec une expérience antérieure de l’actant d’énonciation qui en autorisera la reconnaissance.

Le filtrage

Troisièmement, le filtrage vient clore le processus. Dans les définitions générales, le filtre est présenté comme un espace « poreux » qui tantôt retient tantôt laisse passer des choses. En conséquence, de l’obstacle « total » nous passons au scénario de l’obstacle « sélectif », c’est-à-dire un obstacle qui nécessite des choix, une sélection parmi plusieurs possibilités de passage. Nous voyons alors clairement s’instaurer un système de valeurs, une axiologie qui fixerait les critères du filtrage. Eu égard à la prise de position et à l’orientation discursive donnée par la sûreté du transport aérien, nous obtenons d’un côté des choses « menaçantes » dysphoriques et de l’autre « l’euphorie » dans les passagers, les bagages et tout ce qui est reconnu comme faisant partie ou pouvant être accueilli par la scène prédicative de l’aviation civile.

Note de bas de page 18 :

Sur la définition du programme de tri voir Greimas et Courtes (1986, pp. 181-182).

En sémiotique plutôt que de filtrage, nous pourrions plutôt parler de tri. Pour Greimas18, le programme de tri « est caractérisé par la présence de bifurcations ». Le tri peut être réalisé de manière uniquement pragmatique comme cela peut être le cas dans un tamis qui sépare les cailloux et la farine. Cependant il devient cognitif lorsqu’il s’agit d’un tri basé sur un système de valeurs qui présuppose la présence d’un destinateur.

Dans notre situation nous aurions affaire à deux types d’émetteurs : 1) le flux des passagers qui émet des choses licites et 2) le groupe terroriste qui émet des choses illicites.

Note de bas de page 19 :

Ce que Fontanille nomme « la confusion axiologique » comme situation initiale du schéma de tri axiologique. Voir Fontanille (2004, p. 35).

Ces deux émissions seraient mélangées au point d’en devenir une masse indifférenciée19 que l’opérateur de tri devra traiter par des critères de différenciation « de la forme présence d’un trait versus absence de ce trait, de sorte que les catégories manipulées sont des catégories contradictoires ».

Note de bas de page 20 :

Voir idem.

Une description en deux étapes, proposée par Fontanille20, corrobore notre vision de l’inspection filtrage : 1) la première étape est celle du « tri » proprement dit qui correspondrait à « la singularisation individuelle » (notre détection-identification) puis 2) celle de la « séparation » consécutive à « l’instauration de la dualité et de la valeur » (notre filtrage). Pour décrire notre système de filtrage, nous ne retiendrons pour le moment que la simple contradiction « menace versus non menace » comme critère de distinction et de prise de décision. Ainsi du point de vue des prises de décision finales nous obtenons 1) une menace dysphorique retenue à l’extérieure de la scène et 2) une non-menace euphorique autorisée à entrer dans la scène.

L’image radioscopique et la sûreté

La question que nous allons nous poser maintenant est de savoir pourquoi la pratique de sûreté a sélectionné l’objet « image radioscopique ». Pour y répondre, nous tenterons de tisser et caractériser des liens entre les propriétés actorielles de la radioscopie et les fonctions actantielles de la pratique de sûreté du transport aérien.

Note de bas de page 21 :

Voir OACI (2002, Appendice D4).

D’abord, pour prétendre jouer un rôle dans la sûreté, la visualisation radioscopique devrait au moins répondre aux deux fonctions principales de la sûreté que sont la prévention des actes illicites (cf. infra « la lutte ») et le maintien de la performance de l’aviation civile (cf. infra « la prudence »). Pour cela nous pouvons citer l’OACI qui explique que « les images radioscopiques permettent à l’AF [agent de filtrage] de voir à l’intérieur d’un bagage sans qu’il soit nécessaire d’ouvrir et de déranger le contenu en fouillant physiquement chacun des bagages passant par le poste de contrôle »21.

Ainsi, du côté de la « lutte » contre les actes illicites /faire ne pas faire/, la visualisation radioscopique donne les moyens de vérifier dans les bagages la présence éventuelle d’une menace contre l’aviation civile.

Elle modalise la situation en procurant un /pouvoir faire/ (un pouvoir présentifier et un pouvoir inspecter) identique à celui obtenu par une fouille physique et permet donc de répondre à la fonction d’inspection-filtrage de la sûreté.

Note de bas de page 22 :

Voir Légé (2008, p. 14).

Note de bas de page 23 :

Néologisme employé par Philippe Légé pour qualifier l’acceptation des dispositifs sécuritaire. Voir ibid., p. 13.

Deuxièmement, du côté de la « prudence », l’exploration par rayons X est plus rapide car elle ne nécessite pas d’ouverture et permet au niveau stratégique une « conciliation entre les inspections et de grands débits passagers »22. Enfin dernière qualité, la visualisation radioscopique est moins intrusive car elle ne demande pas l’effraction physique du bagage pour en explorer l’intérieur. Elle a donc un plus haut niveau « d’acceptabilité »23 pour les usagers, autre objectif stratégique fondamental dans une pratique qui se veut aussi commerciale.

Note de bas de page 24 :

Nous prétendons ici partir à la conquête de ces fameuses micro-actions, opérations, interactions, si souvent évoquées par Landowski (2009).

Note de bas de page 25 :

Voir Fontanille (2004, p. 265).

Enfin, pour comprendre plus précisément comment l’image fonctionne au niveau de l’interprétation, il faut en décrire sa production au point d’en analyser les « micro-opérations »24 qui nous donneront le détail des fonctions actantielles investies par les propriétés qualitatives de l’image. Notre approche se veut inspirée de la « sémiotique de l’empreinte » de Fontanille pour qui « l’interprétation est une expérience qui consiste à retrouver les formes d’une autre expérience »25. Partant de ce principe, étudier le mode de production de l’image devrait nous en apprendre plus sur la manière de l’interpréter. Pour commencer nous allons étudier la première étape : celle de la transduction.

Transduction, expérience technologique et authenticité

Le principe de la radioscopie est de rendre visible le contenu d’un corps. Assez simplement, elle permet à la manière d’un photogramme de faire l’empreinte de « l’ombre » des objets qui sont traversés par les rayons X. Selon la densité de ces objets, leur corps absorbe plus ou moins le faisceau qui les traverse de telle sorte que l’empreinte puisse restituer 1) l’intensité des rayons X (et inversement la résistance des objets) et 2) la répartition spatiale de cette variation d’intensité sur un espace délimité du monde naturel. Précisons que, peut-être à la différence de Fontanille, nous attribuons le terme de transduction à une transformation obtenue par le passage d’une substance (les stimulations des rayons X) à une autre substance (l’espace visuel du film radiosensible ou les signaux électriques de la matrice numérique) sans aucune modification intentionnelle destinée à donner de « l’accessibilité » (en améliorant la saisie de l’empreinte).

Bien que nous puissions croire en la conservation de la forme sémiotique malgré le changement de substance de l’expression, nous ne manquerons pas dès lors d’émettre un bémol concernant cette dernière affirmation.

Note de bas de page 26 :

Voir Lynch (1985).

En effet, l’empreinte que nous obtenons ne correspond pas « totalement » et « exactement » à la traversée des rayons X. Elle est obtenue au moyen d’un dispositif technique de captation qui est le fruit d’une organisation spatiale des composants sensibles visant une « mathématisation ». En effet, ces composants électroniques, sensibles aux rayons X, sont configurés de manière à « constituer et “cadrer” un phénomène de sorte qu’on puisse le mesurer et le décrire mathématiquement »26. Il y a donc une forme de « manipulation » de l’ordre d’un /devoir faire/ (devoir mathématiser) de l’expression d’origine pour la soumettre à des schématisations particulières (mathématiques).

De la même manière, la pénétration des rayons X dans la matière peut être ajustée en fonction des objectifs pratiques. Ainsi obéissant au /devoir faire/ (le devoir inspecter-filtrer) imposé par la sûreté du transport aérien, les valeurs positives de la pénétration se situeraient dans une zone médiane qui produit l’effacement des parois du bagage et maintient visible les corps des objets contenus. Dans une autre pratique telle que l’usinage de pièces métalliques en aéronautique où il serait question de percer les métaux pour en vérifier la structure, la « sélection » du taux de pénétration serait différente.

Note de bas de page 27 :

Ces effets seraient le résultat d’interactions de type « co-incidence », aléatoires ou concertées, car aucun des actants n’est à proprement parlé un sujet. Dans le cas de la manipulation nous passerions à « l’interaction » proprement dite où l’objet est « utilisé » par un sujet. Voir Landowski (2009).

Par conséquent, l’expression scientifique passe par le filtre technologique qui est lui-même soumis aux exigences de la pratique. Ce n’est pas tant l’expérience « scientifique » de la traversée des rayons X que son expérience « technologique » et « pratique » qui nous est donnée à voir. Bien que l’on observe une perte ou du moins une atténuation de l’authenticité, la présence d’un sujet manipulateur n’est cependant pas affirmée avec force27. Nous pourrions ranger ces détériorations de l’authenticité dans la catégorie des « artefacts », c’est-à-dire des expressions dans l’image du « mode opératoire » de la production de l’image.

Note de bas de page 28 :

Expression employée par le Groupe µ pour évoquer la texture. Voir Klinkenberg (1996).

Du point de vue du plan de l’expression de l’image radioscopique, un artefact se distingue clairement en réduisant la distance à l’image de manière à distinguer « une microtopographie de l’image »28 que nous appelons communément la « pixellisation ».

Note de bas de page 29 :

Voir Beyaert-Geslin (2003).

Par celle-ci, l’attracteur d’origine qui se concevait comme une figure iconique se fragmente en « une multiplicité d’unités colorées [qui] se laissent décrire comme une pixellisation, une représentation en mode points »29.

Note de bas de page 30 :

Voir Beyaert-Geslin (2006).

Reprenant une description de Beyaert-Geslin, « le plan de l’expression semble s’emballer, bégayer et se désolidariser du plan du contenu pour déclarer le modèle génératif de l’image et son support numérique »30.

Note de bas de page 31 :

Voir idem.

Cette pixellisation produit deux conséquences pour notre analyse. D’une part, elle « révèle » que le dispositif de prise d’empreinte visait une représentation mathématique (un vouloir faire). Cependant nous ne voulons pas encore parler d’intentionnalité car cette mathématisation ne pourrait représenter qu’une correspondance de plus dans la transduction des rayons X. D’autre part, en déclarant le modèle génératif de l’image le pixel « trahit l’image et apporte un démenti à son régime de croyance »31.

La trahison du pixel

Note de bas de page 32 :

(ENAC Sûreté 2011).

Note de bas de page 33 :

Voir Beyaert-Geslin (2006).

Si la radiographie ne présente pas de pixel, c’est que son support et sa prise d’empreinte sont radicalement différents. Selon l’Ecole Nationale de l’Aviation Civile (ENAC)32, la radiographie est le résultat de la réaction d’un film sensible aux rayons X qui en permet leur visualisation « directe ». Différemment, la radioscopie opère indirectement en deux étapes : il y a d’abord une transformation des rayons X captés par des récepteurs sensibles en signaux électriques mémorisés dans une matrice numérique ; puis une visualisation de cette matrice numérique convertie en combinaison de pixels. Ainsi nous reprendrons de nouveau les mots de Beyaert-Geslin : « échangeur entre l’image et le calcul mathématique, le pixel ne se trace pas mais se “fait” à l’écran, induisant un nouveau rapport à l’énonciation et la médiation d’une interface »33.

Par conséquent, si précédemment nous étions passés de l’expérience scientifique à l’expérience pratique par une atténuation de l’authenticité, nous passons ici du niveau véridictoire de « l’authenticité » à celui de « l’exactitude » de l’énonciation. Nous référant aux travaux de Per Aage Brandt sur la véridiction, dans la première situation nous étions dans l’authenticité car l’expérience technologique avait le statut d’une observation d’un sujet (S1) qui dirigeait son attention vers quelque chose (q) donnée directement par l’expérience technologique extériorisée.

Son action directe relevait d’une « foi perceptive », d’une adhésion en sa propre perception car il y avait syncrétisme actantiel entre la « prise » d’empreinte et son « énonciation ». Dans le second cas, il y a un acteur pour chaque actant. La prise d’empreinte se fait dans la matrice numérique, la visualisation dans l’image pixellisée.

Note de bas de page 34 :

La distinction entre monstration et présentation sera fondamentale dans cette étude. Selon Beyaert-Geslin (2009) la monstration est de l’ordre d’un /faire voir/ qui s’adressant au corps « le livre visuellement au “feu” de l’événement ». Elle conjugue une forte intensité passionnelle et un faible déploiement figuratif. À l’inverse, la présentation, est une visualisation distanciée, qui perdant en intensité « prédicative » gagne en /pouvoir observer/ et permet la description, la lexicalisation du visuel. Autre description intéressante, selon Colas-Blaise (2011), la monstration ne désigne pas, elle « exhibe » au « cœur de l’appréhension sensible ». Inversement, la dé-monstration qui est seconde, vise l’objectivation, « la voie du figement », la neutralisation des effets « symptomatiques » du montré. En cela monstration et représentation mobilisent les oppositions sensibles versus cognitif, visible versus lisible.

L’observateur devient ici un « destinataire » (S2), et la matrice numérique son destinateur (S1). Il n’y a plus réellement une vision directe, au plus proche de la source, de type « monstration » mais une « présentation »34 par une médiation numérique qui « construit » l’image. Dans ce deuxième cas il s’agirait plus d’une adhésion à la parole d’un sujet. Ainsi, le pixel trahit la « simulation » de l’image et transforme la « perception directe » en « dire » qui peut sous ces conditions devenir l’objet de manipulations véridictoires de type « simulation » ou « dissimulation » et mettre en péril les performances de l’inspection-filtrage.

Note de bas de page 35 :

Voir Jeanneret (2001).

Pour qualifier cette situation de décalage entre le « perçu » de l’observateur machine et son dire, Cotte parle de « régime de la matrice », désignant « un nouveau mode de production-transmission invisible mais matériel ». Dans ces conditions, l’image ou le texte visuel « devient un objet multiple, susceptible d’actualisations très différentes »35.

Il est maintenant intéressant d’apporter cette précision technique : les données de l’expérience technologique accumulées dans la matrice numérique ne sont pas toutes actualisables dans une seule et même image. Ce cas théorique d’actualisation « totale », nous renverrait au scénario de l’empreinte, c'est-à-dire celui d’une monstration qui déclare l’événement par un « faire voir » sans pour autant offrir un « faire observer ».

Seulement si autrefois l’image radiographique répondait aux exigences de la perception humaine de par son ancrage dans un seul espace-temps, celui d’une prise de vue pareillement à une photographie, les nouvelles prises d’empreintes radioscopiques sont bien différentes.

La machine est capable de mémoriser plusieurs espaces (niveaux de profondeur) et temps (le temps découpé du scanning) dans une seule expression mathématique, celle de la matrice numérique.

Note de bas de page 36 :

Nous faisons ici référence à la modalité temporelle de l’éventualité décrite par Edmond Couchot à propos de la matrice numérique. Voir Couchot (1998).

Par conséquent ce qui réside dans la mémoire numérique ne relève plus d’un « ça a été » barthésien mais d’un « ça peut être »36, c'est-à-dire d’un réservoir limité de potentialités visuelles unies par l’expérience technologique d’une même entité du monde. La machine est donc en réalité le seul observateur capable de « saisir » cette « monstration ». Pour un observateur humain le « montré » ne laisserait pas place à « l’observation ». En conséquence nous voyons s’instaurer une tension entre le « voir » de la source et « l’observer » de la cible, entre la détection et son identification, entre l’œil machine et l’œil humain.

Note de bas de page 37 :

Voir Jeanneret (2001).

D’une part, pour obéir au « pouvoir observer » de l’agent de sûreté, la matrice numérique doit sélectionner /devoir faire/ les données à visualiser. Cette programmation de la matrice consiste à distinguer ce qui doit être « réalisé » dans l’image et ce qui doit être « potentialisé » par la création d’une « fenêtre » de laquelle l’agent pourra observer l’image et la décrire à des fins d’inspection-filtrage. Ce terme de « fenêtre » n’est pas utilisé par hasard puisque l’opération informatique qui vise ce contrôle du champ de vision est communément dénommé le « fenêtrage ». D’autre part, pour que l’image soit lisible et permette l’identification, la matrice numérique doit contenir toutes les propriétés d’une « textualisation ». Cette remarque est inspirée de celle de Jeanneret à propos des écrits d’écrans pour qui « l’essentiel de la textualisation dans l’écrit d’écran consiste donc à créer des espaces lisibles permettant au lecteur de reconnaître des signes et des formes textuelles présents sur l’écran »37.

Note de bas de page 38 :

Voir ENAC (2011).

Nous nous retrouverions alors en présence d’un raisonnement concessif : bien que la pratique d’inspection-filtrage veille à maintenir un certain niveau d’authenticité, la radioscopie a été sélectionnée car elle « offre davantage de possibilités pour le traitement de l’image »38.

Note de bas de page 39 :

Pour une description de la scène interprétative voir Fontanille (2008).

De plus, si dans le cas de l’expérience technologique nous avions affaire à une transduction puisque seules changeaient les substances du plan de l’expression, dans celui de l’expérience sensible de l’image radioscopique nous avons affaire à une véritable « traduction », c’est-à-dire à une scène d’interprétation qui vise une transformation intersémiotique entre une expression numérique « source » et une expression visuelle « cible »39.

L’expression sensible visuelle n’est plus dans ce cas une représentation fidèle de l’expérience de la traversée des rayons X, mais une reformulation « stratégique » pour une pratique cible d’inspection-filtrage. Nous pouvons alors mettre à jour deux grands pôles au niveau de ce que nous pourrions dénommer les tactiques interprétatives : 1) une vision « sourcière » qui privilégie l’authenticité de l’énonciation visuelle, 2) une vision « cibliste » qui se focalise sur les observateurs de l’image qui, rappelons-le, sont engagés dans une pratique d’inspection filtrage en sûreté du transport aérien.

Note de bas de page 40 :

Voir Jeanneret (2001).

Note de bas de page 41 :

Jeanneret (2001) aurait pu ici évoquer l’exception que représente « Néo » le héros du film Matrix des frères Wachowski. Ce dernier se libère d’une matrice invisible (ou visible seulement par les initiés) par l’acquisition des compétences démiurgiques de lecture/écriture.

Note de bas de page 42 :

Voir Jeanneret (2001).

Pour commencer, nous allons explorer ce qui s’apparenterait aux deux positionnements extrêmes : une pure source, et une pure cible. Ainsi, une image uniquement focalisée sur la source correspondrait à l’expression directe de la matrice numérique sous la forme « d’une série d’impulsions énergétiques traitées par la machine […] ce niveau le plus bas est celui dans lequel tous les autres modes d’existence du texte doivent être finalement traduits pour être traités par la machine »40. Cette figure serait, selon Jeanneret, « a-sémiotique » car « le code binaire n’est lu par personne »41. Aux antipodes, ce qui apparaitrait comme naturel à l’écran relèverait véritablement d’une « traduction » c'est-à-dire d’une entière construction du texte visuel dont les règles seraient « autant d’instrumentalisations secrètes, de la lecture »42.

Note de bas de page 43 :

Voir Bordron (2009).

Dans sa vision extrême, la visualisation ne peut être uniquement déterminée par la cible, car si l’objectif unique est le « pouvoir observer », le fait de rendre reconnaissable et descriptible la visualisation garantit seulement la performance d’identification (la reconnaissance) mais ne garantit plus celle de détection (la valeur d’indice de l’image). En effet, l’application des normes de « lisibilité » de l’image pourrait se révéler tellement envahissante (par exemple en sélectionnant d’office des formes canoniques à partir de quelques données sources compatibles) que la visualisation en question n’aurait plus rien à voir avec la forme sensible de l’objet contenu dans le bagage. Nous pourrions, à titre d’illustration, imaginer un delirium machinique qui conduirait à l’iconisation parfaitement réussie de quelque « éléphant rose ». Il y a donc là un problème d’authentification de l’horizon des images, c’est-à-dire selon Bordron de « ce dont ils sont l’indice »43.

La pratique de sûreté doit donc trouver un compromis entre les données issues de l’expérience technologique, garantes de l’authenticité et son accessibilité facilitant l’observation et la description.

Pour cela, la matrice numérique doit contenir des actants de contrôle de l’interaction entre source et cible que nous rangerons sous l’expression « tactiques interprétatives ».

Pouvoir observer et imitation numérique

Note de bas de page 44 :

Voir Fontanille (2009).

Pour engendrer le « pouvoir observer », il faut que l’image puisse générer une reconnaissance du côté de l’observateur : nous appelons « iconisation » cette fonction de l’image. Reprenant l’analyse de Fontanille qui cite Eco et Greimas, l’iconicité de l’image d’une part « s’explique par l’équivalence entre l’expérience sensible qu’on peut en faire et celle qu’on pourrait en faire dans des conditions adaptées, de son propre référent » et d’autre part « cette équivalence est en général remplacée ou complétée par des systèmes de correspondances réglées et conventionnelles »44. Ainsi nous retrouverions dans nos images un mélange de ces deux manières d’iconiser. Pour regarder cela d’un peut plus près nous allons passer de la « figure » iconique au texte plastique qui la détermine.

Note de bas de page 45 :

Voir Fontanille (2007).

L’image radioscopique se présente d’abord comme un système semi-symbolique « reposant sur la relation entre deux contrastes, entre le clair et le sombre d’une part, le plein et le vide d’autre part »45.

/Sombre/

versus

/Clair/

« Plein »

versus

« Vide »

Ici une lecture structurale de l’image suffit à « présentifier » pour permettre la détection c’est-à-dire la révélation d’un objet dans un bagage sans pour autant statuer sur cet objet. Cette interprétation se rapprocherait du système de correspondances réglées et conventionnelles évoqué par Fontanille.

Note de bas de page 46 :

Dont les parties ne sont séparables que par analyse. Voir Bordron (2004).

Par ailleurs, les coordonnées spatiales de chaque stimulation des rayons X ont été mémorisées et sont actualisées dans l’image. La reconstitution s’effectuant sous la forme d’une juxtaposition de pixels qui imite la configuration spatiale initiale de l’ensemble des stimuli physiques sur la surface technologique sensible, cette pixellisation disparaît avec la distance (nous l’avons vu précédemment), au point de devenir une totalité de type « fusion »46 et fait émerger des formes par la variation de ses contrastes. Par conséquent nous glissons d’une lecture « structurale » de l’image (qui sera potentialisée) à une lecture « iconique » du contenu du bagage visualisé.

Note de bas de page 47 :

Voir Beyaert-Geslin (2010).

Dans notre image, l’opération première serait donc assimilée en une ségrégation de type figure / fond qui enclencherait la « quête sémantique par laquelle le regard cherche à mettre à jour […] les formes du monde en faisant de la ressemblance iconique un critère d’élection de la figure »47.

Note de bas de page 48 :

Voir Groupe µ (1992).

Comparable au « fond » décrit par le Groupe µ48, le blanc qui domine l’image ne connait comme limite que celle de l’objet « écran » de la machine et donne ainsi l’impression de s’étendre au-delà. De la même manière, il est « indifférencié », c’est-à-dire sans variation interne et semble exister « sous » une figure qui est poussée vers l’observateur. Les stimuli sombres que nous associerons à un « non-blanc » font émerger un nouveau système semi-symbolique qui stabilise et spatialise les figures :

/Blanc/

versus

/Non-blanc/

« Fond »

versus

« Forme »

« Derrière »

versus

« Devant »

Ainsi l’actualisation de la matrice numérique use des procédés d’iconisation pour recréer l’expérience sensible du monde naturel destinée à favoriser la reconnaissance. Dans cet ordre d’idée nous pouvons évoquer rapidement d’autres « traitements » de l’image qui visent eux aussi cette persuasion par « l’imitation » du monde naturel. D’abord la transformation « renforcement de contour » renforce la schématisation déjà effectuée par les contrastes en y ajoutant une ligne épaisse, un cerne, qui délimite et renforce l’émergence et la reconnaissance des figures. Les fonctions de renforcement de contrastes visent le même objectif en travaillant sur les différences de luminance accentuant les différences locales.

Note de bas de page 49 :

La première radiographie date de 1895, elle est l’œuvre de Wilhelm Röntgen, un physicien Allemand.

Par ailleurs, si l’image radioscopique est si facilement reconnaissable et lisible, c’est aussi parce que la matrice numérique contient en elle des programmes de génération d’un genre textuel. Pour ressembler autant à l’image de Wilhelm Röntgen49, les concepteurs de la visualisation numérique ont dû expliciter les propriétés du genre « radiographique » pour cette fois encore se focaliser sur une reconnaissance de type « règle conventionnelle ». Ainsi le cadrage, le centrage des formes sont autant de manières de /faire voir/ associées au genre visuel « radiographique ».

Note de bas de page 50 :

L’imitation est différente de la reproduction dans le sens où le modèle n’est pas un énoncé mais le processus d’engendrement de l’énoncé. Pour cela voir Bordron (2004).

Si l’image des années 2010 ressemble donc à celle de 1895, c’est bien la conséquence d’une imitation intentionnelle50 du processus d’engendrement de cette image pour en faciliter le transfert des connaissances interprétatives accumulées (p. e. dans la culture médicale).

Par conséquent la matrice numérique apparaît non seulement comme le lieu de mémorisation des données source sur l’intensité et la répartition de l’énergie des rayons X, mais aussi comme le lieu de mémorisation des règles et des conventions, des processus d’engendrement qui permettent l’imitation de segments visuels du monde naturel et celle des genres visuels. Elle devient l’espace de conjonction entre une numérisation destinée à reproduire une expérience scientifique (celle de la traversée des rayons X) et celle destinée à imiter des modes génératifs.

Cependant nous avons toujours un problème véridictoire. Si l’imitation vise la révélation de l’expérience scientifique, la reproduction de l’expérience scientifique est en quelque sorte immergée voire noyée dans la visualisation. Le système de visualisation doit donc mettre en place des stratégies d’authentification pour discriminer dans le paraître ce qui relève de l’être de la source.

Un espace proxémique contrôlé

Avant de parler directement de stratégie d’authentification, nous pourrions évoquer un moyen de contrôle de la visée. Si la pixellisation déclare le mode génératif de l’image, les processus associés à son « lissage » apparaissent comme autant de camouflages destinés à maintenir une visée iconique « globale » et « distanciée » de l’image.

Note de bas de page 51 :

Voir Beyaert-Geslin (2004).

Dans notre image radioscopique, il n’y a pas à proprement parler d’effet de lissage de l’image. Par contre ce camouflage est bien présent dans la « limitation » du zoom (à deux fois la taille d’origine). Celle-ci trahit le besoin de maintenir l’agent de sûreté dans l’espace « global » de l’iconisation du monde naturel et du genre textuel. La pixellisation représente une menace pour la pratique d’inspection-filtrage dans le sens où, reprenant les mots de Beyaert-Geslin, « recouverte de gros pixels » la figure est « fragilisée et transformée en hypoicône »51 (l’en deçà de l’icône) ce qui fait « résister » l’image à la « ressemblance ». Le pixel crée des effets de « masquage », il incruste le « caché » dans le « montré ».

De plus, cette limitation du zoom montre aussi que notre image n’échappe pas à cette « dramaturgie, où l’épaississement (pixel épais) précède la réduction (pixel fin) et pose la fine granulosité du corps mince comme visée du programme aspectuel ». Cette limitation du zoom révèle par conséquent une axiologie et une orientation discursive (le grain épais est tout autant dysphorique que le grain fin est euphorique).

Note de bas de page 52 :

Voir Bordron (2009).

Cet empêchement /faire – ne pas faire/ d’explorer la sphère intime de l’image est bien une programmation contenue dans la matrice numérique pour un maintien de la visée « pratique » d’inspection-filtrage. C’est un contrôle de « l’image événement »52, c’est-à-dire en quelque sorte de l’instance d’énonciation (forme de la traversée des rayons X versus forme des artefacts ou du dispositif de prise d’empreinte).

Authentification, métadiscours et relecture structurale

Note de bas de page 53 :

Fontanille (2009).

Précédemment la mathématisation avait pour but de rapprocher / con­former l’expérience de l’image à l’expérience du monde sensible. Cependant, la matrice numérique doit contenir des tactiques pour rapprocher l’expérience de l’image de l’expérience scientifique afin de ne pas faire de fausses reconnaissances. Ces dernières rendent compte de l’existence d’une catégorie d’objets formels que nous pourrions, reprenant la métaphore de la traduction, qualifier de « faux amis » visuels. Selon Fontanille, ce problème des faux amis est décrit par celui des « types iconiques dérivés » qui se comportent comme des « attracteurs » offrant « à moindre coût cognitif » une immanence sensible erronée issue de l’expérience sensible du monde naturel au « détriment du contenu scientifique »53. Il faut donc que l’image mette en place des stratégies de contrôle de l’iconisation et de l’interprétation de manière à désambigüiser les figures et disqualifier les faux amis.

Une manière de les disqualifier serait par exemple de forcer l’observateur à une relecture « structurale » de l’image qui viendrait compléter et critiquer la première lecture. Ce réglage structural est l’œuvre des fausses couleurs qui viennent en quelque sorte « décoller » l’observateur de la visée iconique pour effectuer un jugement comparatif à l’aide de cette visée structurale.

Note de bas de page 54 :

Voir Groupe µ (1992, p. 227).

Mobilisant des données présentes dans la matrice numérique, la visualisation s’engouffre dans la faille laissée par la visualisation monochrome de la radiographie classique. En effet, une dimension plastique restait inexploitée jusque-là, celle de la dimension chromatique de la dominance54.

L’image radioscopique s’est donc dotée de trois nuances : le bleu, l’orange et le vert. Ces couleurs sont toutes de saturation maximale et seule leur luminance varie pour la production des contours des figures et la lecture structurale précédemment décrite.

Du point de vue de la mathématisation, une généralisation a été effectuée visant à repérer dans les occurrences radiographiques les niveaux de gris (variation de luminance) associés à des catégories de matière.

Ainsi, si l’œil humain n’est pas capable de distinguer un niveau de gris parmi d’autres, la machine peut le mettre en valeur par une colorisation, discrétisant alors les variations continues en trois catégories : 1) les faibles densités associées aux matières organiques sont codées par de l’orange, 2) les fortes densités des matières métalliques sont bleues, 3) les densités indéterminées (situées entre ces deux extrêmes) sont vertes.

Nous obtenons alors le système semi-symbolique suivant :

/Vert/

versus

/Non-vert/

« Indéterminé »

versus

« Déterminé »

/Orange/

versus

/Bleu/

« Organique »

versus

« Métallique »

Ces fausses couleurs doivent se détacher des figures iconisées, car lors de l’interprétation l’opérateur doit différencier la visée iconique des formes de la visée structurale des couleurs. Par exemple dans une situation d’interprétation du monde naturel, cela équivaudrait au raisonnement suivant : C’est une tomate (iconisation à partir de la forme) « et » elle est rouge (saisie structurale) qui s’opposerait à « et » elle est verte.

1/ C’est une tomate 

/forme tomate/

versus /

autres formes/

2/ « Et » elle est rouge

/rouge/ (réalisé)

versus /

verte/ (actualisé)

« maturité »

versus

« non-maturité »

Note de bas de page 55 :

Voir Beyaert-Geslin (2009).

Ce serait vrai si, comme dans le monde naturel, il y avait une correspondance entre la couleur et la forme. Dans notre cas, celle-ci n’est pas assurée et c’est précisément cet effet rhétorique exprimé par l’image qui engage l’agent de sûreté dans une quête de vérité. Ce fonctionnement des fausses couleurs donne des propriétés factitives à l’image, celles de /faire faire/ la vérité. Si dans certaines visualisations scientifiques la colorisation vise l’imitation du monde naturel, comme c’est le cas dans la colorisation des vues du ciel obtenues par les images satellitaires (océan en bleu, forêts en vert, terre en ocre), nos couleurs se déclarent ici comme des couleurs artificielles et déclarent de la même manière leur interprétation ou lecture « structurale ». Pour exprimer cette distinction, Beyaert-Geslin emploie les expressions de « fausses vraies couleurs » (qui décrivent notre exemple des images satellitaires) et « vraies fausses couleurs » (celles de notre image radioscopique)55.

Note de bas de page 56 :

Voir l’image « écriture » dans Bordron (2009).

Ainsi une orange (le fruit) dans le monde naturel sera reconnue par sa forme ronde irrégulière et sa texture (peau d’orange) mais aussi par sa couleur typique. Cependant, dans notre image, notre fruit sera aussi de couleur orange, mais pour des raisons bien différentes car dans ce cas précis la couleur ne se veut pas un « montré » conforme à l’expression sensible du monde naturel, mais un « dire » conforme aux conventions « d’écriture »56 de l’image radioscopique. La couleur orange devient ici le code couleur correspondant aux matières organiques qui constituent le fruit.

Note de bas de page 57 :

Dans la règlementation, le traitement d’une arme factice sera le même que pour celui d’une arme réelle pour diverses raisons (p. e. utilisation d’une arme factice pour terroriser les passagers, ou arme à feu réelle en carbone).

Un exemple simple dans la sûreté du transport aérien illustre cette fonction d’authentification par la relecture structurale de l’image. Imaginons un agent de sûreté qui reconnait la forme iconisée d’une arme à feu. Cette forme est colorisée en orange. En conséquence, le sème « matière organique » de la couleur /orange/ entre en conflit sémantique avec la forme /arme à feu/ qui contient le sème « matière métallique ». Les données ontologiques de la colorisation étant hiérarchiquement plus fiables que les iconisations, l’agent de sûreté doit de nouveau catégoriser l’expression sensible en présence. Par exemple il pourra classer l’arme à feu dans la catégorie « jouet pour enfant » ou du moins « arme factice »57. La lecture structurale a donc le dernier mot dans l’interprétation de l’image.

Fiabilité du dire machinique et patine numérique

Un dernier point pose problème. Comment faire confiance dans le « dire » de la machine et comment établir un lien entre « foi perceptive » de l’observation directe et « adhésion » à la parole de la machine ? Cette question nous amène à celle plus générale de la fiabilité.

Note de bas de page 58 :

Voir Fontanille et Zilberberg (1998, p. 205).

Note de bas de page 59 :

Voir Fontanille et Zilberberg (1998).

La fiabilité repose d’abord matériellement sur « les changements d’équilibre entre les forces de cohésion, qui pérennisent, et les forces de dispersion, qui détruisent »58. Seulement, si la fiabilité en une machine relève bien de sa capacité fonctionnelle à reproduire de l’identique corrélativement à la capacité de résistance de ses constituants matériels, dans le cas présent nous observons une véritable « contamination » qui partant de la résistance des matériaux se communique à la résistance du lien entre l’énonciateur machine et l’énonciataire humain, un glissement de la fiabilité d’un « état de chose » vers un « état d’âme »59.

Note de bas de page 60 :

On emploie aussi l’anglicisme « calibration » qui est différent du « calibrage » français.

Dans la pratique d’étalonnage60, nous assistons littéralement à un déplacement du lieu de l’événement visé par l’observateur de l’image. Il ne s’agit plus ici de repérer les objets formels de l’image ni d’évaluer leur correspondance avec les « fausses couleurs » mais d’appréhender le niveau de fiabilité du « dire » radiographique qui équivaudrait à une forme de « patine numérique ».

Note de bas de page 61 :

Voir Bordron (2009).

En effet, dans cette situation nous disposons d’un étalon, c’est-à-dire un objet réel déjà connu (une expérience sensible du monde naturel stabilisée) dont l’expression radiographique est tout aussi stabilisée et partagée au sein de la communauté des interprètes de l’image. On en déduit donc que « le lien » entre l’expérience sensible de l’objet du monde naturel et l’expérience de l’image radioscopique de l’image est, lui aussi, définitivement stabilisé. Ainsi, cette situation convoque une « image écriture »61 dans laquelle l’opérateur va chercher un « écart » avec la norme d’écriture (l’étalon). Cet écart qui sera quantifié visuellement constitue en quelque sorte une empreinte de l’usure des composants électroniques de la machine mais aussi celle de la dégradation du lien fiduciaire entre l’énonciateur et son énonciataire.

Ici, visualisation et mathématisation sont intimement mêlées. L’écart est tout d’abord visuel (un écart d’une dimension plastique avec celle prototypique de l’étalon), mais son réglage par l’étalonnage engage des transformations qui relèvent de la mathématisation. Il peut donc être quantifié, objectivé par les données fournies par la matrice.

Note de bas de page 62 :

Vous trouverez un exemple p. 19 d’un manuel utilisateur situé à l’adresse web suivante : http://g-ecx.images-amazon.com/images/G/08/electronics/manuals/jennanth/new/Plustek_Opticard820._V173884577_.pdf (consulté le 25 mai 2011).

Pour prendre un exemple plus accessible, certains modèles de scanner demandent à leurs utilisateurs de redéfinir régulièrement le niveau de « blanc »62. Plus précisément, pour établir la correspondance entre l’affichage de l’écran et la valeur dans le monde naturel, on demande à l’utilisateur de mettre une feuille blanche dans le scanner. Si l’affichage apparaît en gris, l’utilisateur doit alors régler par une interface la couleur jusqu’à l’obtention d’un blanc conforme à sa « foi perceptive ». Ce déplacement « dans l’écran » se double alors d’une transformation des données conservées dans la matrice numérique. L’écart au blanc est donc évalué visuellement et ajusté mathématiquement. Par conséquent la matrice numérique est bien la garante du lien fiduciaire entre l’énonciateur et l’énonciataire.

Conclusion

Adaptée aux exigences globales de prudence et d’inspection-filtrage de la sûreté, l’image radioscopique répond plus précisément aux objectifs de détection et d’identification. Si le premier a rapidement été associé à la prise d’empreinte et à la dimension « autographique » de la visualisation, le second s’intègre dans un objectif « d’accessibilité » ou de lisibilité de l’image. Du côté de la détection, l’espace vide du « blanc » est contredit par la présence indicielle du « gris ». La matrice numérique opère là une « transduction », c’est-à-dire une communication fidèle des niveaux d’énergie des rayons X sur la surface des capteurs électroniques.

Note de bas de page 63 :

Voir Couchot (1998, p. 155).

Seulement, cette transduction ne peut être totale, car le « pouvoir voir » du montré radiologique doit laisser place au « pouvoir observer » de la pratique d’inspection-filtrage. Pour cela la matrice numérique opère donc une « traduction », c’est-à-dire une conjonction de la mathématisation de l’expérience scientifique « occurrence » et de celle d’une expérience sensible « type ». Dans ce rôle d’iconisation, la matrice numérique vise tant l’imitation de la sémiotique visuelle du monde naturel que celle du genre textuel « radiographique » de manière à engendrer la reconnaissance et le transfert des savoir-faire. C’est précisément dans cette opération que nous avons décrit le mieux cette hybridation du sensible et du numérique, cette commutation décrite par Couchot qui « corporéise le monde » et « scientifise » l’expérience sensible63. Ceci étant, nous avons pu relever la nécessité de réguler le rapport entre cette transduction et cette traduction pour obtenir le meilleur compromis entre « authenticité » et « accessibilité ». Ce troisième rôle joué par la matrice est celui des tactiques interprétatives permettant de contrôler et protéger l’iconisation de la production des « faux amis » par un commentaire critique « structural » effectué par les fausses couleurs, mais aussi de maintenir l’interprète « à distance » dans l’espace de l’iconisation des figures du monde naturel par la limitation du zoom et enfin de vérifier et maintenir l’adhésion de l’interprète en la parole de la machine par l’opération d’étalonnage qui vise la fiabilité du lien entre visualisation et mathématisation.

Comme l’histoire des techniques nous informe sur la manière de dépasser les limites physiques et mentales de l’homme, le programme informatique que l’on pourrait comparer à une prothèse (remplacement) et orthèse (correction) de nature conceptuelle, pourrait dans ce cas précis nous apprendre beaucoup sur ces expériences scientifiques situées en dehors de nos sens humains. En effet tous les algorithmes nécessaires aux ajustements, à l’accessibilité de l’empreinte du phénomène scientifique ne font que mettre en évidence les différences entre les expériences sensibles du monde naturel et les expériences scientifiques de ce même monde.

Cette construction par contraste pourrait, on le suppose, donner accès aux propriétés syntaxiques de ce qui s’apparenterait vraisemblablement à un champ sensoriel des expériences scientifiques. Ce serait alors une démarche réellement fascinante que cette description de nouvelles formes de sensibilités « extensives » réalisées par l’interaction entre l’homme et la machine.