Modes de raisonnement et images scientifiques

Catherine Allamel-Raffin 

https://doi.org/10.25965/visible.165

Sommaire
Texte intégral

Certains énoncés des sciences (et probablement les plus importants d’entre eux) vont bien au-delà de ce que notre seule expérience sensorielle quotidienne nous autorise à affirmer.

Note de bas de page 1 :

Samir Okasha, Philosophy of Science. A Very Short Introduction, Oxford, Oxford University Press, 2002, p. 18. Traduction personnelle.

À titre d’exemple, les biologistes nous disent que nous entretenons une étroite parenté avec les chimpanzés, les géologues nous disent que les continents africain et sud-américain n’en ont formé jadis qu’un seul, et les cosmologistes nous disent que l’univers est en continuelle expansion.1

Note de bas de page 2 :

Nathalie Heinich résume ainsi sa démarche sociologique : elle consiste dans « le fait de partir de séquences observées dans la vie réelle ­ - ce que l’on appelle des « études de cas » - pour en tirer des conclusions plus générales, susceptibles de s’appliquer à d’autres cas (et non pas de partir de raisonnements abstraits que l’on illustrerait ensuite par des exemples). (...)

Comment ces scientifiques ont-ils pu aboutir à de telles conclusions ? Dans une des meilleures introductions à la philosophie des sciences actuellement disponibles, Samir Okasha, l’auteur des exemples précités, répond : ils y sont parvenus au moyen de processus de raisonnement, plus ou moins complexes et dont la nature est elle-même source de questionnements multiples. Depuis l’Antiquité, en effet, ces outils cognitifs essentiels que sont les modes de raisonnement ont donné lieu – en particulier chez les philosophes – à des interrogations sous-tendues par deux orientations majeures : descriptive d’une part, normative d’autre part. Par orientation descriptive, on entend ici toutes les recherches visant à dégager la structure interne de chaque mode de raisonnement, à préciser les contextes dans lesquels il est effectivement employé, à mesurer sa fécondité heuristique en termes de contribution à l’élaboration de connaissances nouvelles. Par orientation normative, on désigne les travaux qui portent plus précisément sur la validité de chaque mode de raisonnement au regard de la logique, et sur sa légitimité dans le cadre d’une justification rationnelle de la connaissance. Toutes ces questions peuvent bien sûr coexister dans l’œuvre de ceux qui s’intéressent aux sciences, qu’ils soient philosophes, historiens ou sociologues. Au fil de ces dernières décennies, on a cependant assisté à un glissement de l’orientation exclusivement normative et revendiquée comme telle, vers une orientation plus ou moins descriptive. En d’autres termes, on a (au moins partiellement) substitué l’interrogation : « Quels sont les modes de raisonnement employés de fait dans les sciences ? » à celle qui incitait davantage à établir les règles d’une juridiction épistémologique : « Quels sont les modes de raisonnement que les sciences doivent (ou du moins devraient) employer ? » Pour des raisons multiples, quoique non contraignantes – refus des positions aprioristes et des approches transcendantales, adhésion au tournant pratique tel qu’il a eu lieu depuis trois décennies dans les études sur la science, recours à l’ethnographie de laboratoire – mon approche sera clairement descriptive dans les pages qui suivent. Pour employer des termes qui réapparaîtront dès la première section de cet article, la démarche à laquelle je souscris est d’inspiration inductivo-empirique, selon la formule utilisée à plusieurs reprises par Nathalie Heinich2. Franchissant les portes d’un laboratoire de sciences observationnelles ou expérimen-tales donné, je débute toujours mon travail d’investigation par une phase d’observation des pratiques à l’œuvre, entendues comme un ensemble d’actions hautement finalisées, supposant entre autres des habiletés corporelles et des savoirs tacites, relativement à des dispositifs matériels, à des cadres conceptuels, à des types de résultats, à des modes de diffusion de ces derniers.

Note de bas de page 3 :

Kevin N. Dunbar, “Understanding the Role of Cognition in Science: the Science as Category Framework” in P. Carruthers, Stephen Stich & Michael Siegal (dirs.), The Cognitive Basis of Science, Cambridge, GB, Cambridge University Press, 2002, p. 154.

Note de bas de page 4 :

J’ai séjourné durant plusieurs mois dans deux laboratoires : en physique des matériaux et en astrophysique. Au sein de chacun d’eux, j’ai effectué des observations de la pratique scientifique au quotidien et réalisé des entretiens centrés sur la production et les fonctions des images.
Le Groupe Surface-Interface (GSI) de l’Institut de Physique et Chimie des Matériaux de Strasbourg (IPCMS) est un laboratoire qui étudie les structures et les propriétés des surfaces de matériaux, le plus souvent inorganiques. Les investigations menées ont un caractère essentiellement expérimental et recourent aux principes théoriques de la physique quantique. L'objectif du laboratoire est le développement de matériaux déterminés et la maîtrise de leurs propriétés. Il s'agit de comprendre pourquoi telle ou telle propriété apparaît dans le cadre de tel ou tel protocole expérimental. Les résultats des (...)

Ainsi, si on s’en tient à la question des modes de raisonnement, force est de reconnaître que dans le cadre de la « conception standard des sciences », éminemment normative, qui a longtemps prévalu dans le domaine de la philosophie des sciences, deux modes ont été privilégiés, que ce soit dans les manuels à destination des étudiants ou dans le cadre des recherches les plus pointues menées depuis le début du XXe siècle3. Il s’agit en l’occurrence de la déduction et de l’induction. Or, dès lors que l’on adopte une visée essentiellement descriptive, il apparaît rapidement que ces deux modes de raisonnement ne suffisent pas à rendre compte des pratiques effectives au sein des laboratoires. Deux autres modes, l’abduction et l’analogie, y jouent également un rôle-clé. Ceci se révèle particulièrement flagrant lorsqu’on observe les activités relatives à la production et à l’exploitation d’images, comme j’ai eu l’occasion de le faire au cours d’enquêtes ethnographiques menées dans deux labora-toires déterminés4. Dans la suite de mon propos, nous verrons que le singulier « un mode de raisonnement » ne saurait convenir ici, et que l’adoption d’un mode n’est pas exclusif des autres dans le cadre d’une même recherche. On peut ainsi dégager de notables différences entre physique des matériaux et astrophysique quant au recours à l’un ou l’autre des types d’inférence étudiés. Le classique modèle épistémo-logique allant de l’émission d’une hypothèse à sa vérification via le raisonnement déductif semble mis à mal dès lors que l’on prend en compte : 1) des modes de raisonnement qui ne sont pas unanimement considérés comme légitimes sur le plan épistémologique (induction, abduction et analogie apparaissent comme problématiques pour des raisons diverses) ; 2) le fait que les possibilités concrètes d’appréhension des objets d’étude au sein de chaque science observationnelle ou expérimentale influencent significativement le recours à tel ou tel mode de raisonnement.

Abduction et analogie sont parfois purement et simplement rejetées hors du champ des inférences acceptables, ou voient leur impact effectif diminué dans les comptes rendus proposés de telle ou telle recherche – alors qu’elles sont pourtant parfaitement repérables comme ayant joué un rôle essentiel, aussi bien dans l’histoire des sciences que dans les activités quotidiennes des laboratoires. Je tenterai de cerner dans un dernier point de cet article les multiples fonctions assurées par ces types d’inférence – abduction et analogie – dans la recherche au quotidien, et ce notamment dans les pratiques qui incluent des images comme éléments de preuve.

1. Déduction, induction, abduction

Note de bas de page 5 :

Plusieurs manières de classer les objets célestes ont été mises au point au fil des siècles. Afin de se repérer dans le ciel, les astronomes des siècles passés découpèrent ce dernier en un certain nombre de figures reliant entre elles les étoiles les plus brillantes : ce sont les constellations. Ils donnèrent à ces constellations des noms issus de la mythologie (Cassiopée, Andromède), des noms d’animaux (le Cygne, la Grande Ourse) ou d’objets techniques (la Balance, la Lyre). Les premiers astronomes antiques n’observèrent que les constellations visibles dans l’hémisphère Nord. Ce furent les astronomes Johann Bayer (1572-1625) et Nicolas Louis de la Caille (1713-1762) qui se livrèrent au même travail pour l’hémisphère Sud. Les limites des constellations restaient cependant floues et indéterminées. En 1922, l’Union Astronomique Internationale régla une fois pour toutes le problème en (...)

Note de bas de page 6 :

Le cas de la définition d’un objet comme celui de galaxie est intéressant. L’idée d’univers-îles (qui deviendra par la suite, l’objet « galaxie ») est née au XVIIIe siècle (Emmanuel Kant, Friedrich Wilhelm Herschel) et devra attendre le XXe siècle et les travaux d’Edwin Hubble pour réellement acquérir toute sa consistance. En effet, jusque-là, les astronomes avaient observé certains objets « nébuleux », mais sans clairement les distinguer les uns des autres. Par exemple, au début du XXe siècle, T. Chamberlin recourut à la photographie afin d’étudier la formation des météorites, comètes et nébuleuses, ce dernier terme recouvrant en fait tous les objets célestes étendus à l’exception des comètes. C’est parmi cette catégorie d’objets désignés par le terme de « nébuleuse » que va peu à peu se construire l’objet « galaxie », en s’appuyant entre autres, sur les progrès notables des (...)

Quelle est la visée fondamentale des chercheurs qui œuvrent dans le cadre des sciences de la nature ? Celle-ci peut se résumer simplement : ils sont constamment à l’affût de nouvelles informations, de nouveaux concepts, de nouvelles lois. Soulignons-le d’emblée : les procédures cognitives susceptibles d’atteindre cette fin sont multiples et ne se limitent pas aux modes de raisonnement identifiés, décrits et évalués expressément comme tels, le plus souvent depuis l’Antiquité. Ainsi, et pour m’en tenir à un seul exemple issu de mes observations au CfA, le premier travail des astrophysiciens consiste à tenter de se repérer au sein d’une multitude d’objets célestes : classer est donc la première étape de la recherche en astrophysique5. Observer une multitude d’objets, en dégager les caractéristiques précises, puis entreprendre une classifi-cation sous forme de catalogues reposant sur ces caractéristiques, est une démarche repérable dans l’histoire de l’astronomie avant même l’apparition des premières lunettes astronomiques. Cette entreprise se poursuit actuellement : certains astrophysiciens ont pour tâche de réactualiser les différents catalogues disponibles en y incluant les nouveaux objets repérés. Cette entreprise ne s’avère d’ailleurs pas toujours aisée6.

Note de bas de page 7 :

En particulier l’analogie.

La procédure consistant à classer les objets d’étude pertinents au regard d’une science donnée (en l’occurrence, l’astrophysique) incorpore par moments des modes de raisonnement7 qui sont précisément ceux que je vais évoquer maintenant plus en détail, tout en se distinguant d’eux par certains aspects qui lui sont spécifiques. Dans les pages qui suivront, je m’en tiendrai aux quatre types d’inférence annoncés dès l’introduction : la déduction, l’induction, l’abduction et l’analogie.

Quelle est tout d’abord la place de la déduction dans le cadre des pratiques ayant cours au sein de laboratoires tels que le GSI et le CfA ? Celle-ci n’est évidemment pas absente du travail des chercheurs en physique des matériaux et en astrophysique, à différentes étapes de leur travail.

Note de bas de page 8 :

Ian Hacking & Michel Dufour, L’ouverture au probable. Eléments de logique inductive, Paris, Armand Colin, 2004, p. 15.

Note de bas de page 9 :

Pour fournir une formulation plus rigoureuse du raisonnement déductif : « un ensemble de prémisses Γ a pour conséquence logique un énoncé A si, et seulement si, il est impossible que les prémisses contenues dans Γ soient vraies, tandis que A serait faux. » Mikaël Cozic, « Confirmation et induction », Précis de philosophie des sciences, Anouk Barberousse, Denis Bonnay & Mikaël Cozic (dirs.), Paris, Vuibert, 2011, p. 63.

Note de bas de page 10 :

Je reprends ici les exemples fournis par Ian Hacking et son traducteur Michel Dufour dans l’ouvrage introductif L’ouverture au probable. Eléments de logique inductive. Pour un exemple de raisonnement valide qui peut avoir une prémisse fausse, mais une conclusion vraie :
« 1. Tous les philosophes célèbres ayant vécu plus de quatre-vingt-dix ans s’adonnaient à la logique mathématique.
2. Bertrand Russell, philosophe célèbre, vécut plus de quatre-vingt-dix ans.
Donc : 3. Bertrand Russell s’adonnait à la logique mathématique. » Ici, l’argument est valide et de surcroît, la conclusion est matériellement vraie. En revanche, la première prémisse est fausse, Hobbes ayant vécu au XVIIe siècle, plus de quatre-vingt-dix ans, sans s’être adonné à la logique.
Pour un exemple de raisonnement non valide ayant à la fois des prémisses et une conclusion vraie, Hacking et Dufour proposent le suivant :
« 1 (...)

Note de bas de page 11 :

Aharon Kantorovich, Scientific Discovery. Logic and Tinkering, New York, State University of New York Press, 1993, p. 64. Traduction personnelle.

Pour comprendre ce qu’est le mode de raisonnement déductif, il convient de rappeler d’abord la distinction essentielle entre validité formelle et vérité matérielle. « La validité concerne l’inférence, le lien logique entre prémisses et conclusion. Elle ne concerne pas la vérité des prémisses ou celle de la conclusion, ces vérités pouvant être établies le plus souvent indépendamment les unes des autres. »8 Une déduction – entendue comme le fait de dégager les implications logiques de prémisses afin d’aboutir à une conclusion9 – peut être valide tout en ayant une prémisse fausse, ou être non valide tout en ayant une conclusion vraie10. Lorsque la déduction est valide et que les prémisses sont vraies, la conclusion est nécessairement vraie. On dit que la conclusion « préserve » la vérité des prémisses. Dans tous les cas, ce qui caractérise la déduction au premier chef, c’est qu’elle n’apporte pas de savoir nouveau dans sa conclusion qui ne soit déjà en un sens contenu dans ses prémisses. « Sur l’échelle des méthodes génératrices de nouveauté, l’inférence déductive est située au plus bas, car elle ne peut en aucune façon donner naissance à une information nouvelle. »11

Note de bas de page 12 :

Ian Hacking & Michel Dufour, L’ouverture au probable. Eléments de logique inductive, op. cit., p. 17.

Par conséquent, le mode de raisonnement déductif ne saurait se suffire à lui-même lorsqu’on l’emploie dans le cadre des sciences observationnelles ou expérimentales. Le rapport à l’empirie de ces dernières constitue une composante de base que l’on ne saurait esquiver, et la déduction, comme on l’a vu, est indifférente à l’égard du fait que nous pouvons « connaître certaines choses sur le monde ».12 Néanmoins, il ne faudrait pas la congédier sans autre forme de procès et sans avoir pris la peine de relever quelques-uns des moments au cours desquels elle constitue un élément clé dans l’activité des chercheurs. Parmi ces moments, on compte ceux qui consistent à faire appel à des modèles mathématiques. On verra également plus loin que selon les versions canoniques du mode de raisonnement abductif, celui-ci suppose l’existence d’une nécessaire étape déductive.

Note de bas de page 13 :

Parmi ces extensions périphériques, on compte notamment le raisonnement par récurrence qu’Henri Poincaré appelle « induction mathématique ». À l’autre extrémité, on trouve l’inférence conjecturale du type de celles que dégage le détective ou l’historien – et que pour ma part, j’intégrerai plutôt à la classe des raisonnements de type abductif.

Qu’en est-il, dans un deuxième temps, de l’induction ? Pourquoi ne pourrait-on affirmer que le mode de raisonnement dominant au sein des laboratoires est le mode inductif ? Premier constat de fait : le terme « induction » recouvre en réalité une multiplicité d’acceptions. Si l’on souhaite trouver une formulation synthétique, qui prenne en compte ces dernières, tout en négligeant les extensions périphériques13, on utilisera la définition proposée par Claudine Tiercelin :

Note de bas de page 14 :

Claudine Tiercelin, « Induction » in Dictionnaire d’histoire et philosophie des sciences, Dominique Lecourt (dir.), Paris, Puf, 1999, p. 506.

Toute forme d’inférence par laquelle on passe d’un ensemble fini d’observations particulières à une conclusion générale, et qui n’est pas de nature démonstrative.14

Note de bas de page 15 :

Robert Blanché, L’induction scientifique et les lois naturelles, Paris, Puf, 1975, p. 8-9.

Note de bas de page 16 :

Une restriction s’impose au passage : toute induction n’est pas nécessairement ampliative. Aristote, pour sa part, considérait l’induction comme une induction par énumération et distinguait deux cas possibles. Soit l’induction est complète (tous les cas sont énumérés) et se ramène à une forme de syllogisme, certes imparfait, mais dont les prémisses garantissent la conclusion. Soit l’induction est ampliative, à concevoir non pas comme un syllogisme, mais comme « une saisie intuitive de l’universel dans le donné sensible » (Ibid., p. 11). En tant que telle, elle comporte bien évidemment le risque logique qu’on lui a classiquement reconnu.

Note de bas de page 17 :

Si l’on résume, avec John Watkins le problème tel que David Hume le posait au XVIIIème siècle, (sans employer, pour sa part, le terme d’induction) : les inférences inductives, allant de cas observés à des cas non encore observés sont : (1) indispensables, à la fois dans la vie quotidienne et dans les sciences de la nature ; (2) injustifiables. Le choix de Hume a consisté à retenir à la fois les propositions (1) et (2), ce qui a fait dire que sa position était schizophrénique et intenable. Emmanuel Kant et les membres du Cercle de Vienne ont retenu la proposition (1) et rejeté la (2). Ceci les a conduits à chercher à justifier l’induction par des voies diverses. Karl Popper, enfin, a rejeté la proposition (1) et accepté la (2) en proposant une voie de sortie constituée par sa théorie falsificationiste de la connaissance empirique. John Watkins, “A New View of Scientific Rationality” (...)

Parmi les distinctions susceptibles d’être établies sur la base de cette définition, il en est une sur laquelle insiste Robert Blanché : selon lui, le sens du mot « induction » oscille entre deux acceptions : celle d’un passage du particulier au général qui remonte à Aristote, et celle d’un passage des faits à la loi que l’on peut rapporter aux travaux des physiciens, qui, de Galilée à Newton, ont élaboré la méthode expérimentale rendant possible l’émergence des sciences de la nature modernes.15 Qu’on souscrive à l’une ou à l’autre de ces acceptions, les traits communs à toutes les conceptions de l’induction depuis Aristote sont les suivants : un point de départ, direct ou indirect, dans l’expérience – c’est-à-dire la caractéristique de toute opération inductive de reposer en définitive sur des données de fait ; un mouvement de remontée qui va des conséquences vers des principes et qui prend à rebours l’ordre déductif ; un caractère d’insécurité, dans la mesure où dans l’inférence inductive, la conclusion dit plus que les prémisses et peut se révéler fausse en dépit de la vérité de ces dernières. Une idée de risque logique est donc constitutivement associée à la nature ampliative de l’induction16. Qu’est-ce qui permet d’affirmer, sur la base de nombreuses observations de corbeaux noirs, que tous les corbeaux sont noirs ? Bon nombre d’auteurs se sont penché avec des intentions et des formulations distinctes sur le problème de la justification de l’induction17.

Note de bas de page 18 :

On accepte dès lors que l’induction ne peut atteindre que le vraisemblable. La fonction du calcul de probabilité est de contrôler cette vraisemblance. Ce qu’on a exclu inéluctablement, en l’occurrence, ce sont la nécessité et l’universalité.

Note de bas de page 19 :

Voir sur ce point le très intéressant ouvrage de Stéphanie Ruphy : Pluralismes scientifiques. Enjeux épistémiques et métaphysiques, Paris, Hermann, 2013.

Cependant, si on néglige le point de vue de la logique qui condamne impitoyablement le mode de raisonnement inductif, on peut malgré tout lui accorder une certaine fécondité, notamment si l’on s’appuie sur un modèle probabiliste18. Ce dernier permet de confirmer ou d’infirmer certaines hypothèses, lois ou théories. Il suppose une certaine fréquence d’apparition d’un phénomène, si l’on veut que les résultats du calcul de probabilités soient opératoires. En physique des matériaux, dans un laboratoire tel que le GSI, la difficulté à mettre à jour les phénomènes étudiés, depuis l’élaboration de l’échantillon jusqu’à la production et à l’exploitation d’une image, entraîne que les chercheurs n’ont pas affaire à une multitude de cas similaires qu’ils pourraient intégrer dans une même rubrique d’énoncés d’observation. Cela ne signifie pas qu’ils ne parviennent en aucun cas à des énoncés universels ayant valeur de principe, mais plutôt que leurs procédures de raisonnement ne relèvent pas essentiellement de l’induction. En astrophysique, au CfA, la situation est sensiblement différente. Le raisonnement inductif y est facilité du fait même de la possibilité de reproduire les observations relatives à des propriétés ou aux mouvements des objets célestes. Cependant, là encore, l’induction seule se révèle incapable de rendre compte de toutes les activités qui ont cours dans un tel laboratoire. Car, bien que l’astrophysique soit une science observationnelle, il lui faut également déterminer les processus qui sous-tendent la formation et l’évolution des objets célestes contenus dans l’univers et en fournir des modèles explicatifs19. Une telle visée ne peut être atteinte en recourant seulement de façon massive à l’induction.

Quel est dès lors le mode de raisonnement qui permettrait de mieux comprendre la recherche au quotidien effectuée dans les deux laboratoires, celui du GSI et celui du CfA ? L’abduction semble ici constituer le meilleur candidat possible. Elle est définissable ainsi, selon Charles Sanders Peirce :

Le fait surprenant C est observé ;

Mais si A était vrai, C irait de soi.

Note de bas de page 20 :

Charles Sanders Peirce, Œuvres I. Pragmatisme et pragmaticisme, Claudine Tiercelin & Pierre Thibaud (dirs.), Paris, Editions du Cerf, 2002, p. 425 ; CP. 5. 189.

Partant, il y a des raisons de soupçonner que A est vrai.20

Note de bas de page 21 :

Pierre Jacob, De Vienne à Cambridge. L’héritage du positivisme logique, Paris, Puf, 1980, p. 446.

Le raisonnement abductif a la forme suivante : un phénomène observé est surprenant. Mais ce phénomène ne serait plus aussi surprenant si une hypothèse d’une certaine espèce était vraie, alors le phénomène s’expliquerait. Alors on essaie de formuler une hypothèse en question. Parmi les hypothèses de cette espèce, on voit par approximation laquelle permet de déduire le phénomène initial avec le plus d’exactitude.21

Note de bas de page 22 :

La logique de la découverte au sens de Hanson, c’est « … l’analyse des raisons de suggérer une hypothèse, elle s’inspire du raisonnement rétroductif de Peirce. » « Ce que refuse Hanson, c’est donc l’idée que le processus de découverte d’une hypothèse n’a rien à voir avec la logique (inductive ou déductive) : qu’il relève de facteurs psychologiques, sociologiques ou historiques » (Ibid. p. 446). Rappelons que le contexte de la découverte a été distingué du contexte de la justification par les philosophes du début du XXème siècle. Le contexte de la découverte renvoie à un ensemble de facteurs relevant du quid facti ? kantien. Ces facteurs sont susceptibles d’intéresser les historiens, les sociologues et les psychologues : qui a fait la découverte ? Est-elle le fruit d’une intuition heureuse, d’une idée empruntée à un rival ou le résultat d’un travail acharné de toute une vie ? Quel (...)

Note de bas de page 23 :

Si l’on se rapporte au contexte des études expérimentales menées dans les deux laboratoires où j’ai séjourné, le modèle hypothético-déductif poppérien tombe sous le coup de la même réserve que celle que j’ai esquissée plus haut pour l’induction. Afin de pouvoir tester l’hypothèse théorique de départ, il faut postuler la possibilité de tests multiples, et non d’un test unique. On se heurte donc au problème de la reproductibilité des conditions expérimentales en matière de production d’images. Contrairement à ce que l’on pourrait penser, dans un laboratoire comme le GSI, on ne reproduit pas des expériences afin de corroborer ou de falsifier des énoncés théoriques (pour des raisons qui tiennent à l’impossibilité matérielle de reproduire à l’identique les conditions de chaque expérimentation). C’est l’abduction qui va permettre de remédier à cet état de fait. En astrophysique, la (...)

Note de bas de page 24 :

Pierre Boudon, « Entre rhétorique et dialectique : la constitution des figures d’argumentation » in Langue française, n° 137, 2000.

Dans tous les cas, il faut qu’il y ait eu une observation initiale « surprenante ». On part donc toujours du « terrain », à la différence de ce que l’on rencontre dans le raisonnement hypothético-déductif. Pour Norwood Russell Hanson (1961), ce dernier est en réalité assimilable à une reconstruction a posteriori, correspondant à une logique de la justification, tandis que l’abduction, pour sa part, caractériserait plutôt une logique de la découverte22. Proposer un modèle de la découverte exclusif, comme le fait Hanson, est partiellement erroné, mais a le mérite d’inciter à penser, a contrario, qu’il n’existe pas une et une seule méthode de recherche scientifique. C’est la prétention à l’universalité du modèle épistémologique, quel qu'il soit, qui s’avère contestable. Au sein d’un même domaine général de recherche, la physique par exemple, il semble pertinent d’affirmer que différents modèles de la découverte coexistent, s’appliquent à des objets distincts et se fécondent mutuellement. Ainsi, la physique d’Albert Einstein peut se comprendre à partir d'un modèle hypothético-déductif (et ce n’est pas un hasard si Einstein a grandement impressionné Popper). Dans un laboratoire de recherche comme le GSI ou le CfA, en revanche, c’est le mode de raisonnement abductif qui paraît jouer un rôle essentiel23. Qu'est-ce qui justifie la distinction entre la démarche hypothético-déductive et la démarche abductive ? C'est le statut de l'hypothèse24. Dans la première, l'hypothèse a une fonction initiale, fondatrice. Dans la seconde, on remonte vers l'hypothèse à partir d'observations indirectes.

Note de bas de page 25 :

Ibid., p. 83.

Dans ces deux mouvements, le sens de l'hypothèse est inversé : alors que la déduction, qui procède par syllogisme catégorique, ouvre un déroulement programmatique (appuyé sur des assertions défini-tionnelles), de son côté, l'abduction, qui procède par syllogisme hypothétique, est l'expression d'une genèse des enchaînements.25

Note de bas de page 26 :

Carlo Ginzburg, « Signes, traces, pistes. Racines d’un paradigme de l’indice », Le Débat n° 6, Paris, Gallimard, p. 3-44 (traduit de l’italien par Jean-Pierre Cottereau), 1980, p. 15.

Avec l'abduction, nous avons affaire à un principe de découverte associé à une construction théorique en un sens opposé au principe d'exposition hypothético-déductif. Carlo Ginzburg26 résume la spécificité de l’inférence abductive peircienne en parlant de « la tendance fondamentale à inférer les causes des effets ». Plus encore, ce qui distingue l'abduction des autres modes de raisonnement, selon Peirce lui-même, c'est qu'elle est la seule à permettre la création d'idées nouvelles. Grâce à l’abduction, on conclut à l’existence de quelque chose qui est totalement différent de ce que l’on a pu observer empiriquement, et qui est généralement inobservable directement.

L’abduction est le processus qui consiste à former une hypothèse explicative. C’est la seule opération logique qui introduise la moindre idée nouvelle ; car l’induction ne fait rien si ce n’est déterminer une valeur, et la déduction se contente de dérouler les conséquences nécessaires d’une pure hypothèse.

Note de bas de page 27 :

Charles Sanders Peirce, Œuvres I. Pragmatisme et pragmaticisme, Claudine Tiercelin & P. Thibaud (dirs.), op.cit., p. 401 ; CP. 5-171.

La Déduction prouve que quelque chose doit être, l’Induction montre que quelque chose est effectivement opérant. L’Abduction suggère simplement que quelque chose peut être.27

Note de bas de page 28 :

L’étude de cas fut d’abord utilisée par Carl Hempel dans le cadre d’une présentation didactique de la méthode hypothético-déductive (Carl Hempel, Eléments d’épistémologie, Paris, Armand Colin, 1966/2012, traduit de l’anglais (USA) par Bertrand Saint-Sernin). Elle a ensuite été exploitée notamment par les auteurs suivants : Peter Lipton, Inference to the Best Explanation, (...)

La constitution d’hypothèses caractérise en propre l’abduction. En témoigne une étude de cas historique souvent reprise, même par des philosophes très critiques à l’égard du concept d’abduction : il s’agit de la découverte de la cause de la fièvre puerpérale qui fut l’occasion, pour le jeune médecin Ignaz Semmelweis, de formuler de nombreuses hypothèses jusqu’à ce qu’il parvienne à celle qui se révéla au moins provisoirement satisfaisante28.

2. Trois types d’abduction

Note de bas de page 29 :

Umberto Eco, Les limites de l’interprétation (1983), Paris, Grasset (traduit de l’italien par Myriem Bouzaher, 1992, p. 262.

On peut distinguer plusieurs types d’abduction selon Umberto Eco29 : l’abduction hypercodée, l’abduction hypocodée, l’abduction créative. À ceux-ci, Eco ajoute la méta-abduction que j’assimilerai pour ma part à une procédure de vérification. Nous allons voir que ces trois types sont diversement à l’œuvre dans l’activité de recherche menée au sein du GSI ou du CfA.

2.1 L’abduction hypercodée

Dans l’abduction hypercodée, l’hypothèse (ou la loi) est suggérée par le contexte et les connaissances des chercheurs. Par exemple, lors d’une prise d’image avec un microscope à effet tunnel (STM), l’apparition de certaines distorsions sur l’image conduit les chercheurs à émettre l’hypothèse d’une déficience de la pointe de l’instrument, de manière quasi instantanée et inconsciente. Cette hypothèse abductive hypercodée peut s’avérer judicieuse, mais les scientifiques participant à l’investigation savent bien qu’ils pourraient en formuler d’autres et qu’ils seront peut-être même amenés à le faire. De même, au CfA, la distorsion d’une image de manière symétrique conduira les chercheurs à penser de manière quasi immédiate qu’ils ont affaire à un artefact instrumental.

2.2 L’abduction hypocodée

L’abduction hypocodée consiste à choisir parmi un ensemble d’hypothèses équiprobables. Dans ce cas, l’hypothèse choisie devra être soumise à vérification. Elle ne s’impose pas comme allant de soi, mais entre en concurrence avec d’autres hypothèses possibles. Ainsi, par exemple, dans le cas de l’apparition d’un nouveau cercle blanc sur une micrographie réalisée avec un microscope électronique à transmission (MET), plusieurs hypothèses abductives hypocodées s’offrent à la microscopiste : le cercle correspond soit à un artefact causé par l’appareil, soit à une caractéristique nouvelle de l’objet étudié. Ce n’est qu’après de multiples recoupements nécessitant des mois de labeur que la microscopiste a pu retenir l’hypothèse de l’artefact.

De même au CfA, les chercheurs ont détecté des quasars présentant de grandes ressemblances sur le plan optique, ce qui constitue un fait surprenant. Les hypothèses envisagées permettant de rendre compte de ce phénomène surprenant sont :

  • l’obtention de deux images similaires d’un même quasar en raison d’une lentille gravitationnelle ;

  • l’existence de deux quasars réellement distincts, mais se ressemblant beaucoup sur le plan optique.

Les chercheurs ont envisagé les deux hypothèses pour parvenir en définitive à la quasi-certitude de la présence simultanée de deux quasars, ces derniers possédant des caractéristiques significativement différentes dans le domaine des rayons X.

Ces deux types d’abduction – hypercodée et hypocodée – sont fréquemment exploités dans les recherches menées dans le cadre de la « science normale ». On s’appuie sur l’expérience acquise par l’ensemble de la communauté scientifique et sur la sienne propre. Ces abductions apparaissent comme acceptables en vertu du savoir antérieur, et sont en conformité avec les schèmes de pensée en vigueur.

2.3 L’abduction créative

Dans l’abduction créative, l’hypothèse doit être inventée de toutes pièces et n’est donc pas nécessairement conforme aux attentes des chercheurs et aux théories impliquées dans un travail expérimental de routine. L’expérience antérieure et les connaissances acquises individuellement et collectivement se révèlent alors insuffisantes pour suggérer une explication. Certaines abductions créatives peuvent ainsi constituer les bases de « révolutions scientifiques ». La représentation héliocentrique du mouvement des planètes par Copernic en est un exemple. À une échelle infiniment plus modeste, un chercheur, dont j’ai observé le travail mené au GSI, se livre à une abduction créative lorsqu’il tente de mettre au point un couplage AFM (microscope à force atomique)-STM (microscope à effet tunnel), afin d’étudier le rôle des défauts atomiques dans le magnétisme. En effet, les diverses techniques de visualisation disponibles lui semblent inopérantes et ne permettent pas de décrire le phénomène dont il soupçonne l’existence : un lien, qu'il juge essentiel, entre les défauts atomiques et le magnétisme. Il envisage donc de mettre au point un nouveau type de microscope. Les images produites par ce dernier n’étant pas encore éprouvées, l’abduction créative nécessite l’application de la méta-abduction.

2.4 La méta-abduction

La méta-abduction est le processus par lequel

Note de bas de page 30 :

Michel J. Blais, Introduction à la logique, 2000, http://callisto.si.usherb.ca:8080/mblais, consulté le 11/11/1999

on cherche à vérifier si le monde possible dépeint au moyen de l’abduction créative est identique au monde réel observable : dit autrement, on cherche à voir si l’hypothèse est conforme au monde. (…) Les abductions créatives et les méta-abductions associées sont à la fois stimulantes et subversives.30

Pour prolonger notre exemple précédent, le chercheur va devoir montrer que les nouvelles images qu’il produit ont une pertinence.

Note de bas de page 31 :

Claudine Tiercelin, « Induction », Dictionnaire d’histoire et philosophie des sciences D. Lecourt (dir.), op.cit., p. 506.

Note de bas de page 32 :

Même si j’ai, dans les pages qui précèdent, souligné ce qui différencie ces modèles de raisonnement, on peut cependant rapprocher, comme le fait Christiane Chauviré, les conceptions de la recherche scientifique de Charles Sanders Peirce (qui mit à jour la structure du raisonnement abductif) et de Karl Popper (dont l’épistémologie repose sur la primauté accordée au modèle hypothético-déductif) : les deux auteurs s’accordent pour ce qui est du caractère surprenant du fait déclencheur de l’investigation (« fait surprenant » pour Peirce, « anomalie théorique » pour Popper). Ce fait déclencheur donne lieu à la formulation d’une hypothèse et à un important travail de déduction opéré a priori portant sur les prédictions susceptibles d’être ensuite testées expérimentalement. En définitive, et si l’on voulait suivre les analyses de Chauviré sur ce point, les distinctions doctrinales que l’on (...)

Le raisonnement abductif, dans ses différentes versions, a souvent été négligé, ou alors on a récusé sa spécificité en l’intégrant au mode de raisonnement inductif. C’est ce que fait encore Claudine Tiercelin dans l’article « Induction » du Dictionnaire de philosophie et histoire des sciences31. Notons que, tout comme dans le raisonnement hypothético-déductif32, ce qui suit la formulation de l’hypothèse dans le cadre du raisonnement abductif relève de l’ordre de la déduction, et doit donc nécessairement s’allier à cette dernière pour aboutir à son terme. Peirce lui-même affirme :

Note de bas de page 33 :

Charles Sanders Peirce, 7.115n, cité par Christiane Chauviré, « Peirce, Popper et l’abduction. Pour en finir avec l’idée d’une logique de la découverte » in Revue philosophique de la France et de l’étranger, op. cit., p. 453.

Les déductions que nous faisons à partir de l’hypothèse à laquelle a abouti l’abduction produisent des prédictions conditionnelles sur notre expérience future, c’est-à-dire que nous inférons par déduction que si l’hypothèse est vraie, alors tout phénomène futur d’une certaine description doit présenter tel ou tel caractère.33

Il note cependant :

Note de bas de page 34 :

Charles Sanders Peirce, 6.470, cité par Umberto Eco, Les limites de l’interprétation op. cit., p. 283.

La rétroduction n’offre aucune sécurité. L’hypothèse doit être vérifiée. Cette vérification, pour être logiquement valable, doit partir honnêtement, non comme part la rétroduction par l’examen des phénomènes, mais par l’examen de l’hypothèse et un passage en revue de tous les types de conséquences expérimentales dans l’expérience qui s’ensuivraient si elle était vraie. Cela constitue le second pas de la recherche.34

Après avoir recueilli sur une liste tout l’éventail des prédictions possibles à partir de l’hypothèse retenue, le chercheur procède à une vérification expérimentale. Reprenons Peirce encore une fois :

Note de bas de page 35 :

Charles Sanders Peirce, 7.115n cité par Christiane Chauviré, « Peirce, Popper et l’abduction. Pour en finir avec l’idée d’une logique de la découverte », Revue philosophique de la France et de l’étranger, op. cit., p. 453).

L’expérimentation consiste à produire ou à rechercher un état de choses auquel les prédictions conditionnelles déduites de l’hypothèse sont applicables et à noter dans quelle mesure la prédiction est remplie.35

Note de bas de page 36 :

Peirce, 5.600 cité par Christiane Chauviré, La philosophie dans la boîte noire. Cinq pièces faciles sur Wittgenstein, Paris, Editions Kimé, 2000, p. 65.

Note de bas de page 37 :

Pour une critique de la notion d’inférence abductive sur la base de la permissivité trop grande offerte par sa définition quant aux hypothèses susceptibles d’être formulées avec pertinence, voir Sami Paavola, “Abduction as a Logic and Methodology of Discovery: the Importance of Strategies”, Foundation of Science, vol. 92, 2004 – et en particulier le rappel des exemples formulés antérieurement par Peter Achinstein.

Reste à préciser comment s’opère le choix des hypothèses dignes d’être testées. Selon Peirce, la sélection s’effectue sur la base de l’adoption de trois critères : la testabilité, le pouvoir explicatif et le principe d’économie (« de temps, d’argent, de pensée et d’énergie »36,. Pour le classement des hypothèses concurrentes, il faut tester en premier lieu d’une part, les hypothèses susceptibles d’être le plus évidemment falsifiées (en d’autres termes les plus audacieuses), et d’autre part celles qui présentent la caractéristique d’être les plus simples37.

Afin de synthétiser mon propos sur les modes de raisonnement scientifique et le processus de recherche à l’œuvre dans un laboratoire comme le GSI ou le CfA, je suggère de distinguer six étapes dudit processus :

  1. la perception d’un phénomène surprenant ;

  2. l’invention d’hypothèses concurrentes susceptibles d’expliquer le phénomène ;

  3. le « listage » par un raisonnement déductif des prédictions engendrées par les hypothèses ;

  4. le classement des hypothèses, et le choix de celles que l’on va tester en respectant les trois critères évoqués plus haut ;

  5. la phase expérimentale durant laquelle on va essayer de confronter les prédictions avec les résultats de l’expérience ;

  6. l’évaluation de l’hypothèse (de son degré de concordance) avec les faits.

2.5 Le mode de raisonnement abductif au GSI et au CfA

Si nous dépassons le cadre strict de la production d’images pour y ajouter celle de données de natures diverses en physique des matériaux, et si nous considérons le cheminement des thématiques de recherche qui justifient cette production, nous voyons fréquemment se développer le mode de raisonnement abductif sous la forme suivante : soit un fait surprenant F qui serait explicable par les hypothèses H1, H2, H3… H2 étant plus probable, les physiciens des matériaux testent des implications relatives à H2 car ils ont la possibilité d’intervenir sur leurs objets d’investigation. Si H2 est avérée par l’expérience, le fait surprenant F est expliqué par H2. C’est une logique de confirmation de l’hypothèse la plus probable qui s’appuie sur des expériences. Dans la présentation des résultats au travers d’un article, les hypothèses H1 et H3 seront, soit très brièvement évoquées, soit passées sous silence. Le corps de l’article va consister à exposer de manière la plus détaillée possible pourquoi l’hypothèse H2 est pertinente.

En astrophysique, le raisonnement prendra souvent la forme suivante : soit un fait surprenant F qui serait explicable par les hypothèses H1, H2 et H3. Etant donné que les astrophysiciens ne peuvent se livrer à des manipulations ou à des interventions directes sur leurs objets d’investigation, afin de montrer que H3 par exemple est l’hypothèse qui semble la plus valide, ils tenteront de montrer que H1 et H2 ne sont pas valides. Ils peuvent dès lors conclure que H3 explique probablement le fait surprenant F (sous réserve qu’il existe d’autres hypothèses rivales H4, H5, etc., plus à même de rendre compte de F). Il s’agit plutôt ici d’une logique de l’infirmation. A l’occasion de la présentation des travaux correspondants dans le cadre d’articles de revues spécialisées, le fait que certaines hypothèses ne conviennent pas sera largement détaillé.

Ce que je souhaite souligner ici, c’est que, bien que le raisonnement abductif soit également repérable dans les deux domaines de recherche considérés, la phase déductive qui permet en fin de parcours de produire une explication ne suit pas tout à fait les mêmes chemins, et ce en raison des modalités pratiques disponibles permettant d’étudier les objets soumis à l’investigation des chercheurs.

Une remarque s’impose encore : bien que le raisonnement abductif joue un rôle essentiel dans les deux laboratoires, GSI et CfA, il constitue bien évidemment, de par lui-même, un facteur d’incertitude supplémentaire. En effet, on peut refuser de prendre en compte une hypothèse ou une implication d’une hypothèse, ou ne pas avoir su la formuler pour des raisons diverses. Dans ce cas, les résultats auxquels on parvient peuvent être soit faux, soit incomplets.

3. L’analogie

Après avoir défini ce mode de raisonnement, je développerai un exemple historique visant à préciser les procédures à l’œuvre lorsqu’on recourt à lui. Dans un second temps, je soulignerai le rôle essentiel qu’il joue dans la recherche au quotidien dans les deux laboratoires, GSI et CfA, et notamment dans les pratiques relatives aux images conçues comme élément de preuve.

3.1 Quelques définitions et précisions

Note de bas de page 38 :

« Le terme analogia signifie en Grèce (Archytas de Tarente) ce que les Latins [Varron (1), Cicéron (2)] ont traduit par proportio, soit ‘ rapports des parties entre elles et avec leur tout’ (Littré) et plus spécifiquement en mathématiques : rapport de quantités entre elles, et en géométrie : égalité de deux rapports par quotient. » (Philibert Secretan, L’analogie, Paris, Puf, Que sais-je?, 1984, p. 7). À partir de cette définition séminale de l’analogie s’est construit « le concept d’analogie qui désigne les similitudes au-delà de la proportion à quatre termes » (Marie Dominique Gineste, Analogie et cognition. Etude expérimentale et simulation informatique, Paris, Puf, 1997, p. 12). Il s’agit donc d’établir un rapport entre des choses dissemblantes du point de vue de la qualité, de la quantité et de leur nature. Il semblerait en fait que grâce à l’analogie, il y ait de la (...)

Note de bas de page 39 :

Mary Hesse distingue deux types d’analogies : les analogies formelles et les analogies matérielles. Une équation remplaçant terme à terme les données issues d’une expérience est une analogie formelle. De manière générale, les modèles mathématiques utilisés en physique sont construits pour rendre compte de manière adéquate des données empiriques. De ce fait, ces analogies ne sont pas susceptibles de donner lieu à des hypothèses hautement prédictives dans le cadre d’un raisonnement analogique. Il en va tout autrement avec les analogies matérielles qui sont des analogies préthéoriques établies entre des caractéristiques observables d’objets précis. Sur ce point, l’un des exemples de Hesse est l’analogie développée en physique entre les propriétés du son et celles de la lumière. L’auteur montre la fécondité d’une telle analogie matérielle. C’est à ce type d’analogie que je limiterai mon (...)

Note de bas de page 40 :

Mary Hesse, Models and Analogies in Science, Londres & New York, Sheed & Ward, 1963, p. 66.

Note de bas de page 41 :

Je m’inspire pour cet exemple des articles suivants : Fernand Hallyn, « Galilée, le télescope et l’évaluation de l’inférence analogique », Cahiers d’Histoire et de Philosophie des Sciences, n°40, 1992 ; William Shea, “Looking at the Moon as Another Earth : Terrestrial Analogies and Seventeenth-Century Telescopes”, Metaphor and Analogy, Fernand Hallyn (dir.), Dordrecht, Kluwer Academic Publishers, 2000.

Une analogie38 est établie entre deux objets lorsqu’on parvient à déterminer des propriétés communes qu’ils partagent39. Prenons pour exemple la Terre et la Lune : toutes deux sont des grandes sphères solides et opaques, recevant la lumière émise par le soleil, tournant sur elles-mêmes et en orbite autour de corps célestes d’une dimension plus importante. Ces éléments constituent ce qu’on peut appeler avec Mary Hesse40 les éléments constitutifs d’une analogie positive. Cela dit, la Lune est plus petite que la Terre, elle est de nature plus volcanique que cette dernière, elle n’a pas d’atmosphère et ne comporte pas d’eau. Ces éléments constituent la partie négative de l’analogie. Hesse distingue également une partie neutre dans l’analogie constituée des caractéristiques dont la ressemblance ou la différence, relativement à la Terre et à la Lune, n’est pas encore déterminée. Si nous affirmons, avec Galilée41, que les taches noires observables sur la Lune sont des ombres dues aux montagnes lunaires, nous entrons dans un processus de raisonnement analogique. Selon Hesse, un tel raisonnement repose sur des analogies qui s’organisent en fait autour de deux axes :

  • le premier axe est horizontal et porte sur la similarité (ou les différences) entre les propriétés attribuées à deux objets distincts ;

  • le second axe est vertical et d’ordre causal.

Si nous reprenons l’exemple précédent selon la perspective de Hesse :

La Terre

La Lune

Sphère

Sphère

Opaque

Opaque

Tourne sur elle-même

Tourne sur elle-même

Tourne autour d’un objet plus massif

Tourne autour d’un objet plus massif

Eclairée par le soleil

Eclairée par le soleil

Présence de montagnes

Présence de montagnes ?

Présence d’ombre

induite par les montagnes

Présence d’ombre

induite par les montagnes ?

Note de bas de page 42 :

Mary Hesse, Models and Analogies in Science, op. cit., p. 77.

Note de bas de page 43 :

Si on souhaite reprendre les termes employés par Holyoak et Thagard sur ce point, on dira qu’il s’agit de raccorder un domaine connu (« source analog ») à un domaine qui ne l’est pas encore de manière équivalente (« target analog ») (Keith J. Holyoak & Paul Thagard, Mental Leaps: Analogy in Creative Thought, Cambridge, MA, MIT Press, 1995, p. 2).

Note de bas de page 44 :

Selon Mary Hesse, toutes les analogies ne peuvent en réalité donner lieu à des raisonnements analogiques pertinents. Pour ce, il faut qu’il existe une relation causale sur l’axe vertical ; il faut également que cet axe soit indépendant de l’axe horizontal relatif à la similarité. Hesse propose des exemples de raisonnement analogique dans lesquels ces conditions ne sont pas remplies. (Mary Hesse, Models and Analogies in Science, op. cit., p. 69). Dans le même ordre d’idées, Jean-Blaise Grize établit une distinction entre l’analogie « illustration » et l’analogie « preuve ». La première n’est là que pour illustrer un point particulier dans un discours, et ne s’intègre pas dans une entreprise probatoire. Dans le cadre de cette analogie, l’accent est mis sur la similarité entre deux domaines distincts sans chercher à postuler l’existence d’un élément manquant à partir d’une première (...)

Note de bas de page 45 :

Robert Blanché souligne que dans la littérature relative à l’analogie, il règne une certaine confusion entre établir une analogie entre deux objets et raisonner par analogie, c’est-à-dire établir une inférence à partir d’un premier objet vers le second objet. (Robert Blanché, Le raisonnement, Paris, Puf, 1973, p. 180) Selon cet auteur, c’est l’une des raisons pour laquelle la portée de l’analogie est bien souvent mal perçue. Le même constat est établi par Biela. (Adam Biela, Analogy in Science, op.cit., p. 11).

L’axe horizontal repose sur la mise en évidence de caractéristiques similaires (ou différentes) entre deux objets distincts. Soulignons, toujours avec Hesse42 que les caractéristiques du premier objet, celui qui sert en quelque sorte de modèle43, doivent être observables directement ou indirectement (au moyen d’instruments). Si tel n’était pas le cas, il serait impossible de formuler une nouvelle hypothèse portant sur le second objet (dans notre cas, la Lune). L’axe vertical repose, quant à lui, sur la mise en évidence de relations causales. Ainsi, Galilée avait des raisons de penser que les caractéristiques de son analogie positive étaient liées causalement (la présence de montagnes, éclairées par le soleil, conduit à postuler l’existence d’ombres). De ce fait, il pouvait émettre l’hypothèse que les taches noires lunaires correspondaient à l’ombre des montagnes, tout comme sur Terre, nos montagnes produisent de larges zones d’ombre. L’existence de cette relation causale44 est essentielle, car c’est en fait grâce à elle que le raisonnement analogique peut être conduit jusqu’à son terme. Le raisonnement analogique45 prend donc la forme : A est à B ce que C est à D. Formulé autrement, et de manière plus précise : soient deux objets analogues x et y dont la ressemblance repose sur des traits communs : « B1, B2…Bn ». Ils ne se ressemblent pas quant à certains traits « A1, A2…An », que x possède, contrairement à y. Inversement, y possède certains traits « C1, C2…Cn », contrairement à x. Le raisonnement analogique consiste à postuler que le trait D qui appartient à x est susceptible d’appartenir également à y.

3.2 Validité du raisonnement analogique

Pour les empiristes logiques, le raisonnement analogique ne reposant pas sur la déduction, est nécessairement incorrect. M. Bunge résume leur position ainsi : 

Note de bas de page 46 :

Mario Augusto Bunge, 1967, p. 267, cité par Cameron Shelley, “Analogy Counterarguments and the Acceptability of Analogical Hypotheses” in British Journal for the Philosophy of Science, n° 53, 2002, p. 478. Traduction personnelle.

Les arguments formulés sur la base d’analogies peuvent être fertiles, mais ils ne sont pas valides : leur succès, lorsque succès il y a, ne dépend pas de leur structure logique, mais de la nature du cas étudié – d’où le fait qu’il ne peut pas exister de logique de l’analogie […] [Une hypothèse analogique] est une conjecture qui doit être soumise à des tests autres que ceux qui concernent la validation de la prémisse de l’analogie. Si l’hypothèse se révèle fausse, nous devrions conclure que l’inférence n’est pas seulement invalide, mais également stérile.46

Note de bas de page 47 :

Cameron Shelley, Ibid.

Note de bas de page 48 :

Ce postulat est, en fait, très ancien et remonte déjà à Aristote : « Découvrir des ressemblances entre les termes et les utiliser dans la démarche devient une procédure pour élaborer des hypothèses. Mais aucune connaissance ne peut être construite par analogie. En effet, pour Aristote, l’analogie est exclue de la logique, elle appartient au discours et à l’argumentation. Seul le raisonnement permet d’aboutir à des conclusions logiquement vraies. » (Marie Dominique Gineste, Analogie et cognition. Etude expérimentale et simulation informatique, op. cit., p. 12). Comme le souligne Philibert Secretan, analogie et rationalité scientifique ne font pas bon ménage. (Philibert Secretan, L’analogie, op.cit., p. 89-90), La notion de ressemblance est jugée trop vague pour soutenir un raisonnement scientifique. Adam Biela quant à lui, retrace les différentes positions adoptées au sujet de la (...)

Comme le souligne Cameron Shelley47, le fait que le raisonnement analogique soit non correct d’un point de vue logique est un postulat largement accepté en philosophie des sciences48. Shelley adresse quelques objections à ce postulat et propose de montrer que dans la recherche scientifique, certaines analogies ont une réelle validité qui s’appuie sur une logique prenant en compte l’analogie. Cette logique « analogique » se manifeste notamment par le recours à des contre-arguments qui reposent eux-mêmes sur des analogies. Dans une étude de cas portant sur l’extinction des dinosaures suite à l’impact supposé d’un astéroïde, Shelley étudie les contre-arguments analogiques qui ont été élaborés par les contradicteurs de cette hypothèse. Cette dernière a été proposée par Luis Alvarez à partir d’une analogie avec l’éruption gigantesque d’un volcan indonésien : le Krakatoa. Les débris de cette éruption se sont disséminés sur l’ensemble du globe terrestre provoquant un obscurcissement substantiel de l’atmosphère pendant une période de deux ans. S’appuyant sur les conséquences de cette éruption, Alvarez, dans le cadre de son raisonnement analogique, considère que l’impact d’un astéroïde de grande taille pourrait avoir provoqué un nuage de poussière tellement important que cela aurait provoqué l’assombrissement du soleil sur une période de trois années, trois années durant lesquelles la couverture végétale de la Terre aurait périclité, entraînant de fait la mort des dinosaures. De nombreux chercheurs refusèrent cette hypothèse et élaborèrent des contre-arguments relevant également de l’ordre de l’analogie. Shelley propose une classification de ces contre-arguments. Elle en distingue quatre types :

3.2.1 La disanalogie

Note de bas de page 49 :

Pour exemple, Shelley évoque une disanalogie proposée par un des contra-dicteurs de Luis Alvarez sur la base d’un autre cas d’éruption volcanique, celui du volcan Toba. La puissance de l’éruption du Toba aurait été quatre cent fois plus grande que celle du Krakatoa et correspondrait, en termes de volume de débris dispersés dans l’atmosphère, à l’impact de l’astéroïde postulé par Alvarez. Pourtant, l’éruption du Toba n’a pas engendré de catastrophe écologique – puisqu’en l’occurrence, la plupart des espèces végétales et animales ont survécu.

La disanalogie49 consiste à reprendre les caractéristiques de l’analogie de départ en l’appliquant à un objet similaire. Cette nouvelle analogie conduit à des conclusions différentes et invalide donc celles que l’on vise à réfuter et auxquelles était parvenu l’auteur de l’analogie initiale.

3.2.2 La misanalogie

Note de bas de page 50 :

Pour exemple, Shelley cite l’étude d’un autre contradicteur d’Alvarez. L’étude réalisée par ce dernier reprend l’analogie de départ et montre que dans le cas de l’éruption du Krakatoa, comme pour toute éruption volcanique, les débris ont tendance à coaguler dans l’atmosphère et à retomber rapidement. La quantité de débris susceptible de rester en suspension dans l’atmosphère serait donc bien plus faible que celle postulée par Alvarez. Bien que provoquant un obscurcissement, elle ne pourrait aucunement entraîner une extinction d’espèces vivantes telles que celles des dinosaures.

La misanalogie50 consiste à reprendre l’analogie de départ et à montrer que certaines de ses caractéristiques, non prises en compte jusqu’alors, mènent à des conclusions différentes. Elle consiste donc à dégager les insuffisances, sur le plan structurel, du raisonnement tenu.

3.2.3 La contre analogie

Note de bas de page 51 :

Pour exemple, Shelley détaille une proposition alternative formulée par un troisième contradicteur d’Alvarez. L’obscurcissement de l’atmosphère aurait été engendré par une pluie de comètes. Pour étayer son hypothèse, l’auteur de cette proposition établit une analogie entre l’impact d’une comète ayant explosé en Sibérie (le lieu d’impact se nommant Tunguska) et les circonstances qui ont conduit à l’extinction des dinosaures.

La contre analogie51 est tout simplement une hypothèse alternative qui se présente sous forme d’analogie.

3.2.4 La fausse analogie

Note de bas de page 52 :

Shelley étudie la structure de l’analogie établie par Alvarez, qui se révèle en réalité fautive. La plupart des débris qui demeurent longtemps dans l’atmosphère après une éruption volcanique ne sont pas des poussières, mais de minuscules gouttes d’acide sulfurique. Ces gouttelettes ne se coagulent pas et sont susceptibles de demeurer très longtemps dans l’atmosphère en provoquant un obscurcissement très important de cette dernière. Alvarez attribuait donc faussement ce phénomène d’obscurcissement à des poussières éjectées par l’éruption alors qu’il est dû en réalité à des gouttelettes d’acide sulfurique. Le problème est que l’impact d’un astéroïde ne peut en aucune façon provoquer l’apparition de telles gouttelettes. Aucun élément dans l’analogie établie avec l’impact d’un astéroïde ne correspond à l’élément « gouttelettes d’acide » de l’éruption volcanique. Le raisonnement analogique (...)

Note de bas de page 53 :

Keith J. Holyoak et Paul Thagard, Mental Leaps: Analogy in Creative Thought op.cit., p. 36-37.

Note de bas de page 54 :

Cette évaluation des analogies est baptisée « théorie des contraintes multiples ».

Une fausse analogie52 consiste en un raisonnement structurellement consistant en apparence, mais qui se révèle fautif dès lors qu’on lui consacre un examen plus approfondi. Nous avons vu plus haut que pour Hesse, seules les analogies ayant un axe vertical causal peuvent donner lieu à un raisonnement analogique fertile. Holyoak et Thagard53 affinent la réflexion de Hesse. D’après eux, la qualité d’une analogie peut être évaluée selon trois critères54. Premièrement, l’analogie doit être structurellement consistante, c’est-à-dire que la relation de similarité entre les deux analogies doit être univoque. À un élément de l’analogie modèle doit correspondre un seul élément de la seconde analogie. Deuxièmement, il doit exister une similarité sémantique entre l’analogie qui sert de modèle et la seconde analogie, c’est-à-dire que les éléments des deux analogies doivent être sémantiquement équivalents. Troisièmement, le raisonnement analogique doit être utile et suggérer une explication plausible. Si les analogies qui contribuent à l’élaboration d’un raisonnement analogique ne remplissent pas ces trois conditions, elles sont dès lors considérées comme des fausses analogies.

Cameron Shelley montre à travers l’exemple d’une recherche scientifique précise que le raisonnement analogique constitue le cœur des argumentaires fournis par les différents acteurs du débat, et qu’il y a bien une logique de l’inférence analogique à l’œuvre dans le cadre d’études reconnues par la communauté scientifique des paléontologues.

Si nous revenons à Galilée, plusieurs raisonnements analogiques ont bel et bien été proposés afin d’expliquer les taches lunaires et les taches solaires. La question que se posait déjà Galilée était : comment savoir lequel est le plus pertinent ? Plusieurs pistes de réflexion sont proposées par Galilée lui-même. Dans le cas des taches sombres lunaires, des analogies alternatives ont été proposées par les contradicteurs de Galilée. Par exemple, le mathématicien Clavius comparait l’aspect visuel de la Lune, tel qu’il était décrit par Galilée, à des matières précieuses comme le cristal ou l’ambre, et estimait que les différences de clarté étaient provoquées par la densité variable selon les endroits du corps lunaire. Cette contre analogie, pour reprendre la terminologie de Shelley, avait l’immense avantage d’être cohérente avec la représentation aristotélicienne du cosmos, dominante à l’époque de Galilée et qui établissait une différence fondamentale entre le Terre et le Ciel. Galilée estimait que son analogie était plus pertinente, car elle permettait de rendre compte d’un plus grand nombre de phénomènes que celle reposant sur la présence de matières précieuses. En effet, cette dernière ne s’appliquait avec succès qu’à une phase lunaire, alors que l’analogie proposée par Galilée permet de rendre compte de l’état de la surface lunaire pendant toutes les phases de l’astre. Il valait effectivement mieux retenir cette analogie, car elle était plus « utile » que celle proposée par Clavius. L’analogie de Galilée présentait tout de même des faiblesses : pourquoi la Lune apparaissait-elle parfaitement sphérique ? Ne devait-on pas la percevoir toute hérissée de montagnes sur son pourtour ? Soulignant cette faiblesse (et montrant en fait que l’analogie de Galilée était une misanalogie), Lodovico delle Colombe proposa une contre analogie où la Lune comportait effectivement des montagnes et des vallées, mais était entourée d’un cristal invisible entièrement lisse.

Note de bas de page 55 :

Galilée, cité par Fernand Hallyn, « Galilée, le télescope et l’évaluation de l’inférence analogique », Cahiers d’Histoire et de Philosophie des Sciences, n° 40, 1992, p. 108.

En ce qui concerne les taches solaires, Galilée les assimila à des nuages, semblables à nos nuages terrestres : ces taches « sont produites et dissoutes en peu de temps, persistent pour un temps de plus en ou moins long, s’étendent et se contractent, changent facilement de figure, sont plus denses et opaques en certaines parties que d’autres »55 Certains de ses contradicteurs assimilaient ces taches à l’ombre portée de petites étoiles orbitant autour du soleil. Galilée, pour justifier le recours à son raisonnement analogique, fit appel à la prise en considération des « qualités essentielles ». Une étoile possède des caractéristiques (sphéricité, mouvement orbital périodique et régulier, etc.) sans lesquelles elle ne peut se voir attribuer le qualificatif d’«  étoile ». Or, Galilée souligne que ces qualités essentielles ne sont pas présentes dans l’analogie proposée par ses contradicteurs (ceux-ci ont donc établi une fausse analogie), et donc que la partie négative de l’analogie est plus importante que celle qui est présente dans l’analogie des nuages.

Note de bas de page 56 :

Le mouvement et la grandeur, perçus indirectement, étaient des qualités placées au dernier rang dans la hiérarchie établie par Aristote. Mouvement, grandeur, figure sont considérés a contrario comme essentiels par Galilée, car on peut recourir grâce à eux à la démonstration mathématique, seul langage univoque indispensable à un accord entre les hommes.

C’est la prise en compte des qualités essentielles56 qui permet en l’occurrence de faire un choix raisonné entre plusieurs analogies concurrentes.

3.3 Les fonctions du raisonnement analogique

Note de bas de page 57 :

C’est ce que Thagard nomme une « abduction analogique ». Il s’agit, selon lui, de construire une nouvelle explication en empruntant la structure d’une autre explication déjà acceptée pour un problème similaire. C’est bien ce qui se passe dans les analogies proposées par Galilée et ses contradicteurs. Paul Thagard, 1988, p. 60-63.

Note de bas de page 58 :

Les exemples donnés par les différents auteurs qui se sont intéressés à l’analogie sont d’ailleurs innombrables : Maxwell et l’électromagnétisme (Marie-Dominique Gineste, Analogie et cognition. Etude expérimentale et simulation informatique, op.cit ; Max Black, Models and Metaphors, London and Ithaca, Cornell University Press, 1962 ; Mary Hesse, 1966) ; Claude Bernard et la (...)

Note de bas de page 59 :

Adam Biela, Analogy in Science, op. cit., p. 135-153. Parmi les autres propositions de typologie des fonctions du raisonnement analogique dans la recherche scientifique, on trouve notamment Holyoak et Thagard, Mental Leaps: Analogy in Creative Thought op.cit. p. 189-191, et Yves Gingras & Alexandre Guay “The Uses of Analogies in Seventeenth and Eighteenth Century Science”, Perspectives on Science, vol. 19, n° 2, 2011. Selon Keith J. Holyoak et Paul Thagard, l’analogie peut jouer un rôle lors de la phase de découverte (émission d’hypothèses originales), lors de la phase de développement d’une recherche (mise en place d’un protocole expérimental, par exemple), lors de la phase d’évaluation (en participant activement à la cohérence d’une démonstration), lors de la phase d’exposition des résultats. Selon Gingras et Guay, dont l’approche se conçoit avant tout comme une recension historique (...)

Ce qui apparaît clairement à travers ces exemples de raisonnement analogique, c’est qu’ils permettent de formuler de nouvelles hypothèses. En ce sens, les analogies jouent un rôle essentiel dans la création de nouvelles voies conceptuelles, dans l’apparition de nouvelles perspectives de recherche. A l’occasion de l’apparition d’un fait surprenant, nous avons vu que le raisonnement abductif conduisait à émettre un certain nombre d’hypothèses permettant, si elles sont vérifiées, de fournir une explication de ce fait surprenant. La formulation d’hypothèses lors de cette phase abductive peut se faire en recourant aux théories établies antérieurement, mais également en développant un raisonnement analogique57 (c’est le cas des ombres lunaires et des taches solaires évoquées plus haut). Le raisonnement analogique est dans ce cas-là une source d’inventions parfois extrêmement fécondes pour la science58. C’est d’ailleurs une des fonctions de l’analogie dans le domaine scientifique définies par Adam Biela59. Cet auteur établit cinq fonctions particulièrement pertinentes à mes yeux, dès lors que l’on souhaite comprendre le rôle du raisonnement analogique dans les deux domaines d’investigation que sont la physique des matériaux et l’astrophysique.

3.3.1 La fonction heuristique

C’est celle décrite plus haut et qui permet, à partir d’un problème donné, d’élaborer de nouvelles hypothèses qu’il s’agira ensuite de vérifier. Cette fonction, comme le soulignent chacun de leur côté Biela et Shelley, est la seule qui soit reconnue par l’ensemble des auteurs qui se sont intéressés à l’analogie.

3.3.2 La fonction de systématisation

Note de bas de page 60 :

Adam Biela, Analogy in Science, op.cit., p. 140.

La systématisation correspond à une activité essentielle dans les sciences. Sans elle, les sciences se réduiraient à une collection de faits inexpliqués ou inexplicables. La systématisation consiste à créer un ordre, à proposer une manière de classer. Selon Biela60, elle repose en fait sur l’établissement de critères de différenciation. Ceux-ci peuvent être fort divers en fonction des champs disciplinaires considérés, des situations envisagées, des objets d’investigation considérés, etc. Ces critères peuvent être notamment formels, structurels ou fonctionnels. La procédure de systématisation est menée à bien par la comparaison d’événements, de situations, d’objets, dans laquelle le raisonnement analogique tient une place centrale. Une telle entreprise n’a pas pour objectif unique de simplement ordonner les éléments pris en compte. Elle permet également de formuler des relations possibles entre les différentes classes d’éléments ainsi constituées.

3.3.3 La fonction explicative

Note de bas de page 61 :

Cité par Adam Biela, Analogy in Science, op.cit., p. 143.

Note de bas de page 62 :

Ibid.

Ce qui est en jeu à l’occasion de la détermination de cette fonction, c’est l’activité de modélisation des scientifiques. Cette activité est indispensable dans la phase d’interprétation des données. Comme Lord Kelvin l’affirme : « Je ne comprends rien, tant que je n’ai pas construit un modèle. »61. Ce processus se développe comme suit : un modèle sous-tendu par une théorie donnée permet de rendre compte adéquatement d’un ensemble bien connu d’événements, de situations, d’objets. Ce même modèle peut être utilisé afin de décrire un ensemble d’événements, de situations, d’objets moins bien connus. De fait, dans le cadre d’une telle construction, le scientifique ne retient que les éléments de la partie positive de l’analogie et rejette la partie négative. On obtient alors un « modèle analogue »62 qui permet une interprétation des événements, des situations, des objets moins bien connus.

3.3.4 La fonction de justification

Note de bas de page 63 :

Biela cite également la sociologie et l’ethnologie.

Cette fonction n’est généralement pas conférée au raisonnement analogique, et cela se révèle conforme à son statut épistémologique controversé. Cependant, une telle position mérite d’être reconsidérée, car sinon, comme le souligne Biela, bon nombre de conclusions scientifiques jugées valides dans certaines disciplines, devraient être rejetées. La question que l’on doit se poser est : dans quelles situations les scientifiques sont-ils conduits à utiliser des arguments fondés sur un raisonnement analogique ? La réponse est simple : dans les situations où ils ne peuvent pas recourir à d’autres types de raisonnement. Il s’agit en général des champs disciplinaires où les événements, situations et objets sont spécifiques, voire uniques, et ne peuvent être dupliqués. La géologie, la paléontologie, la glaciologie et la climatologie63 font partie de ces disciplines qui recourent abondamment au raisonnement analogique tout en lui accordant une validité (ainsi, l’exemple présenté plus haut de l’extinction des dinosaures).

3.3.5 La fonction illustrative

Elle est utilisée abondamment dans le cadre de l’enseignement des sciences et dans celui de la vulgarisation de ses résultats et méthodes. Je ne m’attarderai pas ici sur cette fonction, car elle est en quelque sorte « extrascientifique », (même si parfois les scientifiques y recourent, quand ils doivent expliquer une expérience ou préciser les caractéristiques d’un phénomène à des étudiants en situation de stage ou inscrits en thèse).

3.4 Le raisonnement analogique au GSI et au CfA

Il intervient à plusieurs niveaux dans les activités de recherche intégrant les images, menées dans ces laboratoires. Pour détailler quelque peu sa distribution au sein de ces niveaux, je vais reprendre le découpage des fonctions proposé par Biela.

3.4.1 La fonction heuristique

En général, elle fait suite à une situation inhabituelle. Un fait surprenant se produit. Un certain nombre d’hypothèses sont émises dans le cadre d’un raisonnement abductif. Certaines de ces hypothèses résultent en fait d’un raisonnement analogique. Prenons deux exemples tirés de mes observations dans les laboratoires où j’ai séjourné.

• Les nanotubes de carbone au GSI
Un chercheur constate un fait surprenant : l’absence de nanotubes de carbone sur un échantillon observé au moyen d’un microscope électronique à transmission ou MET. Le chercheur évoque plusieurs hypothèses pour expliquer cette absence intrigante. L’une d’elles consiste à modifier le mode de préparation de l’échantillon. En s’appuyant sur son expérience et en recourant à un raisonnement analogique, la microscopiste propose au chercheur de préparer son échantillon comme ceux sur lesquels on a déposé des multicouches de métaux. En fait, si un tel échantillon est aminci selon la méthode habituelle, une partie des multicouches métalliques sera arrachée et donc inobservable au MET. L’astuce mise au point par les scientifiques consiste à broyer l’échantillon sur lequel se trouvent les multicouches afin de recueillir des petits morceaux. Les bords des morceaux ainsi obtenus sont susceptibles d’être assez fins pour être exploitables au moyen du MET. De plus, ils devraient selon toute probabilité comporter les multicouches métalliques. La microscopiste, en établissant un raisonnement analogique avec ce cas de figure, propose donc de procéder de la même manière dans le cas de l’échantillon des nanotubes de carbone. Puisque visiblement la méthode extractive a abouti à la disparition des nanotubes recherchés, et n’a laissé que les traces de ces tubes, il convient donc de changer le mode de préparation. Le fait de broyer l’échantillon et d’obtenir des morceaux permettrait peut-être de pouvoir observer ces nanotubes sur les bords des morceaux obtenus. Après trois mois de tentatives infructueuses, les scientifiques se rendront compte que ce n’était pas le mode de préparation de l’échantillon pour le MET qui était en cause. Ils pensaient préparer des nanotubes de carbone, encouragés en cela par les informations fournies par le microscope électronique à balayage (MEB). En fait, il s’agissait d’une autre substance.

Note de bas de page 64 :

L’effet maser est provoqué par l’amplification du rayonnement émis par des atomes ou des molécules sous l’effet d’un processus qui conduit ces atomes ou ces molécules à émettre un rayonnement analogue à celui d’un laser. Maser signifie Microwave Amplification by Stimulated Emission of Radiation.

Note de bas de page 65 :

Sur ce point, on peut se référer aux articles suivants : “Of Dusty Tori and Black Holes”, Nature, 1995 ; n°6510, p. 103-104 ; “Evidence for a Massive Black hole from High Rotation Velocities in a Sub-parsec Region of NGC4258” Nature, 1995 ; n°6510, p. 127-129.

• Les masers d’eau en astrophysique
Prenons l’exemple d’une étude menée par des chercheurs du CfA relativement à des masers d’eau64. Il s’agit de masses de molécules d’eau sous forme gazeuse détectée grâce au recours à la radio-interférométrie. À la suite d’observations répétées, les données montraient des masses détectées dans différentes localisations spatiales. Etaient-ce des masses différentes ? Les mêmes masses qui se déplaçaient au cours du temps ? Qu’est-ce qui était susceptible de provoquer un effet maser ? Par analogie avec l’évolution des planètes autour d’une étoile en vertu des lois de Kepler, les astrophysiciens ont émis l’idée que leurs données étaient en fait compatibles avec l’hypothèse de plusieurs masers d’eau se déplaçant selon une orbite régulière autour d’un objet massif. Les lois de Kepler permettent également de calculer la masse de cet objet massif (en l’occurrence, quarante millions de fois la masse solaire). Il s’agirait donc d’un trou noir, ce qui semble cohérent avec sa localisation spatiale : le centre de la galaxie NGC4258. Cette analogie s’avère judicieuse, mais demande à être corroborée par d’autres observations. En effet, le recours à l’analogie avec un déplacement similaire à celui d’une planète autour d’une étoile permet d’indiquer un sens de déplacement et, en fonction de la vitesse de déplacement, une localisation précise sur l’orbite. Les astrophysiciens se proposent donc, dans les conclusions de leur article65, de procéder à une autre série d’observations.

3.4.2 La fonction explicative

La fonction explicative de l’analogie consiste à construire des modèles et à les confronter à des données empiriques. Voici deux exemples de ce type de processus.

Note de bas de page 66 :

Les images de simulation sont également réalisées en recourant à un raisonnement analogique. De ce fait, les remarques relatives aux images de modélisation s’appliquent à celles produites dans une visée de simulation.

• Les images de modélisation66
Les images de modélisation, au GSI tout comme au CfA, remplissent cette fonction. Elles sont construites par analogie avec des situations empiriques déjà connues, mais le scientifique n’en retient que certaines propriétés : celles qui semblent tout à fait stabilisées théoriquement, et celles qui sont indispensables à la construction du modèle (nature des matériaux ou de l’objet céleste, quantité en nombre d’atomes de matériaux ou masse de l’objet céleste, etc.). En revanche, le scientifique ne prendra pas en compte les facteurs expérimentaux réels (en physique des matériaux, température dans l’enceinte du microscope, qualité du vide et de la pointe du microscope, etc., ou, en astrophysique, qualité du milieu interstellaire, occurrences de différents types d’artefacts possibles produits lors de l’enregistrement des données, etc.). Ces images sont en quelque sorte épurées des multiples facteurs qui conditionnent l’observation ou l’expérimentation effective. Une fois réalisées, les images de modélisation sont systématiquement comparées avec les images effectivement produites au moyen d’un microscope ou d’un télescope, et permettent de mieux comprendre ces dernières.

Note de bas de page 67 :

Les astrophysiciens parlent de « fitter » une courbe. Il s’agit en fait d’ajuster la courbe produite avec les données empiriques à la courbe-modèle, en réduisant tous les types de bruit potentiels.

• Les courbes-modèles en astrophysique
Afin d’obtenir des informations sur la nature chimique d’un corps céleste, les astrophysiciens recourent à la spectroscopie. Dans le cas du radiotélescope SMA (Submillimeter Array), lors de la phase de construction du récepteur, les scientifiques ont fabriqué une chambre à vide dans laquelle ils ont injecté un gaz connu, mais non présent à l’état naturel sur Terre, le gaz oxysulfure. Parfaitement connu par ailleurs, le spectre de ce gaz va servir de courbe-modèle, en ne tenant pas compte des artefacts expérimentaux potentiels. Il permettra d’interpréter la qualité des spectres produits avec le nouveau récepteur. Toute donnée produite par ce dernier, dont les coordonnées se trouveront significativement à une certaine distance de la courbe-modèle, sera considérée comme du bruit. Reste, par une méthode d’essais et erreurs, à tenter de repérer les différentes sources de bruit, à les limiter et, en dernière instance, à évaluer la part qui restera incompressible67. Le recours à des courbes-modèles est un processus employé de manière extrêmement courante dans tous les domaines de l’astrophysique, et constitue un des moyens d’interpréter les données collectées. Sans ces modèles, bon nombre de données en astrophysique resteraient muettes.

3.4.3 La fonction de systématisation

Note de bas de page 68 :

Voir sur ce point Catherine Allamel-Raffin, “The Meaning of a Scientific Image: Case Study in Nanoscience. A Semiotic Approach”, Nanoethics, vol. 5, n° 2, 2011.

Note de bas de page 69 :

Chandra est un télescope à rayons X plus puissant que XMM.

• La lecture d’image
Lors de la phase de lecture d’image, les scientifiques tentent d’identifier les éléments présents sur l’image qu’ils examinent. Le raisonnement analogique est alors très fortement présent. Les analogies effectuées reposent en grande partie sur les connaissances acquises et conservées sous formes d’encyclopédies personnelles ou collectives. L’expérience antérieure tient ici une grande place, et reste pour une bonne part tacite. Prenons l’exemple suivant : un chercheur au GSI qui a élaboré un échantillon composé de silicium, cobalt, fer et cuivre, s’attend à repérer une barrière extrêmement mince, parce qu’il a déjà vu dans d’autres publications de telles barrières sur des échantillons équivalents à celui qu’il a confectionné68. De même en astrophysique, le raisonnement analogique permet de mettre en évidence des défauts sur l’image produite avec XMM (XMM est un télescope à rayons X). L’image de Chandra69 devrait être analogue à celle produite avec XMM, or ce n’est pas le cas.

La capacité à établir des analogies judicieuses entre les différentes images étudiées est extrêmement utile, aussi bien au GSI qu’au CfA. Cette capacité fait partie des savoirs tacites acquis grâce à une longue fréquentation des microscopes ou des télescopes. Elle correspond à la fonction de systématisation.

• L’entreprise de classification en astrophysique
Comme je l’ai déjà énoncé plus haut, une des activités de base réalisées par les astrophysiciens consiste à établir des classifications de la multitude d’objets célestes présents dans notre cosmos. Ils tentent donc de répertorier dans un premier temps ce qui se trouve dans le ciel, afin de pouvoir expliquer dans un second temps la nature des phénomènes ou des objets observés. Lorsqu’ils se livrent à une étude sur un objet céleste précis, ces classifications disponibles dans des bases de données accessibles via le réseau Internet leur permettent de trouver rapidement des données relatives à lui dans différents domaines du spectre électromagnétique, ainsi que de collecter des informations correspondant à des objets similaires afin de pouvoir effectuer des comparaisons.

Note de bas de page 70 :

Là encore, Aristote a ouvert la voie. Les entreprises de classification en biologie, et notamment celles qui permettent de décrire les types de ressemblances caractérisant les être vivants, reposent sur le recours à l’analogie. Dans ce cadre, les analogies effectuées par Aristote s’établissent autour des similitudes de structure ou de fonction. L’os de seiche, l’arrête du poisson, l’os des mammifères présentent une similitude de structure : ils sont tous trois de nature osseuse. Les ailes de l’oiseau et les nageoires du poisson présentent une similitude de fonction (se déplacer). Plus généralement, les sciences où l’entreprise classificatoire s’avère importante supposent le recours à l’analogie. Pour plus de précisions sur ce point, voir Marie-Dominique Gineste, Analogie et cognition. Etude expérimentale et simulation informatique, op. cit., 1997, p. 11.

Note de bas de page 71 :

Une galaxie elliptique est de forme ovale, sans structure interne particulière, et de brillance à peu près uniforme. Une galaxie spirale comporte un noyau sphérique entouré d’une masse de matière dans laquelle apparaît une structure spirale. Des bras plus ou moins importants se développent à partir du noyau. Une galaxie lenticulaire présente des caractéristiques à mi-chemin entre la galaxie elliptique et la galaxie spirale. Elle possède en effet un noyau important (comme la galaxie spirale), mais est démunie de bras (comme la galaxie elliptique). Une galaxie irrégulière est une galaxie qui ne rentre pas dans les trois catégories ci-dessus. L’intérêt de cette classification dépasse le simple fait d’être capable de catégoriser, en fonction de leur morphologie, la multitude des galaxies de notre univers, car cette morphologie des galaxies délivre des informations sur leur composition et (...)

Or l’entreprise de classification en elle-même repose sur un raisonnement intrinsèquement analogique70. Une fois fixés les critères qui régissent la typologie, l’intégration à une classe donnée se fait à partir d’un tel raisonnement. Ainsi, il existe par exemple des classifications des galaxies réalisées en s’appuyant sur leur morphologie (elliptiques, spirales, lenticulaires et irrégulières71). Lorsqu’une nouvelle galaxie est repérée, elle va être classée dans l’une des catégories en suivant un raisonnement analogique.

Conclusion

La recherche quotidienne au sein des laboratoires inclut des manières de raisonner longtemps négligées par les philosophes des sciences. Or leurs fonctions sont essentielles : abduction et analogie sont génératrices de nouveauté et contribuent au processus probatoire. Comprendre comment une image peut devenir une preuve, ou un élément de preuve, suppose qu’on prenne en compte ces types inférentiels, car ceux-ci interviennent dans la production, la lecture et le choix des images et dans l’évaluation de la pertinence des images les unes par rapport aux autres. Proposer une étude n’incluant pas ces deux types amènerait à développer une vision bancale de la valeur probatoire des images. Le revers de la médaille, en ce qui concerne l’abduction et l’analogie, est constitué par le motif même de leur éviction de certaines conceptions rationalistes normatives élaborées par des philosophes. Elles n’ont pas la rigueur de la déduction, et ne sont pas aussi aisément formalisables que l’induction, bien que des tentatives aient vu le jour, notamment dans les travaux de sciences cognitives de ces dernières années.