AAC Volume 11, n°2|2022

Images, mensonges et algorithmes. La sémiotique au défi du Deep Fake

Numéro dirigé par Ludovic CHATENET

Date limite de réception des propositions : 22 novembre 2021

Depuis quelques années, les nouveaux instruments de communication, largement formatés par des algorithmes issus du développement de l’IA, ont donné lieu à de nouvelles formes d’inscription et circulation du sens. Les numéros 1/2020, puis les 2 numéros de 2021 d’Interfaces Numériques respectivement intitulés Le design de l’« intelligence artificielle » à l’épreuve du vivant et Représentation(s) et Numérique(s) (Parties I et II) ont largement contribué à circonscrire un cadre épistémologique autour des données et des pratiques communicationnelles. Le présent numéro entend poursuivre ces réflexions en abordant les problèmes posés par les représentations algorithmiques et numériques, plus particulièrement les deep fake, et leur influence sur la construction du sens dans nos sociétés.

A ses origines dans les années 1950, l’IA s’est définie comme un système de simulation des fonctions cognitives humaines par le calcul (perception, organisation des connaissances, apprentissage, raisonnement, communication, décision), permettant une représentation symbolique de ces données (McCarthy, 1955). La sémiotique s’est intéressée au sujet dans les années 1980 (Actes Sémiotiques n° 36, 1985 ; Actes Sémiotiques n° 40, 1986) en questionnant d’abord ces modèles formels et l’organisation de la connaissance appliquée aux textes avant d’identifier un point de convergence au niveau de l’image. Les modèles sémiotiques ont ainsi servi de support à l’IA (Thérien, 1989 ; Arnold, 1989) désormais considérée comme « machine voyante » assimilée à un organisme capable de reconnaître des images (d’objets, de visages) mais aussi d’en produire.

L’IA est alors apparu comme un modèle de médiation (Rialle, 1989 ; Bachimont, 1993) capable d’interpréter mais aussi de représenter, autrement dit d’énoncer. Toutefois, cette capacité énonciative se trouve accrue par le Deep Learning (Le Cun, 1985, 2019) qui donne une autonomie aux réseaux de calculs et leur permet entre autres de reproduire les gestes et les émotions. Ces développements ont contribué à l’émergence, ces dernières années, du phénomène des Deep Fakes. Le terme désigne des images (ou vidéos) fausses fabriquées par synthèse (substitution, fusion) d’images existantes (Caldera, 2019 ; Burkell et Gosse, 2019) aux moyens de l’IA, du Deep Learning et des GAN (generative adversarial networks). Des exemples récents d’hypertrucages mettant en scène Barack Obama ou Donald Trump montrent que les Deep Fakes questionnent de manière directe la vulnérabilité des cultures, de la communication, à la vraisemblance des images, reposant sur un croire (Greimas, 1983).

Le présent numéro s’intéresse aux questions suivantes : peut-on encore croire les images ? et comment identifier les faux ? Pour apporter des éléments de réponse, il place au centre de ses préoccupations la notion de vraisemblance qui sera abordée selon trois angles.

D’abord, les Deep Fakes sont des faux si crédibles qu’on ne peut distinguer l’authentique du contrefait, au point que ces images peuvent avoir un impact important sur la société. Cette transparence de l’énonciation de la machine pose à la sémiotique le problème de l’instauration du plan de l’expression lorsque la limite entre être et paraître est brouillée. Elle situe plus précisément nos préoccupations au point d’articulation entre, d’un côté, la production par la machine, approchée comme un faire paraitre vrai, c’est-à-dire une manipulation (persuasion) lors de la mise en forme, et de l’autre côté, un croire vrai relatif à la compétence interprétative, à l’expertise, de l’observateur (cf. Greimas et Courtés, 1979 : 422-423). Du point de vue de ce dernier, il s’agira de saisir comment on peut distinguer le vrai et le faux ou identifier les indices ou les traces d’une manipulation ? (Bessy et Chateauraynaud 1995, Eco 1987, Leone 2021)

Une question analogue peut se poser au chercheur confronté aux deep fakes. Quels critères (indices, traces) mobiliser pour constituer un corpus lorsque l’on n’est pas capable de distinguer une image « authentique » d’une image « truquée » ?

Enfin, en considérant la capacité des modèles algorithmiques à produire tout type de représentations, nous invitons les contributeurs à explorer également le potentiel génératif et créatif de l’IA, notamment sa capacité à devenir co-énonciatrice d’œuvres.

Dans le cadre de cet appel, nous encourageons les contributions pluridisciplinaires faisant dialoguer, notamment, les sciences du langage, les sciences de l’information et de la communication et la psychologie cognitive.

Bibliographie

ARNOLD, Madeleine, 1989, « La sémiotique : un instrument pour la représentation des connaissances en intelligence artificielle ». Études littéraires, 21 (3), pp. 81–90.

BACHIMONT, Bruno, 1993, « Nature, Culture et Artefacture : la place de l 'intelligence artificielle dans les sciences cognitives ». Intellectica. Revue de l'Association pour la Recherche Cognitive, n° 17, 2, pp. 213 - 238.

BACHIMONT, Bruno (2015), « Le numérique comme milieu : enjeux épistémologiques et phénoménologiques », in Pignier, N. et Robert, P. (dir.). Cultiver le « numérique » ? Revue Interfaces Numériques, vol. 4, 2015, 3, p. 385-402.

BACHIMONT, Bruno (2018), « Formats : transparence manipulatoire et opacité interprétative. La question du sens dans les dispositifs techniques », in Nicole P.et Mitropoulou, E. Le sens au cœur des dispositifs et des environnements, Paris : Edts Connaissances et Savoirs. P. 189-221.

BESSY, Christian et CHATEAURAYNAUD, Francis, 1995, Experts et faussaires : pour une sociologie de la perception, Métailié, Paris.

BURKELL, Jacquie et GOSSE, Chandell, 2019, « Nothing new here: Emphasizing the social and cultural context of deepfakes”. First Monday24(12).

Caldera, Elizabeth, 2019, « Reject the Evidence of Your Eyes and Ears: Deepfakes and the Law of Virtual Replicants », Seton Hall Law Review: vol. 50: Iss. 1, Article 5.

ECO, Umberto, 1987, “fake, identity and the real thing”, Special issue of Versus, 46, Bompiani, Milan.

GREIMAS, Algirdas, 1983, Du Sens II, Seuil, Paris.

LE CUN, Yann, 1985, « Une procédure d'apprentissage pour réseau a seuil asymmetrique (a Learning Scheme for Asymmetric Threshold Networks) », Proceedings of Cognitiva 85, 599-604, Paris, France.

LE CUN, Yann, 2019, Quand la machine apprend. La révolution des neurones artificiels et de l'apprentissage profond. Odile Jacob, Paris.

PIGNIER, Nicole et LIÑÁN DURÁN, Lina Marcela (coord.), 2020, Le design à l’épreuve de l’Intelligence artificielle, dossier revue Interfaces Numériques, n° 1/2020, vol. 9. Lien : https://www.unilim.fr/interfaces-numeriques/4083

RIALLE, Vincent, 1989, « IA et sujet humain : entre physis et sémiosis ». Intellectica, 1996/2, 23, pp. 121-153.

STOCKINGER, Peter (Dir.), « Intelligence artificielle et théorie sémio-linguistique », Actes Sémiotiques, n° 36, 1985.

STOCKINGER, Peter (Dir.) « Intelligence artificielle, tome II : approches cognitives du texte », Actes Sémiotiques, n° 40, 1986.

THERIEN, Gilles, 1989, « Sémiotique et intelligence artificielle ». Études littéraires, 21 (3), pp. 67–80.

Organisation scientifique

La réponse à cet appel se fait sous forme d’une proposition livrée en fichier attaché (nom du fichier du nom de l’auteur) aux formats rtf, docx ou odt. Elle se compose de deux parties :

Un résumé de la communication de 4 000 signes maximum, espaces non compris ;

Une courte biographie du (des) auteur(s), incluant titres scientifiques, le terrain de recherche, le positionnement scientifique (la discipline dans laquelle le chercheur se situe), la section de rattachement.

Le fichier est à retourner, par courrier électronique, pour le 22 Novembre 2021, à ludovic.chatenet@u-bordeaux-montaigne.fr . Un accusé de réception par mail sera renvoyé.

Calendrier prévisionnel

  • 21 octobre 2021 : lancement de l'appel à articles ;

  • 22 novembre 2021 : date limite de réception des propositions ;

  • À partir du 13 décembre 2021 : avis aux auteurs des propositions ;

  • 20 janvier 2022 : date limite de remise des articles ;

  • 20 janvier au 20 Mars 2022 : expertise en double aveugle, navette avec les auteurs ;

  • 23 Avril 2022 : remise des articles définitifs ;

  • Mai-Juin 2022 : sortie du numéro.

Modalités de sélection

Un premier comité de rédaction se réunira pour la sélection des résumés et donnera sa réponse autour du 13 décembre 2021.

L’article complet devra être mis en page selon la feuille de style qui accompagnera la réponse du comité (maximum 25 000 signes, espaces compris). Il devra être envoyé par courrier électronique avant le 20 janvier 2022 en deux versions : l’une entièrement anonyme et l’autre nominative.

Un second comité international de rédaction organisera une lecture en double aveugle des articles et enverra ses recommandations aux auteurs au plus tard le 20 mars 2022.

Le texte définitif devra être renvoyé avant le 23 avril 2022.

Les articles qui ne respecteront pas les échéances et les recommandations ne pourront malheureusement pas être pris en compte.

Contact : Ludovic Châtenet <ludovic.chatenet@u-bordeaux-montaigne.fr>
Interfaces Numériques est une revue scientifique reconnue revue qualifiante en Sciences de l’Information et de la Communication sous la direction Nicole Pignier et de Benoît DrouillaT
Présentation de la revue classée par l’HCERES (Haut Conseil de l’Évaluation de la Recherche et de l’Enseignement Supérieur) : https://www.unilim.fr/interfaces-numeriques/

Volume 11, n°2|2022
Images, mensonges et algorithmes. La sémiotique au défi du Deep Fake
Couverture du futur numéro