Usages créatifs de l’intelligence artificielle : quand y a-t-il art ? Creative uses of artificial intelligence: When is there art?

Nikoleta Kerinska 

https://doi.org/10.25965/visible.641

Cet article interroge les usages de techniques d’intelligence artificielle dans l’art et s’intéresse aux œuvres dotées d’I.A. qui simulent certaines caractéristiques de l’esprit humain telles que l’apprentissage, la pensée créative et l’aptitude à prendre des décisions. Conceptuellement et formellement innovantes, ces œuvres forment une catégorie artistique qui se constitue depuis plusieurs décennies, mais qui demeure très peu connue du grand public et assez peu étudiée par les théoriciens de l’art. Les notions d’intelligence naturelle et d’intelligence artificielle, aussi bien que leurs convergences, sont reprises et examinées du point de vue des projets artistiques cités pour établir à la fois leurs modes de simulation de l’intelligence et le fonctionnement des œuvres. Les expériences esthétiques proposées au sein de certaines œuvres sont essentiellement collaboratives et interactives. Ce constat permettra de considérer le dialogue entre l’humain et la machine dans ce contexte comme un terrain propice à une techno-écologie du sensible.

This article questions the use of artificial intelligence in art projects, focusing on AI-enabled works that simulate certain characteristics of the human mind, such as learning, creative thinking and the ability to make decisions. Conceptually and formally innovative, these works form an artistic category that has been developing for several decades, but which remains the subject of relatively few studies and little known to the public. The notions of natural intelligence and artificial intelligence, as well as their convergences, are reviewed and examined from the point of view of the artistic projects cited to establish both the modes of simulation of intelligence and the way in which the works function. The aesthetic experiences offered within certain works are essentially collaborative and interactive. After all, this observation enables us to consider the dialogue between the human and the machine in this context as fertile ground to think for a techno-ecology of the sensitive.

Este artigo questiona o uso de técnicas de inteligência artificial no campo da arte e se interessa a obras dotadas de I.A. que simulam características do comportamento humano, como a aprendizagem, o pensamento criativo, ou a capacidade de tomar decisões. Conceptualmente e formalmente inovadoras, essas obras formam uma categoria artística consolidada há várias décadas, mas que permanece pouco conhecida ao grande público, e relativamente pouco estudada pelos teóricos da arte. Nesta reflexão, as noções de inteligência natural artificial, e suas convergências, são revisitadas e examinadas do ponto de vista dos projetos artísticos citados para estabelecer tanto os modos de simulação da inteligência quanto o funcionamento das obras. As experiências estéticas oferecidas por algumas dessas obras são essencialmente colaborativas e interativas. Esta constatação permitirá de considerar o diálogo entre humanos e máquinas no contexto das obras como um terreno fértil para repensar uma tecno-ecologia do sensível.

Contents
Full text

Introduction

Cet article a pour objet les rapports entre l’art et la technologie numérique, ainsi que les œuvres, de plus en plus nombreuses, issues de la transversalité de ces deux domaines. Une attention spéciale est portée aux créations qui font référence à l’intelligence artificielle. Les reflets, les échos, aussi bien que les décalages et les croisements provoqués par la rencontre entre art et intelligence artificielle sont inévitablement accentués par la question : « quand y a-t-il art ? ». Si cette question est devenue de plus en plus actuelle tout au long du XXe siècle, en fonction de l’extension et de la variation des activités artistiques, elle s’impose comme une pierre de touche dans le domaine de l’art numérique.

Note de bas de page 1 :

Voir Zanini, Walter (2018), Vanguardas, desmaterialização, tecnologia na arte, São Paulo, Ed. Martins Fontes.

L’art numérique, pour ceux qui le pratiquaient tout au début des années 60 et 70, était considéré comme la dernière vague d’avant-garde artistique1. Ces artistes regardaient la technologie comme une source d’inspiration. Dans le but de développer un imaginaire futuriste, ils s’appropriaient des idées de la cybernétique, et leur ambition était de saisir la dimension esthétique de l’esprit techno-scientifique émergeant. Ils se voyaient aussi comme les précurseurs d’un temps nouveau, à l’initiative d’une reformulation définitive de l’art.

Note de bas de page 2 :

Je fais référence aux images de Ben Laposky réalisées à partir d’oscilloscopes, et considérées comme les premières infographies.

Note de bas de page 3 :

Je fais référence à Cybernetic Serendipity, organisée par Jasia Reichardt à l’Institute of Contemporary Arts à Londres en 1968.

Il est judicieux de préciser que, l’art numérique, avant même de s’être popularisé en tant que tendance artistique, est arrivé (peut-être) à son échéance. Cette aventure, brève mais spectaculaire, commence avec quelques modestes expériences au début des années 502, et elle est consacrée à l’occasion d’une première exposition en 19683. D’autres initiatives, relativement rares, font leur apparition pendant les années 70 et 80. Par la suite, l’art numérique et ses pratiques demeurent marginales jusqu’à la première moitié des années 90. En outre, pour la plupart des institutions artistiques, entre les années 1960 et 1990, les œuvres d’art réalisées par le biais des technologies numériques n’étaient que des expérimentations, appréciées par un cercle restreint d’admirateurs, très souvent issues du milieu universitaire et – ce qui semble plus contestable – souvent liées aux sciences exactes. Par ailleurs, à quelques exceptions près, les commissaires d’exposition et les théoriciens ne portaient aucun intérêt à ces créations et, pour beaucoup d’artistes, elles ne trouveraient jamais leur place dans l’univers artistique.

Note de bas de page 4 :

L’expression « art numérique » est très souvent supplantée par « art et nouveaux médias », « art et technologie », « art et science », « art médiatique », ou « art digital ». Cette confusion de terminologie règne dans la plupart des discours officiels.

Toutefois, d’une manière brusque, et avant même que le milieu des arts numériques puisse établir sa trajectoire, ou au moins consolider son territoire et sa nomenclature, l’élan technologique des années 2000 a changé radicalement la donne. Le tournant du XXIe siècle est en effet marqué par l’explosion des nouvelles formes et technologies de génération d’images. Aujourd’hui, les discussions autour des arts numériques, bien plus nombreuses depuis vingt ans, rencontrent un certain nombre de difficultés sur les plans terminologique et définitionnel4. De plus, des questions surgissent souvent lors d’une discussion autour des œuvres issues de procédés technologiques : « qu’est-ce exactement que l’art numérique à l’heure actuelle où toutes les activités humaines font usage de la technologie numérique ? » ; ou encore : « est-il légitime de parler d’art numérique, alors qu’aucune activité artistique ne fait aujourd’hui l’économie de la technologie numérique » ; ou encore : « dans quelle mesure peut-on encore considérer qu’il y a une dimension artistique dans ces créations qui sont de plus en plus ludiques, publicitaires et parsemées de gadgets technologiques ? ».

Avant que les acteurs engagés dans le domaine de l’art numérique puissent répondre à ces questions, l’effervescence technologique, qui les animait et qui était au cœur des recherches motivant les premières générations d’artistes, a abouti à un arsenal d’outils de création généralisés, voire banalisés. D’un seul coup – sans transition temporelle, ni conceptuelle –, une grande partie des pratiques de l’art numérique a été intégrée sans hésitation à la création d’images et, dès lors, au domaine artistique.

Les effets visuels et les types d’images générées numériquement se caractérisent par la très grande diversité de leurs usages et applications. Récemment, ces modes de création, déjà innombrables, ont été amplifiés par les intelligences artificielles créatives. Ainsi, avant que l’art numérique soit capable de délimiter un territoire plus concret de définitions et de problèmes théoriques, il se trouve confronté à une nouvelle question : « les créations des intelligences artificielles sont-elles de l’art, ou font-elles de l’art ? ».

Avant de s’attaquer à cette question dont l’actualité et l’importance semblent évidentes, je voudrais faire émerger une idée, selon laquelle les artistes numériques ont toujours formulé et reformulé, par le biais de leurs œuvres, une première et cruciale question : « dans quelles conditions les usages des technologies numériques sont-ils censés produire de l’art ? ». Cette question, peu répertoriée, ou peut-être balayée par la tempête des avancées technologiques des deux dernières décennies, est très utile, car elle permet d’analyser le changement des perspectives dans l’art numérique et son ouverture récente comme un champ de recherche et de création. Elle est aussi la clé qui permet de comprendre le passage d’une démarche technologique purement expérimentale vers l’usage décomplexé de moyens technologiques de plus en plus sophistiqués, et dont la philosophie ou le fonctionnement ne sont pas nécessairement maîtrisés par les artistes.

Tout d’abord dans cet article, je proposerai une analyse de la notion d’intelligence artificielle à la lumière de celle d’intelligence naturelle. Ces deux notions et leurs convergences sont ensuite reprises et examinées du point de vue de quelques projets artistiques. Les projets artistiques sélectionnés apportent aussi une dimension chronologique qui dévoile à la fois les changements technologiques et les mutations conceptuelles dans l’art numérique. Le but est de comprendre comment ces œuvres évoquent la notion d’intelligence, dans leur fonctionnement et l’interaction avec le public, mais aussi de quels concepts clés issus de l’intelligence artificielles elles se nourrissent. Cette démarche permettra de considérer les possibilités offertes par l’intelligence artificielle dans le contexte de l’art pour comprendre dans quelles circonstances un objet (ou système) doté d’intelligence artificielle fonctionne comme une œuvre d’art, et surtout par quels mécanismes et dans quelles conditions il permet l’instauration d’une expérience esthétique singulière.

Intelligences : naturelle versus artificielle

Note de bas de page 5 :

Lemaire, Patrick (1999), Psychologie cognitive, Éd. De Boeck Université, Bruxelles (4ᵉ tirage, Paris, 2005), p. 12.

Pour donner une idée sommaire de l’intelligence artificielle et de ses transpositions dans l’art, une brève analyse de la notion d’intelligence se fait nécessaire. Les études sur l’intelligence se situent dans le champ interdisciplinaire des sciences cognitives, qui traitent de systèmes complexes capables d’acquérir, de conserver, d’utiliser et de transmettre des connaissances. Ainsi, « les sciences cognitives cherchent à déterminer : comment un système naturel (humain ou animal) ou artificiel (robot) acquiert des informations sur le monde dans lequel il se trouve ; comment ces informations sont représentées et transformées en connaissance ; comment ces connaissances sont utilisées pour guider son attention et son comportement »5. En ce sens, les efforts pour comprendre l’intelligence naturelle, et pour ensuite créer des systèmes intelligents artificiels, sont à la fois interdépendants et complémentaires.

Note de bas de page 6 :

Sterling, Robert J. (2000), Handbook of intelligence, Cambridge University Presses.

Note de bas de page 7 :

Ibid., p. 3.

L’intelligence est pourtant une notion générique, dont l’usage n’est étranger à personne. Selon Robert Sterling6, l’intelligence intervient activement dans les rapports et les jugements sociaux de notre vie quotidienne. Les gens utilisent cette notion constamment pour élaborer une autoévaluation, aussi bien que pour évaluer les autres. L’intelligence d’un enfant ou d’un nouveau-né, par exemple, est évaluée dès les premiers mois de sa vie en termes de réactions et de planification motrice, et plus tard au niveau des capacités linguistiques et des tâches cognitives7. Ainsi, la notion d’intelligence est utilisée dans le sens commun pour indiquer la faculté de connaître et de comprendre, en tant qu’elle est directement liée aux actes de penser et d’agir. La relation entre la notion d’intelligence et l’acte de penser est envisagée à partir des signifiés premiers de ces termes : lorsque la notion d’intelligence fait référence à l’ensemble des activités de l’esprit ayant pour objet la connaissance, l’acte de penser indique l’application de ces activités aux éléments fournis par la connaissance. L’intelligence et l’acte de penser sont ainsi intrinsèquement liés.

Note de bas de page 8 :

Dewey, John (1925), Comment nous pensons, Paris, Éd. Flammarion.

Note de bas de page 9 :

Voir l’introduction de l’ouvrage de Patrick Lemaire, Psychologie cognitive, op.cit.

Dans son ouvrage Comment nous pensons, John Dewey8 propose une réflexion approfondie sur « l’acte de penser » sous une perspective philosophique. Selon Dewey, il existe des pensées de natures différentes, par exemple, la pensée inconsciente, la pensée réfléchie ou la pensée exercée en fonction d’un but. Consciente de la complexité de cette définition, je propose d’envisager l’acte de penser, à partir de la réflexion de Dewey, comme une activité de l’esprit qui met en relation la raison, l’individu (ou le moi) et l’expérience. Il est important aussi de remarquer que, sous la perspective de la psychologie cognitive, les termes « pensée » et « cognition » sont utilisés comme équivalents à celui d’intelligence9.

Note de bas de page 10 :

Le cognitivisme surgit dans les années 50 en opposition théorique au behaviorisme. Le behaviorisme, dont les principes sont établis par John Broadus Watson en 1913, est une approche psychologique selon laquelle l’être humain doit être analysé à partir de son comportement observable, qui est à son tour déterminé par l’environnement et les interactions de l’individu avec son milieu.

Note de bas de page 11 :

Voir les travaux de Jean-Michel Cornu, Prospectic, nouvelles technologies nouvelles pensées ?, FYP, éditions 2008, nouvelle édition en 2011.

Pendant les dernières décennies, les sciences cognitives se sont constituées comme des ramifications du « cognitivisme », courant scientifique qui cherche à comprendre et à expliquer les mécanismes d’acquisition des connaissances, le fonctionnement du cerveau et les processus mentaux10. Les études cognitivistes se concentrent sur tous les types de systèmes complexes responsables des comportements, qui peuvent être définis comme intelligents, qu’ils soient humains, animaux ou artificiels. En ce sens, décrire et analyser l’intelligence sont parmi leurs objets principaux. Les recherches cognitivistes s’organisent selon plusieurs tendances, qui divergent dans leurs principes théoriques11. J’aborderai le cognitivisme fonctionnaliste et le cognitivisme physicaliste en tant qu’approches ayant des correspondances avec les recherches portant sur l’intelligence artificielle.

Note de bas de page 12 :

Cette théorie est développée dans l’ouvrage The modularity of mind : an essay on faculty psychology, MIT Press, 1983.

Le cognitivisme fonctionnaliste explique l’activité de l’esprit à partir de la notion d’états mentaux. Les états mentaux correspondent aux états fonctionnels de l’esprit, et sont définis par leurs causes (input) et leurs effets (output). Pour cette raison notamment, les états mentaux ne peuvent pas être analysés en termes de processus physico-chimiques. Selon Jerry Fodor, l’un des fondateurs de la théorie fonctionnaliste, l’esprit est organisé selon une architecture modulaire, où chaque module se présente comme une unité spécialisée. Les modules sont responsables du traitement des informations, ainsi que de la communication interne des résultats entre eux. Ces modules correspondent à des facultés cognitives élémentaires, qui sont communes à tous les hommes12. En ce sens, la cognition est le résultat d’une prédétermination biologique de l’espèce humaine.

Note de bas de page 13 :

Nous faisons référence au fonctionnalisme calculatoire ou computationnel qui interprète le psychisme en termes d’information, et dont les théoriciens les plus importants sont Hilary Putnam et Jerry Fodor.

Note de bas de page 14 :

Hubert Dreyfus développe ces idées dans le 8ᵉ chapitre de son ouvrage Intelligence Artificielle : mythes et limites, Paris, Éd. Flammarion, 1984.

L’analogie employée le plus souvent par certains fonctionnalistes consiste à décrire le fonctionnement de l’esprit comme celui d’un ordinateur13. L’idée de base est d’envisager l’esprit comme un système de traitement de l’information et, par conséquent, la pensée comme une procédure de calcul exécutée selon un ensemble de règles. Cette analogie est utilisée pour des raisons méthodologiques dans le but d’appréhender certaines fonctions de la pensée. Toutefois, elle a été critiquée par plusieurs philosophes, parmi lesquels John Searle et Hubert Dreyfus, qui ont démontré avec précision ses limites. L’un des problèmes insurmontables, selon Searle, est que le contenu des représentations mentales est irréductible à une structure syntaxique. Pour Dreyfus, le problème est plutôt dans la description et le stockage d’informations, qui se passent de manières radicalement différentes dans une machine et dans un cerveau humain14.

Note de bas de page 15 :

L’idée est développée par Patricia Churchland dans l’entretien « Patricia Churchland on Eliminative Materialism » disponible sur www.youtube.com/watch?v=vzT0jHJdq7Q, consulté le 17/06/2023.

Le cognitivisme physicaliste a un point de départ radicalement différent, car il soutient la théorie selon laquelle la cognition est le résultat de l’existence physique du cerveau. Examiner la base matérielle de la vie psychique et de la pensée est le fil rouge de cette théorie. Les chercheurs physicalistes partent de la conviction que les activités de l’esprit sont réductibles à l’activité du cerveau en tant qu’organe biologique. Le cognitivisme physicaliste explique ainsi les activités de l’esprit à partir de l’étude du fonctionnement physique du système nerveux. Les neurosciences sont donc la source principale de cette théorie, et d’une manière générale, c’est uniquement par le biais des recherches neuroscientifiques qu’il deviendrait possible d’expliquer les phénomènes mentaux15. Selon cette optique, une théorie pleinement développée du comportement humain pourrait être formulée avec comme seuil unique les avancées de la neuroscience.

Note de bas de page 16 :

Damasio, Antônio (2010), L’Erreur de Descartes (trad. Marcel Blanc), 4ème éd., Paris, Éd. Odile Jacob, Paris, p. 305.

Dans le cadre de cette approche, nous pouvons citer les recherches d’Antonio Damasio, qui a montré que certaines interventions physiques dans le cerveau provoquent des changements psychologiques significatifs. Il soutient l’hypothèse que les particularités des systèmes nerveux central et périphérique humains, et plus précisément du cerveau, peuvent être expliquées par les spécificités du corps humain. « Le corps fournit au cerveau davantage que ses moyens d’existence et que la modulation de ses activités. Il fournit un contenu faisant intégralement partie du fonctionnement mental normal »,16 affirme Damasio.

Note de bas de page 17 :

Ibid., p. III.

Il avance une autre hypothèse très intéressante au sujet de l’esprit et des activités mentales. Selon lui, les émotions, en tant que processus physico-chimiques, jouent un rôle fondamental dans le comportement intelligent : « Dans certaines circonstances, penser peut être bien moins avantageux que ne pas penser. C’est ce qui fait la beauté de l’émotion au cours de l’évolution : elle confère aux êtres vivants la possibilité d’agir intelligemment sans penser intelligemment. »17 Pour Damasio, les émotions constituent un sujet scientifique authentique et leur valeur cognitive est indéniable.

Ce qui caractérise les études sur la notion d’intelligence à partir des années 2000 est la tendance à penser celle-ci d’une manière systématiquement élargie. D’un côté, l’intelligence est présentée comme un concept qui relève d’une approche pluridisciplinaire, et qui, pensé selon un prisme humain, dépasse le cadre classique de l’intelligence dite académique ou scolaire, pour intégrer les intelligences émotionnelle, créative et sociale, par exemple. De l’autre côté, l’intelligence est considérée comme le résultat d’une collaboration de divers agents dans l’exécution de tâches variées en intégrant ainsi l’existence des intelligences animales ; ou encore, elle est comprise comme un phénomène produit biologiquement par le fonctionnement du système nerveux, et impliqué au niveau de l’évolution comportementale des organismes. L’ensemble de ces réflexions cherche à déployer la notion d’intelligence naturelle dans le but de parvenir à des définitions plus satisfaisantes du concept, mais aussi afin de mieux cerner ce qui caractérise l’intelligence humaine par rapport à d’autres attitudes et comportements aussi complexes qu’intrigants.

Bien que la quête d’une définition plausible de la notion d’intelligence reste très ouverte, il est possible de déceler certains traits qui marquent le comportement intelligent. L’intelligence a été très longtemps considérée comme une compétence individuelle, donc pensée dans une perspective strictement humaine. Sous une approche ordinaire, l’intelligence implique les capacités d’un individu à mobiliser ses connaissances en les employant dans les activités les plus diverses, qu’elles soient professionnelles, émotionnelles ou interpersonnelles. Parmi les caractéristiques indispensables du comportement intelligent, sont cités la capacité d’interprétation d’informations de types divers, l’analyse, l’abstraction, la déduction, la prise de décisions, et l’apprentissage.

Note de bas de page 18 :

Dreyfus, Hubert (1984). Intelligence artificielle : mythes et limites (trad. Rose-Marie Vassallo-Villaneau), Paris, Flammarion, p. 3.

Décortiquer le comportement intelligent, ayant comme appui les théories des sciences cognitives, permet de s’approprier la notion d’intelligence de manière progressive. S’il est très compliqué de saisir la totalité de cette notion, il est toujours possible de la considérer comme un phénomène, dont certaines caractéristiques s’expriment de telle façon et dans telles conditions. Cette démarche, pour plus réductible qu’elle puisse paraître est très utile, car elle permet de saisir des manifestations concrètes du comportement intelligent, dont la représentation mathématique devient possible. Autrement dit, de cette manière, l’intelligence artificielle cherche à simuler l’intelligence naturelle par le biais des langages formels. Selon Hubert Dreyfus18, les principes théoriques qui guident l’intelligence artificielle surgissent avec l’idée de formaliser le monde humain, et plus précisément la connaissance, d’une façon objective. Le chercheur prend comme exemple les phrases initiales de Socrate qui interroge Euthyphron :

Note de bas de page 19 :

Platon (1967), « Euthyphron » (p.185-211) dans Premiers Dialogues (traduction, notes et notices par Émile Chambry), Paris, Flammarion, pp. 190-192.

En quoi consiste, d’après toi, la piété et l’impiété ? […] Rappelle-toi donc que ce que je te priais de m’apprendre, ce n’était pas une ou deux choses prises dans le grand nombre de choses pieuses, mais bien ce caractère essentiel qui fait que tout ce qui est pieux est pieux ; [...] Enseigne-moi donc quel est ce caractère, afin que je tienne mes yeux fixés dessus et m’en serve comme de modèle, et que si, parmi tes actes ou ceux d’autrui, il en est qui soient conformes à ce modèle, je les déclare pieux, et, s’ils ne sont pas, impies.19

La résolution du problème exposé par Socrate implique la formulation d’une définition conceptuelle de la piété et ensuite le développement d’un modèle, qui la représente. Mais dans un sens large, le philosophe s’interroge sur la possibilité d’élaborer un étalon de comportement, et un ensemble de règles qui dirigent strictement les actions de ce comportement. Cette idée, ayant traversé les siècles, est systématiquement reprise dans la philosophie. Aujourd’hui, avec les avancées des technologies numériques, elle est d’autant plus d’actualité et persiste sous diverses formes dans les recherches scientifiques. Elle est aussi à la base d’une possible théorie des processus cognitifs qui actuellement pénètre la plupart des champs du savoir et qui trouve son expression concrète dans l’intelligence artificielle.

Note de bas de page 20 :

Turing, Alan. « Les ordinateurs et l’intelligence » (trad. Patrice Blanchard, p. 135-175) dans A. Turing & J.-Y. Girard (1995), La Machine de Turing., Paris, Seuil, p. 135 (La première édition de cet ouvrage est parue dans la collection « Sources du savoir », sous la direction de Thierry Marchaisse).

Même si l’on reconnaît que l’idée de déchiffrer les processus cognitifs et celle de les formaliser, accompagnent l’humanité depuis plusieurs siècles, c’est à peine au milieu du XXe siècle que nous les retrouvons articulées et formulées de manière inédite au sein de la science dans la question de Turing : « La pensée elle-est un privilège des organismes plus ou moins complexes ou est-elle susceptible d’émerger d’un contexte purement mécanique, comme une machine par exemple ? »20. Cette question reste une interrogation vive qui motive déjà plusieurs générations de chercheurs, et qui est toujours centrale dans les recherches en intelligence artificielle.

Note de bas de page 21 :

Russel, Stuart & Norving, Peter (2010), Intelligence Artificielle, Paris, Éd. Pearson Éducation (3 ᵉ éd.).

Note de bas de page 22 :

Ibid., pp. 3-5.

Après un peu plus d’un demi-siècle de recherches, l’intelligence artificielle s’établit comme un domaine qui s’engage dans la compréhension des diverses formes d’intelligence, et dans leurs reconstitutions par la conception d’entités intelligentes. À l’image de l’intelligence naturelle, les buts, les applications et les ambitions de l’I.A. sont extrêmement diverses, allant de l’apprentissage et de la perception aux jeux et à la démonstration de théorèmes mathématiques. Pour mieux comprendre le domaine de l’intelligence artificielle, je propose d’examiner l’analyse faite par Stuart Russell et Peter Norving21, qui dressent un inventaire exhaustif des définitions du domaine. Selon eux, toutes les définitions de l’I.A. gravitent soit autour de la pensée et du raisonnement, soit autour du comportement. Ils décèlent quatre façons prédominantes d’aborder la notion d’I.A. : la première annonce l’idée d’une machine qui agit comme les humains ; la deuxième est plutôt centrée sur l’idée d’une machine qui pense comme les humains ; alors que la troisième se configure autour de l’idée de penser rationnellement, et la quatrième autour de l’idée d’agir rationnellement22. Ainsi, les actes de penser et d’agir sont à la base de toutes ces définitions dont le modèle est soit l’homme, soit la capacité humaine de raisonner. Dans ce modèle, l’axe important évoqué par Russell et Norving est notamment le rapport entre la connaissance et l’action. Selon leur compréhension, l’intelligence se manifeste autant dans l’action, que dans le raisonnement. Ainsi, la constitution d’un lien entre la connaissance et l’action au sein d’un programme ou artefact intelligent est pris comme l’une des prérogatives centrales.

Les liens et les influences réciproques entre les recherches autours des intelligences naturelles et artificielles sont un sujet à part entière, qui dépasse le cadre de cette réflexion. En revanche, les rapports entre les deux notions déployées jusque-là me semblent suffisamment précis pour pouvoir entamer une analyse de quelques œuvres d’art, dont le but est de simuler le comportement intelligent.

L’Intelligence artificielle dans l’art numérique

Il est certain que dans l’univers vaste et varié de l’art numérique, de nombreuses œuvres interagissent de manière à ce que l’on puisse reconnaître les traits essentiels du comportement humain, à savoir : apprendre avec l’expérience, proposer des solutions inédites à un problème, comprendre le langage naturel, créer des propositions visuelles, musicales ou littéraires authentiques, ou encore agir dans le monde en prenant en compte ses caractéristiques physiques. Ces œuvres partagent la même ambition d’explorer intégralement les conquêtes de l’I.A. pour en extraire le moyen de créer des objets interactifs complexes.

Dans le cadre d’une étude plus large, j’ai analysé plusieurs œuvres créées avec les techniques de l’intelligence artificielle et dont le fonctionnement évoque la notion d’intelligence. Pour le présente article, mon choix s’est porté sur les œuvres suivantes : Smell Bytes de Jenny Marketou, The Giver of Names de David Rokeby, Portrait d’Edmond de Belamy du collectif artistique Obvious, et Machine Hallucinations – Nature Dreams, Refik Anadol. Si les deux premières œuvres datent des années 90 et sont relativement peu connues du public, la troisième et la quatrième sont des œuvres récentes, qui ont fait couler beaucoup d’encre. Le point commun de ces quatre créations est de mobiliser des concepts clés issus de l’intelligence artificielle, et réactualisés dans le domaine artistique. Les Smell Bytes et The Giver of Names s’approprient le concept d’agent intelligent (concept phare dans l’intelligence artificielle), alors que Portrait d’Edmond de Belamy et Machine Hallucinations – Nature Dreams mettent en œuvre l’apprentissage profond et le traitement de données, qui sont actuellement parmi les sujets les plus actuels. Je considère aussi que ces œuvres font partie de deux générations distinctes dont j’exposerai les spécificités en guise de conclusion.

Note de bas de page 23 :

Voir http://www.jennymarketou.net/pubs/pub20_cover.html, consulté le 15/07/2023.

Smell Bytes (1998) a été réalisé par Jenny Marketou lors de son séjour à Banff Centre au Canada. Le résultat de ce projet est un agent intelligent nommé Chris.053. Il s’agit d’un agent programmé pour parcourir les salles de chat et de vidéoconférences en ligne à la recherche d’odeurs humaines. Jenny Marketou décrit Chris.053 comme un « flaireur en série » (serial sniffer), qui ne réussit pas à contrôler son envie de flairer, de renifler23. L’artiste voit les actions de flairer (sniffing) et de guetter (lurking) comme des métaphores qui représentent les actions des agents intelligents, agissant sur le réseau Internet. Chris.053 cherche les données de profil des utilisateurs de la plateforme CuSeeME, et d’autres sites de vidéoconférences, puis il prélève leurs photos.

Doté d’algorithmes de reconnaissance d’images, Chris.053 est capable d’analyser les proportions et les propriétés géométriques des images prélevées. Il définit les aspects visuels des personnes, selon les concepts de beauté, d’harmonie et de symétrie. Ensuite, ces informations sont transformées et utilisées pour la définition de l’odeur corporelle de chaque personne : c’est un calcul effectué en fonction de la géométrie du visage de l’internaute en question. Chris.053 identifie l’odeur corporelle comme odeur de chocolat, de fraise ou encore de citron, de moisissure ou de putois. Enfin, l’odeur est mémorisée dans sa collection d’odeurs et l’agent repart à nouveau à la chasse du prochain internaute.

L’idée d’utiliser les aspects visuels d’un être humain pour calculer son odeur corporelle est inspirée des recherches de Ludwig Boltzman Institute à Vienne, où sont étudiées les relations entre la symétrie du visage et l’odeur corporelle. D’une manière amusante, l’artiste critique les préjugés sociaux et ethniques qui se mêlent à ce type de recherches. Dans ce projet, un être artificiel a pour tâche d’évaluer la beauté et l’odeur humaines au moyen d’algorithmes, qui simulent d’abord la vision, puis la perception olfactive. L’homme est alors apprécié esthétiquement par un agent intelligent, un robot, qui le considère avec la plus grande intimité. Il s’établit une relation ambiguë et intrigante entre virtuel et réel, entre artificiel et naturel. La force politique de cette œuvre reste très actuelle malgré la technologie dépassée de son exécution. Plus que jamais, nos sociétés sont confrontées aux conflits et aux préjugés ethniques et raciaux, plus que jamais notre humanité est mise à l’épreuve et questionnée. Sommes-nous capables d’adopter le point de vue d’un autre individu, et de considérer celui-ci comme ayant le même droit à notre égard ? C’est à mon avis la question la plus forte posée par le projet Smell.Bytes.

Note de bas de page 24 :

Voir http://www.davidrokeby.com/gon.html, consulté le 15/07/2023.

La deuxième œuvre ici analysée est aussi un agent intelligent, et elle aussi évoque les intersections entre le monde des humains et celui des machines. The Giver of Names24 est développé par David Rokeby de manière permanente depuis 1991. Il s’agit d’un système informatique, doté de vision et capable de nommer les objets qu’il voit. Il est présenté comme une installation composée d’un socle, d’une caméra, d’un système informatique, lequel est l’agent intelligent, et d’une projection vidéo. La caméra observe le haut du socle, qui est entouré d’objets. Le visiteur peut choisir un objet ou un ensemble d’objets, ou quelque chose qu’il porte sur lui, et les placer sur le socle. Une fois placé sur le socle, l’objet est saisi par la caméra et transmis à l’ordinateur sous forme d’image. Ensuite, l’objet est analysé par l’agent à plusieurs niveaux : en termes de contour, de couleurs, et de texture ; l’agent prend aussi en considération les parties de l’objet ainsi que les relations entre elles. Les séquences d’analyse exécutées par l’agent sont visualisées sur une projection vidéo au-dessus du socle.

Au fur et à mesure de l’analyse, les objets transformés en images et transcrits par l’agent deviennent de plus en plus abstraits et simplifiés. De cette manière l’agent purifie les objets vus par lui pour leur attribuer des valeurs. L’attribution de valeurs est faite à partir d’une base de connaissance d’à peu près 100 000 mots et idées que l’agent est capable d’associer aux objets captés. Cette base de connaissance fonctionne selon une structure syntaxique qui rend possible la composition de phrases grammaticalement correctes.

Ainsi pour chaque objet ou groupe d’objets, l’agent crée une séquence de mots ou une phrase qui exprime le contenu de ce qu’il voit. Les contenus respectifs de l’expérience visuelle de l’agent sont visualisés sur l’écran de l’ordinateur et lus à voix haute par lui-même. Les phrases, parfois drôles et poétiques, parfois absurdes et totalement privées de sens, nous immergent dans l’univers sensible de cet agent. Nous sommes mis en contact immédiat avec ce qui pourrait être compris comme l’état d’esprit de cet agent et sa capacité d’interprétation. L’effort de partager son monde intérieur, de s’exprimer par le biais du langage naturel en nous racontant ce qu’il voit est émouvant. Son comportement face aux objets que les humains lui soumettent est presque une révélation de la naissance de la perception et de la connaissance chez une machine. Cette expérience nous fait penser aussi à notre propre évolution et notre propre émergence intellectuelle sur un plan individuel, mais également en tant qu’espèce. Notre réaction la plus spontanée est de vouloir lui parler, d’entamer un dialogue avec lui.

Note de bas de page 25 :

Cette affirmation n’est pas exacte car, en 1968, Harold Cohen a conçu Aaron – une intelligence artificielle capable de dessiner et de peindre.

La troisième œuvre considérée dans cet article est Portrait d’Edmond de Belamy (2018) du collectif Obvious et acclamée comme la première œuvre conçue pour une intelligence artificielle25. Il s’agit d’une impression sur toile, qui est censée représenter le portrait d’un personnage fictif du 19e siècle. La toile est composée d’une étendue de couleurs sombres, qui évoluent entre le noir et le gris foncé ; sa plasticité se déploie entre des tonalités plus froides et verdâtres, et d’autres plus chaudes en ocre et rose. Au milieu, une tache imprécise et floue de nuances claires se démarque du fond. Son contour rappelle la forme d’un visage, mais ce visage, privé de traits ou de détails, reste aussi vague et nébuleux que le reste. L’idée que cela est un visage est renforcée par une troisième forme, blanche et contrastante, positionnée juste en bas : elle ressemble à un élément vestimentaire, peut-être un col. Si l’objectif est la création d’un portrait de trois-quarts, deux choses au moins sont étonnantes : la première, c’est le format carré (700 mm x 700 mm), étrangement choisi pour ce type de composition ; la seconde chose surprenante est la coupure inhabituelle au niveau de la tête du modèle, entravant le fonctionnement de la composition dans sa totalité de l’image. Il est très difficile de s’investir dans un échange imaginaire avec monsieur Edmond de Belamy : plus on essaie de capter quelque chose de sa présence, plus il devient distant et inconsistant. Dès lors, on doit peut-être s’accrocher à son nom – seul élément qui suscite un parfum lointain du XIXe siècle, grâce aux souvenirs des personnages inoubliables de Maupassant, évoqués par association.

J’ai choisi cette œuvre surtout pour son succès médiatique, dû aux procédés de sa conception. Lors de la réalisation du Portrait d’Edmond de Belamy ont été utilisés des réseaux antagonistes génératifs, connus sous l’abréviation GANs (en anglais generative adversarial networks). Il s’agit une technique d’intelligence artificielle qui simule des processus d’apprentissage autonome ou « non supervisé ». Les GANs sont des modèles génératifs qui mettent en compétition deux réseaux adversaires, et sont considérés comme l’application la plus performante de l’intelligence artificielle créative. Pour comprendre le fonctionnement des GANs, prenons l’exemple donné par François Chollet, qui nous propose d’imaginer un faussaire essayant de créer un tableau de Picasso :

Note de bas de page 26 :

Chollet, François (2017), L’Apprentissage profond avec Python, Ed. Manning Publications, p. 412.

Au début le faussaire est plutôt mauvais à cette tâche. Il mélange certains de ses faux tableaux avec d’authentiques Picasso, et il les montre tous à un marchand d’art. Le marchand d’art évalue l’authenticité de chaque tableau, et lui donne son avis sur les éléments qui font qu’un Picasso ressemble à un Picasso. Le faussaire retourne dans son atelier pour préparer de nouveaux faux tableaux. Avec le temps, le faussaire devient de plus en plus compétent pour imiter le style de Picasso et le marchand d’art devient de plus en plus expert, dans la détection des faux tableaux. À la fin, ils ont en main d’excellents faux tableaux de Picasso26.

Note de bas de page 27 :

Voir Goodfellow, Ian et al. (2014), “Generative Adversarial Networks”, arXiv, http://arvix.org/abs/1406.2661, consulté le 01/09/2023.

Cet exemple montre comment les deux réseaux adversaires qui composent un GAN interagissent : le premier réseau génératif crée des échantillons à partir d’informations prédéterminées, utilisées pour l’entrainer, alors que le deuxième, le réseau discriminatif, évalue les résultats dans le but de comprendre si l’échantillon est fait par le réseau génératif ou non27.

Note de bas de page 28 :

Propos tenus par les membres du collectif Obvious dans l’article « Un algorithme peut-il produire de l'art ? Une toile à 432.500 dollars alimente le débat » disponible sur https://www.lexpress.fr/culture/un-algorithme-peut-il-produire-de-l-art-une-toile-a-432-500-dollars-alimente-le-debat_2044439.html, consulté le 27/09/2023.

Le collectif Obvious précise que pour créer le Portrait d’Edmond de Belamy, leur logiciel a été nourri avec 15 000 portraits classiques, du XIVe au XXe siècle, dans le but de lui enseigner « les règles du portrait »28. En observant le résultat, il est judicieux de se demander de quelles règles il s’agit, et si les opérateurs de l’algorithme, les membres du collectif Obvious, ont contemplé au moins quelques-uns des 15 000 portraits, avant de les fournir au logiciel. Si l’on considère au premier degré l’idée des règles (je préfère le terme « principes »), qui guident la création d’une image artistique, il est certain que la règle basique employée habituellement pour la création des portraits – la composition, c’est-à-dire le choix du format et la disposition des éléments visuels en fonction de ce format – a été ignorée, aussi bien par le logiciel, que par les utilisateurs du logiciel. Si le portrait est aujourd’hui un genre établi dans l’art avec une histoire propre, c’est parce qu’il est le fruit d’un regard inquiet et curieux de l’homme tourné à la fois vers lui-même et vers autrui. Ce regard a été perpétué pendant des siècles, et il a été nourri par des récits, des relations, des découvertes et des transformations individuelles et collectives.

Note de bas de page 29 :

Voir le site de l’artiste https://refikanadol.com/works-old/machine-hallucinations-nature-dreams/

Le dernier projet artistique vers lequel se dirige mon attention est Machine Hallucinations - Nature Dreams (2019) de Rufik Anadol. Il s’agit d’une installation audiovisuelle de taille imposante (10 m x 10 m, soit 100 m2), définie par l’artiste soit comme « sculpture de données », soit comme « peinture de données »29. Ces images en mouvement permanent sont produites à partir d’un ensemble de plus de 300 millions de photos de la ville de New York, et 113 millions d’autres éléments de données brutes. On retrouve de nouveau l’usage de GANs, même cette fois-ci les algorithmes ont pour base la dynamique des fluides. L’artiste affirme que les formes, les pigments et les motifs générés par les GANs sont des associations oniriques avec la nature, mais qui n’existent que dans l’esprit d’une machine sous forme de rêves. Il est pour autant assez difficile d’associer les images générées en temps réel à quelque chose qui ressemble à la nature. Cela est peut-être leur plus grand atout ! Des séquences visuelles époustouflantes nous submergent dans une atmosphère irréelle lorsque nous sommes devant cette œuvre. De manière imperceptible, nous sommes impliqués dans une expérience hypnotique pendant laquelle rien ne nous connecte au monde que nous connaissons. Cette beauté étrange et spectaculaire est tout sauf un lien entre nous et la nature. Peut-être s’agit-il d’une nature extraterrestre issue d’une planète lointaine ou des paysages d’une dimension temporelle inconnue ?

Les installations de Rufik Anadol utilisent des technologies de la dernière génération, qui produisent des images jamais générées auparavant. Elles nous interpellent par leurs textures et mouvements en cadence régulière, propres à une pulsion de vie électronique, ou par leur esthétique infographique typique des images de synthèse. Il reste néanmoins un défi, celui de leur attribuer une dimension conceptuelle ou spirituelle. Les séquences, très semblables les unes aux autres, nous traversent sans nous toucher. Notre mémoire retient ainsi leur volupté spectaculaire, sans pouvoir l’associer à une émotion ou à un vécu.

Notons que, les usages de techniques d’intelligence artificielle dans des buts artistiques sont passés presque inaperçus jusqu’en 2018 quand, avec quelques générateurs d’images et de sons en ligne et Chat GPT, la créativité computationnelle (ou dite encore artificielle) se popularise. Un certain nombre de questions font irruption dans tous les types de discours. Du point de vue juridique, sont abordés le droit d’auteur, le droit de reproduction, ou encore le brevet des algorithmes, et on dénonce une législation en déphasage. Du point de vue éthique, sont désignés plusieurs problèmes, parmi lesquels le plus urgent est peut-être celui de notre incompréhension des systèmes intelligents, qui nous rend otages de leur fonctionnement, et qui mène progressivement à la perte inévitable de nos libertés personnelles. À cela s’ajoute la question de la protection de la vie privée, menacée par les traces laissées par nos actions quotidiennes.

Toutes ces questions restent très pertinentes, mais secondaires lorsqu’il s’agit des usages créatifs de l’I.A. Sommes-nous en mesure de nous interroger sur la substance esthétique et de saisir le « message » artistique de ces œuvres ? Une fascination euphorique règne autour des dernières démonstrations de l’I.A., et surtout de ses capacités de générer des propositions inédites grâce au traitement automatique de données (comme dans le cas de Portrait d’Edmond de Belamy ou Hallucinations Machine – Nature Dreams). Toutefois, dans le traitement d’une quantité de données inimaginable (pour un humain), sommes-nous impressionnés par l’émergence de quelque chose d’ordre poétique, qui nous émeut, ou l’émerveillement est-il dû à notre stupeur devant la force brute de ces machines ?

Conclusion (provisoire)

Smell.Bytes et The giver of names font partie d’une première génération d’œuvres numériques qui s’engagent dans une interaction singulière avec le public. Capables de simuler certaines fonctions psychiques, elles se positionnent devant le public comme des créatures artificielles à part entière, et proposent des expériences ludico-poétiques, à travers lesquelles nous éprouvons les subtilités de notre conscience et les limites de la communication homme-machine. Ces œuvres se déploient dans une dimension interpersonnelle, qui pose une série de questions sur la nature de l’œuvre d’art, sur l’échange entre l’intelligence de l’homme et celle de la machine, ou encore sur les possibilités de créer des machines consacrées à l’expérience poétique. Par leurs structures interactives et leurs modes opérationnels, ces œuvres évoquent le monde de la pluralité technique d’où elles proviennent. Elles expriment le désir de leurs créateurs, qui est de chercher dans l’univers numérique quelque chose qui dépasse la logique algorithmique et qui, ainsi, rend la technologie et les humains complices. Les œuvres de cette première génération sont à l’origine de l’expansion de la notion d’art sans pour autant abandonner le pacte de l’art numérique – chercher dans la technologie quelque chose de sensible pour la rendre plus proche des humains. Dans ce contexte, l’usage de l’intelligence artificielle génère des œuvres d’art singulières, qui se distinguent par leurs modes interactifs.

Note de bas de page 30 :

Ingold, Tim (2013), Marcher avec les dragons, Bruxelles, Ed. Zones Sensibles, p.132.

Note de bas de page 31 :

Ibid., p.133.

Smell.Bytes et The giver of names ne sont pas uniquement le produit fini du travail d’une intelligence artificielle : elles sont des entités génératrices d’expériences esthétiques, qui se constituent pendant l’interaction avec le public. Il est peut-être envisageable de définir ces expériences esthétiques en prenant appui sur les idées de Tim Ingold, en vertu desquelles « les personnes sont engagées dans des relations continues avec leurs environnements », et « ces relations sont au cœur de processus de vie »30. Selon l’anthropologue, il est possible de penser les rapports entre culture et nature non pas sous une perspective dualiste, mais à partir d’une réciprocité entre personne et environnement. Pour cela, il propose de revisiter la notion d’environnement afin de suggérer une nouvelle théorie de la perception qui montre « comment les personnes peuvent acquérir une connaissance directe de leurs environnements au cours de leurs activités quotidiennes »31. L’environnement est ainsi une notion-clé : à la fois un défi pour les organismes et un endroit marqué par les interactions entre vivant et non vivant. Dans ces interactions précisément, se construisent les qualités des objets, qui peuvent varier considérablement en fonction de relations dans lesquelles ils sont impliqués.

Smell.Bytes et The giver of names sont des œuvres essentiellement collaboratives et interactives, et pour leur existence, la dimension du dialogue est décisive. En outre, leur fonctionnement, projeté pour mettre en relation l’humain et la machine, implique la notion d’environnement. Dans le contexte de ces œuvres, l’environnement se constitue pendant l’interaction, et cet échange incarne leur message poétique. Issues d’un contexte technologique, elles se constituent comme un terrain propice à une techno-écologie du sensible, car elles nous proposent d’aller au-delà de l’interface de l’écran. Elles ne représentent pas seulement les possibilités génératrices des GANs ou la puissance des derniers hardwares, elles nous incitent également à prendre la voie de l’imagination.

Portrait d’Edmond de Belamy ou Hallucinations Machine – Nature Dreams font partie d’une deuxième génération d’œuvres qui utilisent les technologies d’I.A. Apparues depuis à peu près une décennie, ces productions sont le fruit du perfectionnement des dispositifs numériques et de leur base matérielle. Les résultats de cette avancée sont des systèmes automatiques de plus en plus performants, qui produisent des images éblouissantes et extraordinaires (au niveau du calcul). Néanmoins, aucune position critique, aucun engagement politique de la part des auteurs de ces œuvres ne sont jamais annoncés. Les questionnements conceptuels autour des rapports entre hommes et machines sont délaissés, et le doute philosophique quant au sujet de la pensée techno-scientifique abandonné. Sans ces partis pris, l’art numérique perd sa raison d’être, car il devient une démonstration de la puissance technologique et du caractère spectaculaire du traitement de données. Ce constat mène inévitablement à revoir le statut de l’œuvre d’art numérique.

Les projets artistiques qui se nourrissent de l’usage de techniques et de concepts d’intelligence artificielle cherchent à comprendre les limites de la technologie par le biais de l’imaginaire, pour ensuite les repousser vers de nouveaux territoires. Ainsi, les œuvres dotées d’I.A. dirigent notre attention plutôt vers les actions d’une machine que vers les réponses fournies en fin de parcours. Les processus de calcul, les opérations logiques ou les lectures de symboles exécutés par les logiciels (ou les machines) artistiques sont parfois plus importants que le résultat lui-même. La structure de l’œuvre et les échanges qu’elle offre prennent une importance foncière, car il s’agit de formes d’interaction novatrices. L’idée d’une deuxième interactivité soutenue par Michel Bret et Edmond Couchot peut ainsi être reformulée et approfondie à partir de l’étude de ces œuvres.

Note de bas de page 32 :

Je voudrais suggérer l’idée que l’authenticité des créations faites à l’aide d’algorithmes génératifs, notamment lorsqu’il s’agit de peintures, doit être envisagée comme le résultat à la fois de l’interprétation, de la relecture et de la recomposition automatiques des données obtenues à partir des œuvres du génie humain. En ce sens, la créativité des GANs est conditionnée à cette matière première, créée et fournie par les humains.

Une chose devient une œuvre d’art lorsqu’elle est regardée et appréciée par une conscience. Si l’intelligence et le langage ne sont pas les privilèges de notre espèce, la création artistique en est une, non pas parce que nous dominons d’innombrables outils technologiques, mais parce que notre imagination, capable de dépasser et de subvertir la technicité, fait des interprétations et des lectures inhabituelles et sensibles des objets et des phénomènes autour de nous. « La pittura è cosa mentale », écrit De Vinci, ce qui nous fait réfléchir sur l’investissement à la fois intellectuel et émotionnel devant une peinture. « Ce sont les regardeurs qui font le tableau », proclame Duchamp pour réaffirmer l’idée selon laquelle c’est du côté du public que se jouent l’interprétation et, dès lors, l’instauration de l’expérience esthétique. Par ailleurs, seuls les humains sont capables d’admirer et, éventuellement, d’attribuer du sens aux créations artificielles. Ainsi, même si l’on admet que les systèmes d’intelligence artificielle sont capables de produire des œuvres d’art authentiques32, deux points sont à considérer : premièrement, un humain, qui se présente lui-même comme artiste, est toujours à l’initiative du déclenchement de la « création » ; deuxièmement, c’est un public humain qui est toujours le destinataire de cet œuvre. En ce sens, l’art fait sans artiste humain est hypothétiquement possible, mais insensé sans un public humain.