Qualifier les interactions observables en situation d’interactivité Qualify the observable interactions in situation of interactivity

Thierry Gobert 

https://doi.org/10.25965/interfaces-numeriques.130

La notion d’interaction est un effet étudié en méthodologie scientifique : c’est l’interrelation entre variables. Pourtant, dès lors qu’il s’agit de rapports entre les hommes et les machines, surtout quand elles disposent d’une intelligence artificielle, le terme interactivité lui est préféré, en SHS comme dans l’espace public. Le sens méthodologique d’interaction semble avoir été fragilisé dans ses représentations collectives et sociales. Ces considérations datent des années off line du multimédia pour le grand public. C’est pourquoi elles sont revisitées dans le contexte rénové du web 2.0 qui propose de nouvelles situations tant en pédagogie que pour les usages quotidiens.

The notion of interaction is an effect studied in scientific methodology as the interrelation between variables. Nevertheless, since it is about connections between people and machines, especially when they have an artificial intelligence, the term interactivity is preferred, in SHS as in the public place. The methodological sense of interaction seems to have been weakened in its collective and social representations. These considerations date the off line of the multimedia years for the public. That is why they are revisited in the context renewed by web 2.0, which proposes new situations both in pedagogy and for the daily manners.

Sommaire
Texte intégral

1. Introduction

La notion d’interaction désigne pour les scientifiques une étape de la méthode expérimentale. Il y a interaction entre deux variables indépendantes (VI) lorsque l’effet de l’une d’elles modifie l’influence de l’autre sur la variable dépendante (VD). Pourtant, quand vient la discussion, dès lors que la thématique d’une recherche concerne les rapports entre l’homme et les ordinateurs, le terme « interactivité » lui est préféré. Dans la littérature de sciences humaines et sociales comme dans l’espace public, une fonctionnalité informatique et la situation qu’elles créent se substituent à un élément méthodologique. Ce phénomène a connu un apogée dans les années 2000. Il semble désormais s’estomper. L’hypothèse que nous privilégions pour en rendre compte relève de l’évolution des pratiques et des usages de médiations techniques. L’apparition de nouvelles fonctionnalités synchrones et de réseautage social semble privilégier l’interrelation entre les personnes plutôt que la valorisation accrue du dispositif. C’est pourquoi, dans un premier temps, nous reviendrons sur l’évolution des interfaces avant de synthétiser les observations longitudinales effectuées à dix ans d’écart en 2000 et en 2010, avant et après l’émergence de l’Internet collaboratif. Elles signent le rôle de la médiation pour différencier l’interaction de l’interactivité.

2. Interface, interactivité, interactif, interaction : paradigmes et consensus

Peut‐on qualifier d’interaction la relation d’un homme avec une machine ? Ce questionnement est implicitement posé depuis les débuts de l’histoire de l’informatique. Alan Turing, dans Computing machinery and intelligence s’intéresse, dès 1950, à la communication entre l’homme et l’ordinateur. Si un individu n’est pas en capacité d’identifier la nature vivante ou artificielle de son interlocuteur électronique, alors une « apparence sémantique humaine » est à l’œuvre. Au contraire, s’il y parvient sans difficulté, c’est que la machine aura montré des faiblesses, qu’elle aura été mal programmée ou victime d’une panne. Le test imitation game de Turing atteste, dès l’origine de l’ère digitale, de l’importance accordée à l’interface dans l’évaluation de la virtuosité informatique.

Le test se déroulait avec les moyens de l’époque. Les deux parties, l’homme et l’ordinateur, avaient pour tâche de simuler une « conversation » par échanges textuels imprimés. L’interface pouvait mettre en défaut le jugement du sujet selon qu’il parvenait ou non à savoir à qui il avait affaire. Plus elle était réputée parfaite, moins l’utilisateur était en capacité de deviner s’il s’agissait d’un dispositif artificiel ou de quelqu’un. Le doute ontologique, celui qui s’intéresse à la nature de l’être et aux propriétés de ce qui existe, s’est invité. Il a pris de l’importance car l’imagination des concepteurs, nourrie de littérature de science‐fiction, anticipait les potentialités techniques. L’interface, ensemble des composants physiques et logiciels qui permettent les échanges d’informations entre l’homme et l’ordinateur, est la synapse communicationnelle de la machine. De ce fait, il a pu sembler très tôt légitime de s’interroger sur ses rôles. L’interface peut‐elle discriminer une situation d’interaction ou d’interactivité ?

La question a été longuement débattue avant qu’il n’y ait plus de débat en sciences humaines pendant quarante ans. En 1948, Norbert Wiener y répond partiellement quand il considère la cybernétique comme la « science du contrôle et des communications chez l’animal et la machine », définition utilisée comme titre de son ouvrage Cybernetics, or Control and Communication in the Animal and the Machine (Wiener, 1948). Son approche est simultanément globale et restrictive. En effet, s’il est « parfaitement possible à l’homme de communiquer avec une machine et à des machines de communiquer entre elles » (Wiener, 1954, 93), la communication n’est qu’un moyen d’acheminement de l’information. Elle est un contenu mis dans une forme [lat. : informare] compatible avec le moyen de transport emprunté. Le terme n’est pas choisi de manière hasardeuse. Il n’engage pas le débat et reprend les items choisis par Shannon et Weaver en 1949. L’auteur de cybernétique et société se démarque ainsi de l’émergence des anthropomorphismes techniques et des métaphores cognitives. En outre, il associe au modèle mécaniste des conséquences sociales jugées radicales pour l’époque en évoquant la nécessité d’anticiper le remplacement à grande échelle des emplois qu’occuperont les automates.

Note de bas de page 1 :

Pourtant, concernant le courriel, l’expression usuelle est « envoyer » un mèl et non « transmettre » qui serait pourtant plus fidèle au modèle mécaniste

Shannon et Weaver emploient le lexique des sciences de l’ingénieur pour décrire en 1949 les composantes d’un circuit de la communication devenu le plus connu de tous les modèles. Il a d’ailleurs engendré une profonde acculturation sémantique dans les sciences humaines : émetteur, récepteur, code, canal sont autant de mots qui ne figuraient pas dans le vocabulaire des humanités et qui désormais sont familiers1. Le modèle mécaniste, qui connaît son apogée dans les années 1940‐1970, lègue aux SHS les approches de l’ingénieur et du questionnement sur le contenant alors qu’elles s’interrogeaient plutôt sur le contenu du message. Ces héritages sont fortement critiqués, notamment par les linguistes structuraux, qui y voient un abandon des spécificités intrinsèques du langage.

En 1957, Von Neumann, sans pour autant répondre à Norbert Wiener, propose une approche fondée sur une métaphore du cerveau. Il puise dans les travaux portant sur les hautes fonctions humaines (mémoire, langage, perception, etc.), des ancrages pour modéliser la structure logique à la base de toute informatique. En d’autres termes, les approches bioniques exploitent les démarches de la jeune psychologie cognitive en les intégrant dans l’ordinateur. Par exemple, la rétro conception à partir de l’interprétation du traitement de l’information chez le vivant met en correspondance différentes sortes de mémoires : la mémoire dite de travail (Ram) avec la mémoire à court terme (Glanzer et Cunitz, 1966) et la mémoire de masse avec la mémoire à long terme (Baddeley, 1966) où sont stockés les souvenirs. Le cœur des machines numériques est régi par des conceptions anthropomorphes. Plus près de nous, ces conceptions s’incarnent désormais sous forme d’intelligence artificielle (IA) et dans les interfaces multimédias puis sociales. Ces concepts sont toujours d’actualité. Mais une origine bien antérieure remonterait aux tenants de l’illustration pédagogique, de la figuration positiviste et de la modélisation représentée par un schéma. Freud lui‐même avait coutume de dessiner des cartes de la psyché. La psychologie cognitive en a conservé l’habitus qui vient de la physiologie. Il semble possible de superposer la première topique du médecin psychanalyste avec la structure de l’ingénieur Von Neumann. En effet, la juxtaposition des palimpsestes des deux auteurs montre une filiation fonctionnelle. L’inconscient correspondrait à la mémoire morte (rom), le préconscient à la mémoire de masse et le conscient à la mémoire de travail (RAM) (Gobert, 2001).

Les liens entre les deux cadres peuvent se poursuivre aisément dans le détail. La psyché deviendrait une sorte de logiciel qui meut le hardware d’un cerveau machine que tentent d’appréhender de manières très différentes la psychologie et les neurosciences. De là à imaginer des modes de communication directs entre le cerveau et la machine, il n’y a qu’un pas. Ce pas est franchi dès 1973 dans un article de Jacques‐J. Vidal et mis cliniquement en œuvre par l’équipe de Thomas Elbert dès 1980. L’interface cerveau machine est une réalité expérimentale. Les signaux proviennent d’un casque EEG mais ne sont pas encore en mesure de conduire à une interface invisible. Une application militaire avait été évoquée dans le film de fiction (Firefox, 1982) où un pilote disposait d’une capacité à déclencher des tirs à condition de penser dans la langue du concepteur de l’avion (en russe). En 2011, les premières applications semblent prometteuses dans le domaine de la santé et celui de l’écriture par la pensée. Ainsi, sur le site de l’Inserm peut‐on lire que « grâce au logiciel OpenViBE, nous avons développé une interface baptisée P300 Speller, qui permet d’écrire des phrases en sélectionnant par la pensée des lettres présentées sur un écran » (Bertrand, 2011).

La sphère cognitive, après avoir esquissé la structure des ordinateurs avec Von Neumann est donc à nouveau convoquée ; cette fois dans un processus de décryptage du fonctionnement humain. Elle a su trouver une identité forte liée à sa méthodologie et la création de cadres interprétatifs spécifiques. En standardisant ses expérimentations, elle a libéré l’éthologie, son ancêtre, du carcan scientiste qui la menaçait et lui a permis de poursuivre ses observations systématiques en» transportant le laboratoire dans la nature » (Goldberg, 1992). Certes, les observations ne sont pas standardisées, à savoir répétées (presque à l’identique, mais le travail sur les comportements observables dans le milieu de vie sans recourir obligatoirement à l’analyse du discours ou à l’enquête est fort utile. « L’éthologie est à la mode en intelligence artificielle » (Drogoul, 1990) car elle cherche à isoler des comportements humains remarquables pour les intégrer dans des programmes complexes comme des jeux ou des simulateurs avancés (Gobert, 2006, 281).

Les apports de la systémique dans le cadre de cette biologie de la communication animale et humaine sont importants car elle considère le « tout système » et l’intègre au cœur de l’intime et dans les échanges entre les hommes et les machines. En ce sens, la systémique est une réponse aux interrogations sociales de la cybernétique et du mécanisme. Des thérapies dites « de groupe » voient le jour. Elles postulent de l’interdépendance entre les éléments du système qui peut être composé de sujets comme de composants. Ce qui en affecte un les affecte tous. Du fait de « l’impossibilité de ne pas communiquer » (Watzlawick et al.,1967, 72), restaurer des formes remarquables de médiation (les jeux ou games) concourt à retisser du lien, par exemple entre les membres d’une famille ou d’une équipe. En informatique, il s’agit de « saisir l’importance de la subjectivité dans les relations entre personnes, en particulier lors du développement et de la mise en place de systèmes » (Tremblay, 2007, cours 8ASY128).

Les courants disciplinaires, malgré l’existence de noyaux durs, partagent leurs paradigmes. Une certaine porosité existe malgré les différences et le découpage spécifiques du réel par chaque science en fonction de ses objets d’études et de ses périmètres d’application. Les modèles mécanistes, systémiques, connexionnistes, interactionnistes et cognitifs sont retranscrits dans les interfaces homme machine (Gobert, 2011) et les environnements informatiques d’apprentissage humain.

3. Interface perçue, interface vécue

Les réalisations scientifiques et techniques nourrissent d’autant plus des représentations collectives qu’une intelligence (artificielle) les habite. Elles focalisent les imaginaires même s’il est rarement fait mention des valeurs que véhiculent les produits des industries informatiques. Il semble en effet que si les machines sont appréhendées par les interfaces, leurs auteurs (et leur pensée) demeurent inconnus alors qu’ils sont cités dans l’« à‐propos » de tous les logiciels. Quand des personnages emblématiques sont identifiés, ce sont généralement des chefs d’entreprise comme Bill Gates et Steve Jobs.

En 2000, en cherchant à qualifier les comportements observables de sujets placés en situation de contact avec des interfaces multimédias, nous avions identifié des clivages fortement prononcés. Ces clivages pouvaient départager des typologies de sujets en fonction de leurs utilisations, mais le thésard observant son échantillon de population avait dû rendre compte d’une réalité plus complexe. Bien que les opinions fussent fréquemment tranchées de manière positive ou négative, les sujets étaient tous en capacité de citer des arguments à la fois en faveur et en défaveur des nouvelles technologies de l’information et de la communication.

D’une part, il était question des influences néfastes sur la société et les enfants que pouvaient avoir ces objets qui ne sont pas neutres. Ils auraient des effets négatifs sur le sommeil, encourageraient la violence, la dysorthographie et une certaine désocialisation due à la prédominance du virtuel sur le réel. En outre, il s’agissait de produits américains qui participaient d’une hégémonie occidentale conduisant à de nouveaux clivages entre le Nord et le Sud. La technologie était perçue comme un risque pour l’humanité que rendaient inévitable le goût pour la facilité, le plaisir d’utilisation, voire l’addiction.

D’autre part, Internet était « l’avenir » et devait permettre de « voyager dans le monde entier ». La technologie était porteuse d’une promesse. Courriel, navigation, forums et autres groupes de discussions semblaient mettre à la portée de tous le rêve d’une société où tout le monde peut communiquer, s’informer, réagir, participer. Dès 1998, le gouvernement évoquait « l’entrée de la France dans la société de l’information » qui sera qualifiée en 2003 « d’hyper République » par le Premier ministre de l’époque. Les services de l’administration d’État se sont déclinés en prestations dématérialisées. La numérisation de la démocratie participante est devenue en partie réalité avec la possibilité de contribuer aux forums gouvernementaux et parfois de voter en ligne. Ces éléments ont fait le lit d’une culture technologique (et non technique) centrée sur les nouveaux médias et, du fait de la période, plus particulièrement sur le disque optique compact. Commercialisé principalement entre 1994 et 2005, ce support a alimenté l’espoir de pouvoir tout posséder dans peu de place. Il suffisait d’acheter la visite numérique « Le Louvre » pour posséder chez soi ce qu’il fallait connaître du musée historique. Les clients, au moment d’investir dans ces produits multimédias demandaient d’ailleurs le « poids des données » ou la « taille du disque » avant de conclure leur processus décisionnel d’achat. Le plus important aurait dû être la qualité de l’intégration multimédia des contenus à l’origine du spectacle multisensoriel auquel se préparait l’utilisateur. Pour beaucoup, imposant avec ses enceintes et son grand écran, l’ordinateur était comme une télévision devant laquelle le spectateur aurait un comportement interactif. Là résidait toute la différence : la télévision était réputée guider un spectateur passif tandis que l’interface multimédia le rendait censément actif. Il pouvait visiter le Louvre en modifiant à sa convenance l’ordre des salles et des œuvres, choisir le niveau des commentaires. Le volume des contenus était en fin de compte presque identique à celui d’un documentaire classique. L’une des clés du succès provenait de l’adhésion au modèle connexionniste d’exploration des contenus qui était bien plus attirant que la progression séquentielle d’un reportage. Il ne s’agissait guère que d’une organisation différente mais qui introduisait un fort sentiment de liberté.

La décennie multimédia a connu un foisonnement de travaux scientifiques sans précédent sur l’interactivité. Le questionnement est venu des comportements observables associés au spectacle sensoriel multimodal dans les applications vidéoludiques. Dans les shoot them up tels que « Doom », le sujet explore un décor où surgissent des adversaires qu’il a pour tâche de vaincre en faisant usage de ses armes. C’est l’intelligence artificielle du logiciel qui fait évoluer ces acteurs. Il est également possible de jouer à plusieurs en réseau (local). Ce n’est donc plus l’IA qui génère les réactions des combattants mais les joueurs humains qui s’incarnent – ou plutôt se virtualisent – dans leurs avatars au sein de l’environnement de jeu. Rappelons que par convention, l’interaction désigne un échange dont l’ensemble des participants est composé d’êtres vivants et l’interactivité décrit les capacités communicantes des interfaces numériques. Lorsque des personnes animent des personnages dans un espace, virtuel ou non, et qu’elles communiquent entre elles via ces personnages, parle‐t‐on d’interactivité ou d’interrelation, c’est‐à‐dire d’interaction ?

Les choix méthodologiques retenus s’étaient portés sur la conduite de trois méthodes conjointes. La première était celle de l’observation systématique de sujets placés dans diverses situations de jeu et d’utilisation d’ordinateurs. La seconde résidait dans le recueil et l’analyse d’un corpus discursif de ces mêmes sujets avant et après l’activité. Enfin, les espaces en trois dimensions utilisés pour les jeux étant des environnements dans lesquels les sujets pérégrinaient, il était intéressant de réaliser des parcours commentés comme en emploient les urbanistes travaillant sur les ambiances sonores et lumineuses. Comme il existe des faits sociaux en sociologie, nous avions retenu de travailler sur le « fait éthologique » que constitue le répertoire comportemental observable en situation de contact avec un dispositif multimédia.

En effet, l’ordinateur ne perçoit avec exactitude que les données non‐ verbales. Celles‐ci sont limitées à une microgestuelle associée aux touches du clavier, aux manipulations de la souris et aux commutateurs disposés sur la machine. Les signaux émis par l’utilisateur n’ont pas même valeur de parasites, car s’ils influent éventuellement sur sa pratique personnelle, la machine les ignore. Exploiter les ressources virtuelles nécessite une projection à partir d’un système de communication générique avec le vivant, verbal et non verbal, à l’aide de modalités limitées puisées dans le non verbal. À ce jour, l’ordinateur n’interprète pas correctement la parole ; il ne comprend que le langage tactile des mains et plus particulièrement des doigts. Les facteurs retenus dans le cadre non verbal de l’observation sont donc constitués de postures, de gestes et de conduites orientés vers l’ordinateur, hors la présence du chercheur, pour éviter toute confusion dans la destination des mouvements.

Des différences étaient‐elles observables dans les situations décrites comme interactives et celles qui pourraient donner lieu à une interprétation d’interrelation quand par exemple les avatars sont pilotés par des individus et non par une IA ? L’analyse du corpus discursif a discriminé sans appel les deux situations. D’une part la conduite par une intelligence humaine serait perceptible et, d’autre part, l’interface homme‐machine est capable de laisser filtrer des « sensations » différentes selon la nature des interactants.

Quand l’individu joue contre des personnages pilotés par une IA, le sujet interagit avec les contenus programmés de stratégies et de conduites de type stimulus réaction. En respectant les définitions à la lettre, il est possible d’affirmer qu’il y a interaction asynchrone avec le concepteur et interactivité synchrone avec l’interface et le programme. Si l’individu joue avec des avatars pilotés par d’autres individus au travers d’un réseau, il y a interaction synchrone avec les autres joueurs, interactivité synchrone avec le spectacle multimédia de l’univers fictionnel. Il y a toujours interaction asynchrone du fait de l’existence d’un échange implicite avec le concepteur qui se manifeste dans l’aperception des décors et d’éventuels autres personnages pilotés par l’IA. Il y a bien communication entre les joueurs par le truchement du jeu, sachant que cette communication sera limitée aux contraintes des rôles imposés par l’univers fictionnel retenu. L’interrelation est donc restreinte aux modalités acceptées par les participants des règles du jeu. De même, les interactions observées dans le vivant posent les limites des capacités cognitives, sensorielles et comportementales des espèces et des individus concernés.

En 2000, nous avions donc conclu que des interactions étaient possibles, à condition toutefois de les qualifier de synchrones et d’asynchrones, de directes et d’indirectes selon la nature des interactants. En outre, de profondes différences étaient observables entre le vécu, le perçu et le décrit. Le joueur immergé dans un univers qui le confronte à une IA peut être à ce point « bon spectateur » qu’il limite ses fenêtres sensorielles et cognitives pour s’adapter à la qualité de l’univers proposé. Ces limitations sont conscientisées en début de partie. Plus tard, l’attention étant focalisée sur des actes réflexes, des conduites de désignation et la puissance du divertissement (Pascal, 1676), l’immersion devient telle que le vécu de l’interface s’approche davantage de l’interrelation que de l’interactivité. La réalité observée, elle, n’est pas sans interpeller le chercheur. Selon le niveau des joueurs, leur degré d’investissement ne varie pas avec les variations d’identité machinique ou humaine des autres personnages. De plus, la qualité de détection est positivement corrélée à ce degré d’investissement. Le test de Turing, refait dans les années 2000, présente le même intérêt qu’en 1950, malgré l’évolution des technologies.

Il est intéressant de constater que l’intérêt du test de Turing réside une fois de plus non pas dans ses résultats mais dans son existence. Le questionnement ontologique, deviner si le partenaire est une IA ou une personne, était toujours d’actualité à ceci près qu’il s’est disséminé dans le grand public pour qui il est devenu un jeu pour les clients concernés.

4. Augmentation de l’interaction et baisse de l’interactivité multimodale

Dix ans plus tard, les produits et les environnements informatiques ont fortement évolué. Internet est omniprésent. Pour la majorité des utilisateurs, un ordinateur non connecté « n’est pas intéressant » (Gobert, 2011). Les jeunes adultes contemporains éprouvent des difficultés à imaginer comment faisaient leurs prédécesseurs pour réaliser un dossier sans Wikipédia et se demandent « pourquoi ils s’intéressaient à l’informatique ». Ils reconnaissent « étaler leur vie sur Internet » (Gobert, 2011) via des sites de réseautage social et gèrent leur image sociale sur la toile devenue un espace d’expression banalisé. Le réseau fait partie de la vie quotidienne et sa non‐disponibilité ponctuelle enlève réellement quelque chose aux natifs digitaux qui ont toujours connu les outils connectés. Les jeunes ne sont pas pour autant les seuls concernés. Les générations antérieures se sont approprié les TIC, même si des résistances à une « société de l’Internet et des machines » sont observées. Elles ont vécu la révolution numérique étape par étape et les formateurs sont parfois surpris de découvrir que leurs connaissances sont plus pointues que celles de leurs cadets.

Les jeunes adultes ont tendance à utiliser les outils sans en maîtriser le fonctionnement. Les plus âgés, tout en les employant moins, appréhendent davantage leurs mécanismes (Gobert, 2011). Au cours d’une précédente étude, nous avions fait l’hypothèse que cela provenait en partie des évolutions graphiques et conceptuelles des interfaces. Sur le plan graphique tout d’abord, une simplicité apparente se généralise. Cette simplicité dissimule de réelles complexités de programmation. Vers 2005, avec l’influence croissante des projets open source, la création infographique s’est profondément remise en question. Alors que la norme consistait jusque‐là à réaliser des pages internet sur la base d’une image découpée et exportée dans un tableau HTML, les styles (CSS) et les CMS sont apparus. Leur rôle était d’automatiser la mise en forme des pages en tirant parti des capacités de calcul informatique car esthétique, texte et animations y sont indépendants. De plus, des approches dynamiques (MySQL) animent l’ensemble et proposent des fonctionnalités d’analyse textuelles et de bases de données. L’interface qui en résulte propose un ensemble de fonctionnalités destinées à décharger l’utilisateur des tâches techniques. Il peut par exemple lui confier la mise en forme automatique des clichés qu’il souhaite mettre en ligne sans se soucier de leur poids ou de leur taille. Ces fonctionnalités sont exploitées par Google et Facebook qui ne doivent pas leur succès qu’à leur objet. Les choix d’interfaces ont été primordiaux.

Le moteur de recherche Google est devenu la page d’accueil de la majorité des navigateurs. Certes, la fonctionnalité de recherche correspond à une priorité de l’Internet : on se connecte fréquemment dans le but de trouver de l’information. Mais depuis dix ans, Google ne semble pas souhaiter changer de vision. De légères variations sont observées dans le graphisme appliqué au nom, mais le fond reste identique. Des options de « personnalisation » sont disponibles et la configuration d’un portail personnel est encouragée. Ces possibilités semblent paradoxalement peu utilisées. Visuellement, la majorité des pages d’accueil affichées sont blanches avec le célèbre champ de saisie central.

Le site de réseautage social Facebook a également opté pour une interface qui se veut la plus dépouillée possible. La difficulté est grande car le nombre d’éléments à intégrer est considérable. Facebook ne propose même pas de réelle possibilité de personnalisation. Le cadre est figé et les utilisateurs l’acceptent car la priorité est donnée aux fonctionnalités. Ce n’est pas le spectacle multimédia de la décennie précédente qui attire. L’interface est compatible avec tous les codecs (compresseurs et décompresseurs) audio, vidéo et graphiques. Les utilisateurs peuvent donc écouter de la musique et visionner des films. Mais l’objet a changé : on ne cherche plus à posséder mais à échanger car Internet sera toujours là avec sa richesse potentielle de contenus. La qualité du spectacle multimédia est moins importante que la possibilité de proposer ses propres médias. Souvent issus d’un téléphone mobile et donc de piètre définition, ils n’ont pas pour objet la perfection. Les bibliothèques de vidéos comme YouTube sont gorgées de fichiers qui n’ont d’autre finalité que d’avoir été mis en ligne dans un souci d’expression identitaire (Vacaflor, 2011).

Ces conduites rejoignent la préoccupation partagée de ne pas « être une machine ». Des millions d’individus sont désireux d’être reconnus en tant que personnes et s’opposent ouvertement à « leur remplacement » par ces machines ». L’expression malheureusement populaire signe la pertinence des inquiétudes de Norbert Wiener concernant la cybernétique. La personne, contrairement à un individu statistique, se sait porteuse d’une identité qui signe son intégration sociale et la distingue des autres. Elle considère cette identité comme sa valeur ajoutée. Après une longue période de monstration, les interfaces aspirent désormais à la transparence. Leur travail souterrain doit valoriser l’utilisateur et non la machine. Pour Joël De Rosnay, l’interface idéale serait ubiquitaire et invisible (De Rosnay, 1995). De même, les espaces de stockage de données peuvent maintenant être hébergés sur des sites distants, disséminés dans un « nuage ». Ce cloud computing est un pas de plus vers la disparition des composants physiques de l’ordinateur et participe de sa miniaturisation, donc de sa discrétion. Le réseau devient un composant et une composante des appareils numériques, notamment des ordiphones et des tablettes numériques.

Il semblerait que ces évolutions récentes soient directement liées à la convergence des réseaux et au développement des applications de médiation synchrones qui valorisent les possibilités de communication en distantiel. La simplicité, la convivialité et la synchronie sont d’importants vecteurs commerciaux. Les interfaces contemporaines tentent donc de dégager l’utilisateur des contraintes techniques, corporelles et cognitives inhérentes à l’existence. Les convertisseurs automatiques de fichiers, le caractère synchrone des communications et des échanges multimodaux, la rétention par l’ordiphone des petits actes de mémoire quotidiens (codes, numéros de téléphones) montrent combien ces interfaces sont simultanément discrètes et omniprésentes. Elles soulagent ici et maintenant d’une partie des tracas quotidiens. Comme il y a dix ans mais, avec le progrès technique en plus, les dispositifs constituent des orthèses communicationnelles, cognitives et multimédias.

Les travaux sur les interfaces ont intégré les grands paradigmes de sciences humaines au fur et à mesure de leur émergence et parfois de leur déclin. Elles présentent la matérialisation d’une synthèse des pragmatiques associées aux théories fondatrices.

Paradigmes

Type d’interface

Type d’échange

Types d’utilisation

Raisonnements mécaniste et cognitif

Interface texte

Interactivité

Présence instituée

de l’ingénieur

Interface hypertexte

Interactivité

Interface hypermédia

Interactivité

Raisonnement systémique et cybernétique

Interface WYSIWYG

Interactivité

Présence distribuée avec le système multitâche et l’environnement, interactivité

Interfaces multitâches

Interactivité

Interfaces multimédias

Interaction

possible si

avatars sans IA

Raisonnement cybernétique et

connexionniste

Interface hyper terminale

Interactivité et interactions classiques selon les utilisations et les usages en ligne

Présence instituante du sujet qui gère son image en ligne

Interface

communicante

Interface de

médiation

Interface ordiphone

Hub social, social hub

En mode off line, les situations limitaient le périmètre des interactions, au sens conventionnel du terme, à des échanges où des avatars étaient mus par des sujets. Les communications entre ces avatars reflétaient les intentions de leurs opérateurs, quand bien même l’échange fût nécessairement limité à la scénarisation de l’application, en général ludique. Avec les interfaces en ligne synchrones, les logiciels se connectent à distance, mettent les hommes en relation. Skype, Facetime, le chat, l’actualisation immédiate des statuts sur les sites sociaux créent une nouvelle situation. L’ordinateur, les tablettes et surtout les ordiphones sont devenus autant de moyens de communication banalisés. Mieux, ils renouent peu à peu avec la simplicité d’utilisation du téléphone, combien même certains appareils comme l’Iphone seraient plutôt des ordinateurs dotés d’une fonction de téléphonie. En situation d’interaction, la machine est un medium entre personnes. C’est un cas simple d’interaction médiée par l’ordinateur. Mais ce dernier peut également médiater l’interaction quand les interactants communiquent entre eux par le biais d’avatars en synchronie dans un environnement virtuel. Les situations peuvent être décrites non pas comme de nouvelles formes d’interaction mais comme l’actualisation dans la contemporanéité d’un modèle ancien de communication.

En 1861, quand un professeur de musique allemand Philip Reiss avait réussi à transmettre, électriquement et à distance, une mélodie au moyen d’une machine expérimentale qu’il avait baptisée das Telephon, les postiers et les télégraphistes, directement menacés par la nouvelle invention, refusèrent de la prendre au sérieux. La profession s’opposa à la télégraphie parlante (Carré, 1993, 18). Aujourd’hui, les opposants à la vidéophonie synchrone ne sont pas déclarés contre la communication elle‐même, mais contre l’univers commercial et mercatique qui l’entourent. Ces outils permettent de réactualiser, au sens d’interrelation, les interactions que ne permettaient pas les ordinateurs off line. De manière inattendue, elles ont resurgi et permettent aux hommes de communiquer entre eux. Ce qui qualifie le concept d’interaction humaine est à nouveau l’échange entre personnes quand le médium médiate les échanges mais ne participe pas comme intelligence dans la dyade avec le vivant.

5. Conclusion

Dans cet article, nous avons souhaité revenir sur les rapports entre interactivité et interaction en situation de contact avec des interfaces numériques. Ce débat, qui agite les sciences depuis les débuts de l’informatique, s’était renouvelé au moment du multimédia, entre 1995 et 2005. L’arrivée récente des nouvelles fonctionnalités en ligne comme le réseautage social et les possibilités de communication synchrone, semble apporter des réponses nouvelles. Il peut y avoir interaction quand l’outil médie, médiate et met en communication des personnes. C’est pourquoi, il devient possible de parler d’interaction lorsque des ordinateurs s’invitent comme des supports de l’échange par l’intermédiaire d’avatars pilotés par des personnes ou comme canal de communication multimodal. Par convention, il y a interaction lorsque le sujet utilise une machine interactive. Quand elle se comporte comme un médium et non plus comme un média, c’est‐à‐dire qu’elle met en relation des personnes de manière synchrone ou asynchrone, il est possible de parler d’interaction. L’ordinateur en réseau se comporte comme un téléphone multimédia qui sollicite la voix et d’autres modalités. L’avènement de la synchronie sur les réseaux renouvelle en ligne à quinze ans d’intervalle la frénésie du multimédia et de la valorisation de l’interface, combien même cette dernière serait relativement discrète mais omniprésente. Les modalités de la médiation distinguent l’interactivité de l’interaction, le face‐à‐face de la relation.