Métamorphoses des écrans
Invisibilisations

Emmanuelle Caccamo 
et Marie-Julie Catoir-Brisson 

Publié en ligne le 07 mai 2018

Ce dossier fait suite au dossier du vol. 5, n° 2 de la revue Interfaces numériques sur la multiplication des écrans. Il est le fruit d’une collaboration transatlantique qui a réuni des chercheuses et chercheurs de l’Université de Bordeaux-Montaigne, de l’Université de Nîmes, de l’Université du Québec à Montréal (UQAM) et de l’Université de Montréal (UdeM) au sein du programme « Métamorphoses des écrans » de 2014 à 2016. Suite à la journée d’études organisée par Marie-Julie CatoirBrisson et Thierry Lancien en novembre 2012, à l’occasion de la sortie du n° 34 « Ecrans & Médias » de la revue MEI (Médiation et Information), un dialogue s’est instauré entre Marie-Julie Catoir-Brisson, Emmanuelle Caccamo et Martine Versel, pour prolonger la recherche sur les écrans, sous l’angle de leurs métamorphoses. Cette collaboration intellectuelle visait à créer un dialogue entre différentes approches autour de l’objet-écran, et une synergie des recherches sur l’intermédialité. Cette dynamique de recherche transatlantique caractérise aussi le projet éditorial de ce dossier sur l’invisibilisation des écrans.

Sommaire

Texte intégral

1. Du foisonnement à l’invisibilisation des écrans

En dépit d’une méfiance nécessaire à l’égard des discours qui proclament qu’une mutation sans précédent est en cours, il faut toutefois se rendre à l’évidence et constater que notre rapport aux images et notre manière de voir a changé. La période qui suit la Deuxième Guerre mondiale marque le début d’une multiplication des écrans, d’une sophistication des technologies d’imagerie et d’une circulation d’images sans précédent. Les images ont évidemment toujours circulé sous différentes formes. Cependant l’écran d’affichage, dans ses différentes variantes, devient leur support de prédilection. En sus de l’écran de projection du cinéma, les écrans de télévision, d’ordinateur fixe et portable, de téléphone cellulaire, les murs d’écrans, les écrans de contrôle et plus récemment les tablettes filtrent notre rapport à la réalité. Progressivement, l’écran d’affichage électro-numérique se trouve intégré à un grand nombre d’objets. Il s’affiche sur les appareils photo, les caisses enregistreuses, les tableaux de bord des voitures, les casques de pilotage, les murs, et de plus en plus sur les appareils électroménagers (réfrigérateurs, machines à laver, thermostats, etc.) ou plus largement dans le champ de la domotique. L’écran numérique connecté au réseau Internet est devenu un intermédiaire incontournable dans beaucoup de domaines. Il s’est glissé petit à petit dans toutes les strates des sociétés occidentales et constitue une nouvelle interface culturelle qui ajuste notre rapport à la culture, à autrui et plus globalement au monde (Manovich, 2010). Et, pour reprendre un terme cher à Serge Daney, l’idéologie de cette « écranisation » croissante des sociétés est de voir toujours plus, de l’infiniment grand à l’infiniment petit. Les moindres recoins de la vie doivent s’afficher dans une prétendue transparence. Et, par là même, voir constituerait moins un moyen qu’une véritable fin : la visibilité devient une exigence. Le psychanalyste Gérard Wajcman note par ailleurs un changement intéressant : pour lui, il n’est plus simplement question de voir ou de regarder des images sur un écran, mais également d’être vu par la caméra intégrée dans l’écran. Il prédit par exemple que les écrans de télévision seront tous pourvus d’un « œil » dans quelques années (Wajcman, 2010). Les révélations au sujet des téléviseurs Samsung convergent en ce sens, bien qu’il s’agisse non point d’être vus, mais d’être écoutés (l’image est ici auditive) (Pascual, 2015). En somme, nous baignons dans ce que Gilles Lipovetsky et Jean Serroy ont appelé l’« écranosphère » (2011).

Note de bas de page 1 :

Après l’écran flexible annoncé par Samsung, Google Inc. vient de déposer un brevet relatif à un projet d’écran que l’on pourrait déchirer : http ://www.lesechos.fr/tech-medias/hightech/021902697570-pourra-t-onbientot-dechirer-et-jeter-son-ecran-1219608.php>. Voir aussi : http://rue89. nouvelobs.com/2016/05/04/samsung-prepare-lecran-pliable-google-veutdecouper-263948

Mais alors que l’on assiste à une multiplication des écrans, lesquels embrassent des formes de plus en plus sophistiquées1, où se situe la pertinence de proposer un dossier sur l’invisibilisation des écrans ? Et à quoi renvoie cette notion d’invisibilisation ? L’invisibilisation peut être comprise au moins selon trois grands axes : un axe technologique (science des techniques), un axe socioculturel et anthropologique et un axe sociopolitique.

2. L’invisibilisation d’un point de vue technologique

Selon le type d’écran auquel on se réfère dans l’histoire des médias, la multiplication et l’invisibilisation semblent correspondre en premier lieu à deux phases distinctes dans le développement technologique. Par exemple, avant d’être accepté de façon socioculturelle, l’écran de télévision est d’abord conçu comme un mobilier qui se fond dans le décor du foyer (Frau-Meigs, 2011). Le camouflage ou l’enfouissement dans un meuble aux formes familières participent d’un processus de « domestication » progressive de l’écran. Une fois admis comme élément central rythmant la vie quotidienne, le téléviseur constitue un objet à part entière, et ce jusqu’à prendre aujourd’hui des proportions démesurées sous la forme d’écrans domestiques géants. Le parallèle entre l’écran et le tableau est également éclairant pour penser les écrans domestiques actuels, en particulier celui de la télévision. En effet, la forme de cet écran se modifie pour se rapprocher de celle d’un tableau, d’autant que les écrans plats s’intègrent de plus en plus dans le mobilier (notamment quand ils sont accrochés au mur du salon ou de la cuisine). Le développement de ce type d’écrans est d’ailleurs concomitant avec l’apparition de l’écran dans les musées. Mais cette logique, bien que caractéristique de l’histoire du poste de télévision, ne semble pas généralisable. L’histoire de l’ordinateur présente un mouvement inverse en ce que le camouflage en constitue une dernière étape (Demassieux, 2002). D’écrans d’ordinateur personnels pesants et volumineux nous sommes passés à des écrans plats, légers, plus petits et, dans quelques cas, transparents. Cet enfouissement est certes technique, il s’agit de camoufler les câbles et les composantes électroniques, qui occupaient dans les années 1940-1950 des pièces entières, en les miniaturisant. Mais il est également à comprendre en regard de paramètres socioculturels et économiques. Les développements des différents écrans, de l’histoire du cinéma à l’histoire du téléphone cellulaire en passant par celle du téléviseur, ne fonctionnent pas en vase clos et s’influencent l’une l’autre d’un point de vue intermédial. Ainsi l’invisibilisation des premiers écrans domestiques, dont le but consistait à familiariser le public à une nouvelle forme de médiation, constituerait peutêtre un facteur ayant facilité l’acceptation sociale de nouveaux écrans.

Quoi qu’il en soit, nous assistons actuellement à une tension entre multiplication, gigantisme et invisibilisation des écrans. Autrement dit, ces trajectoires (au sens de Gras, 2003) seraient moins à comprendre comme des phases technologiques distinctes que comme des principes pouvant se compléter. À l’opposé des écrans publicitaires colossaux de Times Square, un certain nombre d’objets écraniques semblent se soustraire à la vue.

Note de bas de page 2 :

https://www.youtube.com/watch?v=Go9rf9GmYpM

Prenons par exemple une stratégie marketing développée par une marque de boisson gazeuse en 2014 qui utilise un écran transparent2. En plein cœur de Londres, un écran de verre intégré à un abribus présente des contenus hyperréalistes qui, venant se superposer à la réalité, jouent avec la crédulité des passant·e·s. Version hypermoderne de trompe-l’œil, l’écran transparent donne l’illusion qu’un tigre, un robot géant ou des soucoupes volantes, pour ne nommer que ces scénarios, s’approchent dangereusement de l’abribus en question. Par les effets disruptif et plaisant occasionnés par le dispositif, la prouesse technique de l’invisibilisation de l’écran sert ici un but mercantile.

Les lunettes connectées nous fournissent une autre illustration du principe d’invisibilisation. Celles-ci dissimulent pour la plupart un écran miniature situé à quelques centimètres de l’œil qui se trouve accessible par un seul et unique individu. L’interface informatique, qui se superpose à la perception visuelle de l’environnement ordinaire, donne accès à de multiples données et diverses applications. Ainsi imagine-t-on discuter avec une nouvelle personne ou prendre part à une activité, tout en voyant s’afficher automatiquement des informations supplémentaires. D’aucuns parlent ainsi de « réalité augmentée », lorsqu’il faudrait plutôt parler, de façon plus neutre, de « réalité modifiée ».

D’un point de vue technologique, l’invisibilisation peut aussi être pensée comme la transition des interfaces visuelles vers des interfaces audio-vocales. À l’instar de l’engouement pour les « assistants personnels intelligents » qui fonctionnent par reconnaissance vocale, il n’est plus forcément nécessaire de passer par un écran matériel. Dans ce contexte, les interactions visuelles, de même que l’écran, ne sont plus requis.

Note de bas de page 3 :

http://www.hplusdigitalseries.com/

Poussant plus loin la trajectoire technique de l’invisibilisation, la sciencefiction imagine la dissimulation ou la dilution des écrans dans le corps organique. La série Black Mirror (2011) et la websérie H+ : the Digital Series (2012-2013)3 mettent par exemple en scène un nouveau type de technologie prenant la forme d’interfaces cérébrales numériques implantées dans le corps. Ces deux univers fictionnels cristallisent les fantasmes transhumanistes relatifs au devenir des écrans et à leur possible intégration corporelle (cf. Caccamo, 2014). Plus catégorique, H+ : the Digital Series conçoit un futur où les écrans extérieurs (hors du corps) sont quasi obsolètes.

Ces quatre exemples types portent avant tout sur la forme technique que peut prendre l’invisibilisation, à savoir celle d’un écran transparent, celle d’un écran miniature, celle de la disparition de l’écran et de son interface visuelle au profit d’une interface audio-vocale et celle, fantasmée, d’un écran numérique cérébral.

En somme, après s’être multipliées, miniaturisées, les interfaces numériques ne se limitent plus au cadre d’un écran mais s’intègrent dans tout type de support matériel sur et autour de nous. Portatives et de plus en plus invisibilisées, elles se caractérisent par leur capacité à se diluer dans notre environnement quotidien. Si cela peut sembler nouveau, ces interfaces délivrées de leur support d’inscription renverraient aux premiers écrans intégrés dans l’environnement de l’être humain (cf. Martin, 2014). On peut remonter à la préhistoire et considérer les murs des grottes comme des « prémisses de l’écran, surface dédiée à la diffusion et au transport des images » (ibid., 40). Et il faut attendre 3 300 av. J-C, soit le passage de la préhistoire à l’histoire, pour qu’apparaisse le premier « écran de poche pour homo mobilis » (ibid.) Les images peuvent alors voyager et « s’actualiser sur des éléments mobiles (tablettes en bois, terre, pierre) » (ibid.) Cette généalogie de l’écran constitue une archéologie intermédiale de l’écran portable, de la tablette en pierre de la préhistoire à la tablette tactile d’aujourd’hui. Cependant, il ne faudrait pas voir ici un retour aux origines ou une tendance « naturelle » dans le développement actuel des interfaces numériques intégrées dans notre environnement, qui s’inscrit dans une histoire culturelle de l’objet-écran. Si les technologies numériques rendant possible l’invisibilisation des écrans ne sont mises au point qu’aujourd’hui, elles ne font qu’actualiser le projet de l’informatique ubiquitaire ou pervasive développé par Mark Weiser au début des années quatre-vingt-dix, comme le souligne David Pucheu dans un article de ce numéro. Dans cette vision du design d’interaction, le monde devient une interface et le rapport au monde et à autrui de plus en plus médié par une interface numérique. Si cette trajectoire de la technologie est aujourd’hui hégémonique, il faut la questionner dans une perspective critique afin d’en envisager de nouvelles.

3. Invisibilisation, banalisation et « naturalisation » des écrans

L’invisibilisation peut également être envisagée comme synonyme de banalisation psychologique et socioculturelle des écrans. Ceux-là sont tellement présents dans notre environnement qu’on finit par ne plus y faire attention. Comme l’écrivent Marc Ménard et ses collègues dans l’un des articles qui compose ce dossier : « Si les écrans sont aujourd’hui “invisibles”, c’est qu’étant à ce point répandus, ils sont devenus banals et banalisés, et se fondent ainsi dans une quotidienneté qu’ils contribuent à produire. »

Mais cet état de fait ne doit pas être confondu avec une autre forme de l’invisibilisation qui relève, elle, d’une rhétorique de « naturalisation » des écrans et des interfaces suivant laquelle ces derniers constitueraient un prolongement de nos organes et de nos facultés humaines. En témoigne par exemple la terminologie « naturalisante » employée pour qualifier les interfaces : des « Graphic User Interface » (GUI), nous passerions aux « Natural User Interface » (NUI) ou « interfaces naturelles ». Cette interprétation peut être mise en rapport avec la thèse anthropologique, défendue notamment par André Leroi-Gourhan (Leroi-Gourhan, 1965), selon laquelle l’évolution de la technique prolonge et remplace les organes biologiques de l’humain, voire supplée l’évolution de l’espèce humaine. Dans ses recherches portant sur les rapports entre l’hominisation, la mémoire et la technique, Leroi-Gourhan élabore la théorie selon laquelle l’hominisation s’est effectuée grâce à une extériorisation successive des fonctions biologiques, anatomiques, cérébrales, sensorielles, imaginatives et mémorielles dans les objets techniques (ibid.) Autrement dit, l’Homo sapiens serait advenu par une mise au-dehors de lui-même. La technique est ici synonyme d’une libération des contraintes biologiques autant qu’écologiques sous l’action de l’humain sur la nature. Cette thèse alliant « naturalisation » et libération est aujourd’hui exacerbée et poussée à l’extrême par les diverses mouvances transhumanistes.

Cependant, cette « naturalisation » de la technique ne va pas sans poser quelques problèmes, particulièrement en ce qui concerne la représentation : les dispositifs numériques de « réalité modifiée » ou encore les dispositifs d’immersion, comme Oculus Rift par exemple, éprouvent la double fonction de l’écran, à savoir délimiter l’espace de la représentation et fournir un cadre d’énonciation (selon Lojkine, 2001). Avec cette remise en question de la notion de cadre, on peut se demander si l’on ne passerait pas d’une problématique de la représentation à celle de l’hybridation. Au prisme de la rhétorique « naturalisante » et « libératrice » de la technique et de l’idéologie transhumaniste, les questions ayant trait à la catégorie du simulacre se posent plus que jamais. En outre, il semble nécessaire de relativiser les discours revendiqués par certains publicitaires et chercheurs célébrant comme unique et garante d’une « liberté totale » la posture immersive que permettraient les nouveaux dispositifs. La posture spectatorielle d’un dispositif comme Oculus Rift, par exemple, n’est-elle pas plutôt apparentée à celle des cinémas des premiers temps, inscrivant le spectateur dans un mode de lecture spectacularisant (Odin, 2000) ? Il semblerait en effet que l’expérience-à-vivre proposée par le dispositif technique compte davantage que l’expérience culturelle d’un univers diégétique. L’attraction constitue ainsi le point commun entre le spectateur d’un film comme L'Arrivée d'un train en gare de La Ciotat et celui d’un contenu médiatique expérimenté via Oculus Rift.

Cette banalisation des écrans et cette rhétorique « naturalisante », reposant sur un fort déterminisme technique et sur l’idéologie du progrès, nécessitent enfin d’être interrogées et critiquées en ce qu’elles semblent se soustraire à toute pensée politique. Ne voyons pas là une quelconque posture « technophobe ».

Certes, lorsqu'il s'agit de discuter des techniques, il est très fréquent de qualifier celle ou celui qui en formule une critique de « technophobe ».

Opposition binaire largement acceptée, la « technophobie » vient ainsi s'opposer à une posture « technophile ». Pourtant, malgré un emploi surabondant par de nombreux intellectuels et intellectuelles, le néologisme « technophobie » ne semble pas aller de soi. En effet, on peut se demander s’il est réellement possible d'être « technophobe ». La polarisation technophile/ technophobe, « construction socioculturelle qui a accompagné l’avènement du monde industriel » (Jarrige, 2014, 12), mérite d'être questionnée. Lorsqu'on replace l'idée de « technophobie » dans la perspective de l'histoire de l'humanité, cette posture est intenable. Considérant que la technique s'inscrit dans la dialectique de l'évolution humaine, être contre la technique reviendrait à être contre l'humanité tout entière.

Dans une définition plus restreinte, cette catégorisation stéréotypée ne prend nullement en compte la complexité des critiques, ou ce que l'on pourrait appeler la constellation des postures critiques. Cette rhétorique masque les diversités ainsi que le contexte de production de l'énoncé critique et crée une généralisation : critiquer une technique ou une machine impliquerait de critiquer la technique dans son ensemble. Comme le montre le travail de l'historien des techniques François Jarrige, les critiques sont souvent rabaissées et ridiculisées par l’historiographie progressiste qui prend le point de vue des vainqueurs. La « technophobie » forme un argument d’autorité fallacieux visant à discréditer toute contestation.

Pourtant, la contestation et l’indignation à l'égard d’une technologie ne vise pas faire un choix binaire : accepter ou refuser. Elles visent plutôt à s’opposer à l’agencement sociopolitique et aux normes générées par une technique particulière, tout en négociant, en retraduisant, en essayant de trouver d’autres manières de faire, de lutter pour la préservation d’un travail, d’un savoir-faire, d’une autonomie, d’une liberté, d’un environnement naturel. La critique ne peut être analysée sans prendre en compte le contexte de son émergence, les facteurs situés.

Parmi l’histoire erratique de la critique, on peut identifier trois types d’arguments invariants depuis le XVIIIe dans les milieux artistiques et intellectuels, mais aussi dans les milieux populaires : la défense des libertés et de l’autonomie, la dénonciation de l’inégalité croissante entre les individus et la critique écologique (ibid.) Pourtant, après la Seconde Guerre mondiale, l’historiographie « a souvent présenté les critiques du progrès technique comme des régressions antihumanistes, des tentations stériles d’un retour à la terre qui auraient préparé le terrain des fascismes […] » (ibid., 344) – alors que ce sont les régimes fascistes et autoritaires du XXe qui furent euxmêmes technocratiques. Contrairement à ce que la rhétorique dominante du progrès prétend, la critique rationnelle, qui se place du côté de la collectivité, ne constitue pas une position réactionnaire. Elle est un espace de production sémiotique en vue de créer le débat sur des techniques particulières. Elle est un processus démocratique de discussion et de remise en question. Bien entendu, comme l’enseignent Luc Boltanski et Ève Chiapello, les nouvelles formes du capitalisme réemploient la critique qui en vient à nourrir le système. Mais lorsque ce recyclage résiste, il est fréquent de tourner la critique au ridicule et d'y apposer l’étiquette « réactionnaire » ou « conservateur ». À tel point qu'on en vient à se demander aujourd'hui si l'on peut critiquer une technologie tout en étant progressiste ? Faut-il déjà savoir de quel « progrès » on parle.

Ainsi, l'idée de « technophobie » gagnerait à être remplacée par l'idée de « technocritiques ». Ce concept militant, formulé par Jarrige à la suite de Jean-Pierre Dupuy et dont on notera le pluriel, vise ni plus ni moins à réhabiliter les critiques des techniques en les situant et à « dénoncer le grand récit chargé de donner sens à la multitude d’objets qui saturent notre existence » (ibid.) En somme, pour revenir aux écrans, la banalisation et la « naturalisation » de ces derniers nécessitent d’être pensées sur un plan politique d’un point de vue technocritique.

4. L’invisibilisation d’un point de vue sociopolitique

Sur le plan sociopolitique, le terme invisibilisation renvoie généralement à une invisibilité sociale ; à l’instar de celle des femmes, des autochtones, des groupes LGBTQI, des personnes précaires ou plus largement des minorités. Autrement dit, le « vocabulaire de la visibilité et de l’invisibilité porte sur les processus par lesquels des groupes sociaux, généralement définis en termes de capital économique, de genre ou de statut, bénéficient ou non d’une attention publique » (Voirol, 2005, 16). La notion réfère également à l’invisibilisation des oppressions et des injustices que subissent ces différents groupes, en ce qui concerne le travail par exemple.

L’emploi que nous faisons ici de l’invisibilisation en rapport aux écrans est quelque peu différent, quoique connexe lorsqu’il est question de comprendre comment les écrans – et leurs concepteurs – prennent part volontairement ou non à invisibiliser certaines pratiques. L’« invisibilisation » des écrans peut effectivement servir indistinctement les logiques de marché, du biopouvoir et de la surveillance généralisée : le phénomène de la quantification de soi ou encore du lifelogging constituent des exemples type qui allient ces trois logiques. La rhétorique pseudo-écologiste qui accompagne l’invisibilisation des écrans masque également une problématique environnementale. En dehors de la question de l’obsolescence programmée et l’« énergie grise », il faut prendre en compte le fait que les clouds informatiques et les informations soi-disant immatériels nécessitent des infrastructures lourdes, composées de gigantesques centres de données (datacenters) qui sont principalement alimentés au charbon (Gary Cook, 2012). L’Internet des objets et les données exponentielles qu’il génère, lesquelles sont ensuite stockées dans des serveurs qu’il faut refroidir, ont un coût environnemental préoccupant.

En somme, en plus de ces questionnements sociopolitiques, les écrans apparaissent invisibilisés, dilués, dissimulés, enfouis ou encore camouflés au sein de différents environnements, de la ville au corps humain. En d’autres termes, il est parfois difficile de savoir si nous sommes en présence d’écrans ou non et ce malgré leur omniprésence ; voilà le paradoxe que nous avons voulu examiner dans ce deuxième numéro. Et c’est aussi toute l’écologie informationnelle, humaine et environnementale du rapport entre les interfaces numériques et leurs usagers et usagères qu’il nous semble important de questionner.

*

Les auteur·e·s de ce numéro envisagent la problématique de l’invisibilisation des écrans à partir de différentes approches disciplinaires, qui sont complémentaires pour penser le phénomène dans sa complexité. Ainsi, l’intermédialité, les sciences de l’information et de la communication, la psychanalyse, la philosophie et la sociologie sont mobilisées pour tenter de saisir les enjeux liés à l’invisibilisation des écrans. Comme le soulignent les deux premiers articles de ce dossier, l’invisibilisation n’est pas forcément synonyme d’invisibilité. Éric Méchoulan, dans son article « Archives du futur : écrans et dispositifs de visibilité », procède au rapprochement de deux exemples d’invisiblisation de l’écran. Le premier cas discuté provient du film de science-fiction Terminator (J. Cameron, 1984), qui prend place dans un monde post-apocalytique au sein duquel on trouve un vieux poste de télévision éventré et recyclé en cheminée. L’autre cas d’étude est tiré de l’œuvre participative Théorie du complot (2002) de l’artiste canadienne Janet Cardiff où un écran portable invite à une promenade dans un récit imaginaire. Chaque invisibilisation prend forme à travers différentes temporalités liées respectivement à la fiction narrative du film de Cameron ou de l’œuvre de Cardiff. Autrement dit, l’effacement de l’écran s’articule autour de la question du temps et de ses paradoxes, et des jeux de temporalité – entre passé, présent et futur – mis en œuvre par les deux récits. Ainsi, tel que l’analyse Méchoulan à partir d’une approche intermédiale, chaque invisibilisation n’occasionne pas une annulation de la représentation, mais un signe à part entière qui ouvre sur de nouvelles images et de nouvelles significations. Et la particularité de ces effacements de l’écran est précisément de figurer des « archives du futur » imaginaires. L’idée de percevoir l’invisibilisation comme signe supplémentaire est également examinée par Dominique Corpelet dans son texte « Les lunettes connectées, le sujet omnivoyeur et son regard embarqué. Un regard en court-circuit ». Sous les auspices de la psychanalyse, Corpelet présente les lunettes connectées comme un « regard embarqué » qui « matérialise un regard en trop ». À partir des concepts du manque, du désir, de la pulsion ainsi que de la schize en psychanalyse entre la vision et le regard, l’auteur analyse les incidences de ce nouveau dispositif quelque peu disruptif. Ce texte, qui mêle approche lacanienne, objets connectés et invisibilisation, apporte une contribution originale dans un domaine qui reste encore peu exploré, surtout en langue française.

Il est vrai que les objets connectés font l’objet d’un plus grand nombre d’articles anglo-saxons. Cette conjoncture est très certainement dûe aux origines principalement étasuniennes de ces dispositifs, lesquels ont d’ailleurs pris forme autour de différents discours sur les interactions humain-machine. En effet, comme David Pucheu tente d’en retracer la genèse dans « Effacer l’interface. Une trajectoire du design de l’interaction humain-machine », l’internet des objets ou encore l’informatique « invisible » prend sa source dans un projet du Palo Alto Research Center en Californie visant à rendre moins perceptibles les processus computationnels dans le quotidien des individus. Ce projet, inspiré par les idées de l’anthropologue Lucy Suchman et dirigé par l’ingénieur Marc Weiser, imagine un « écosystème numérique » dans lequel les interactions humaines avec la machine seraient « naturelles ». Avec ce que Pucheu appelle le « projet ubiquitaire », il ne s’agit plus de faire dialoguer l’humain avec la machine, mais de fondre la relation humainmachine de façon quasi symbiotique. Toutefois, le monde théorique des ingénieurs et le monde des utilisateurs peuvent être radicalement opposés.

C’est ce que démontre brillamment Flavie Plante en prenant pour cas d’étude un projet de développement d’un dispositif médical destiné à des patients diabétiques. Dans « L’invisibilisation de l’écran des concepteurs aux usagers. Les enjeux du camouflage d’une m-health à destination des séniors à La Réunion », Plante témoigne du fait que, dans la pratique, les stratégies des concepteurs d’intégrer des dispositifs au plus près du quotidien des usagers ne fonctionnent pas forcément. Cette étude, qui exhorte à une réflexion éthique et politique, montre qu’il existe un défaut d’ajustement entre les différentes représentations de la place que doit avoir une technologie suivant notre statut. L’analyse révèle un problème de conception et de communication de l’usage du dispositif médical, entre les ingénieurs et les patients. L’autre atout de l’article de Plante est de questionner foncièrement la notion d’invisibilisation. L’auteure définit plusieurs plans pour aborder l’invisibilité : du côté des ingénieurs, elle catégorise la dimension technique, la dimension culturelle et la dimension économique de l’invisibilisation et, du côté des usagers, la logique identitaire, la logique de la médiation et la logique utilitaire de l’invisibilisation.

Note de bas de page 4 :

http://grisq.org/

Les deux derniers articles, co-écrits par des membres du Groupe de recherche sur l’information et la surveillance au quotidien (GRISQ) de l’Université du Québec à Montréal4, abordent les problématiques de la surveillance et de la marchandisation des données que les pratiques d’invisibilisation des écrans tendent à masquer. Fabien Richert présente un texte sur « Le No Interface et la surveillance liquide ». Le No interface désigne selon lui l’idéologie visant à se passer des écrans, sous couvert de gagner du temps grâce à une automatisation de nos interactions numériques. Selon Richert, cette idéologie participe d’une nouvelle logique de surveillance indéniablement reliée à l’économie marchande. Marc Ménard, André Mondoux, Maxime Ouellet et Maude Bonenfant signent quant à eux un véritable manifeste technocritique intitulé « Big data, gouvernementalité et industrialisation des médiations symboliques et politico-institutionnelles » L’article traite de la valorisation marchande de nos activités en ligne qui prennent forme sur les interfaces de plus en plus présentes et banalisées. Les auteur·e·s proposent une analyse de l’industrialisation, c’est-à-dire du circuit marchand, des données générées sur les médias socionumériques en complémentarité d’une analyse de la « gouvernementalité algorithmique » théorisée par Rouvroy et Berns. Ils analysent la manière dont les médias socionumériques constituent un dispositif fondamental de production de normes sociales et de subjectivité au XXIe, qui met à mal la praxis citoyenne.

En guise d’introduction, il est de coutume d’ouvrir le dossier sur des entrevues avec des personnes qui conçoivent les technologies numériques. Côté France, Marie-Julie Catoir-Brisson a rencontré Yves Rinato. Côté Québec, Emmanuelle Caccamo a interrogé Cénora Chevry. Chacun d’entre eux nous a fait partager sa vision de l’invisibilisation des écrans ainsi que ses craintes et ses espoirs.