Entretien

avec Cénora Chevry 

Cénora Chevry se définit comme entrepreneur en nouvelles technologies et en intelligence artificielle. Détective privé de formation, technicien en télécommunications puis enquêteur en cybercrimes, il a créé l’entreprise S3R3NITY avec deux associés il y a trois ans. Nous l’avons interrogé le 28 septembre 2015 à Montréal (Québec) sur sa vision de l’invisibilisation des écrans

Entretien réalisé par Emmanuelle Caccamo

Texte intégral

Emmanuelle Caccamo : Si je vous dis «  invisibilisation des écrans  » à quoi pensez-vous ?

Cénora Chevry : Ce qui me vient tout de suite en tête, c’est que quand je travaille, je n’aime pas être devant un écran. Si je pouvais faire mon travail vocalement, à savoir planifier mes horaires, envoyer mes courriels et avoir des résumés vocaux de documents, je le ferais volontiers. Il s’agirait de supprimer l’interface visuelle avec la machine pour interagir par le biais du langage naturel. D’un autre côté, l’invisibilisation peut faire référence à tout ce que l’on ne voit pas ou plus de la technologie. Je pense par exemple à une rencontre à laquelle j’ai pris part au siège social d’Ericsson : l’entreprise nous expliquait qu’elle a construit toute une infrastructure de télécommunication, a vendu des téléphones à tout le monde, et, pour continuer à vendre, a commencé à pousser le concept de l’Internet des objets. De ce côté-là, les écrans disparaissent en grande majorité. L’écran devient secondaire, moins accaparant. C’est l’idée de ne plus être confinés à un cubicule et d’arriver à faire les mêmes tâches qu’avant, plus librement.

E. C. : Des projets actuels autres que les vôtres allant dans le sens d’une invisibilisation des écrans vous ont-ils marqué et pourquoi ?

C. C. : Selon moi, beaucoup de projets vont dans le sens d’une invisibilisation des écrans. Il existe des «  meetups  » à Montréal qui portent sur les braincomputer interfaces. On parle par exemple de contrôler un drône à partir d’un bandeau posé sur la tête. Ici on supprime le concept d’écran. J’ai vu ce type d’objet dans le domaine du divertissement – la technologie permettait de contrôler une caméra à distance –, mais il est très certain que le domaine militaire y a déjà pensé. La question qui se pose est celle des usages et qui les utilise.

J’ai également été marqué par l’immersion virtuelle développée par certaines entreprises de jeu vidéo. Pour avoir essayé quelques technologies, il y a beaucoup d’innovations impressionnantes qui se font dans ce domaine. J’ai testé par exemple une application de montagnes russes qui donne vraiment l’impression d’être dans un manège, puisque l’immersion est à 360 °. J’ai aussi essayé des lunettes de réalité augmentée d’une entreprise de recherche et développement : la pièce dans laquelle je me trouvais se «  changeait  » en temple grec antique. Les images se superposaient avec un effet très réaliste, modifiant la perception du lieu. Je me suis bien sûr intéressé aux lunettes Google dans le cadre d’une veille informatique pour mon entreprise. Je me renseignais afin de savoir si mon entreprise pouvait sortir des applications qui pourraient éventuellement être utilisées sur des technologies de ce type. Mais je me suis vite rendu compte qu’à part la curiosité que cette technologie a suscitée, celle-ci n’a pas été largement adoptée par la population. On peut se questionner : veut-on réellement ce type de technologie ? J’imagine que c’est la protection de la vie privée qui a primé. Il y a eu un rejet au niveau sociopolitique. Nous allons voir avec le temps, au niveau du lobby, s’ils vont réussir à pousser le projet plus loin. Toutefois, d’un point de vue technique, l’appareil répond quand même à ses objectifs et comble des besoins. À vrai dire, il y a beaucoup d’appareils dans le même genre qui se font (ce qu’on appelle en anglais les technologies wearable). On compte environ une centaine de lunettes dans le même genre. En vérité, à chaque fois qu’une nouvelle technologie sort, je le sais presque en temps réel sur ma montre connectée [rires].

E. C. : Parmi vos projets, quelles technologies se rapprochent le plus d’une invisibilisation des écrans ? Pourriez-vous nous en décrire un ou deux ?

C. C. : Je pense à notre projet qui s’appelle Luminari qui repose sur l’idée d’un tuteur personnel virtuel (virtual personal tutor). L’idée vient d’un client, un militaire à la retraite, qui avait au cours de sa carrière beaucoup de documents à lire, des piles et des piles de rapports pour lesquelles il aurait aimé avoir un système auquel il aurait pu poser vocalement des questions et recevoir des réponses et des résumés, à la manière d’un dialogue. C’est un monsieur qui a à cœur l’éducation et il voyait aussi un tel projet comme un support pouvant servir à l’apprentissage. L’idée est d’avoir un accès constant à des informations. Les questions sont posées à l’oral et les réponses sont données également vocalement. Le but est d’entamer un dialogue et de pouvoir le faire loin d’un ordinateur, avec des microphones et des hautparleurs connectés à Internet qui seraient, par exemple, placés dans l’environnement. Pour résumer, la lecture est remplacée par l’écoute et l’écriture par la parole : le champ visuel est dégagé pour laisser place au champ auditif. Cette technologie peut-être installée dans le lieu de travail, et cela consiste à pouvoir interroger un tuteur virtuel sur les sujets que l’utilisateur a créés à l’avance. Il est possible de choisir le contenu et tout dépend du contexte : si c’est quelqu’un qui est en finance, il peut interroger ses dossiers. Cela peut être une utilisation professionnelle comme «  domotique  », à la maison. Quelqu’un par exemple qui cuisine, au lieu de consulter son livre de recette, peut interroger le système. On peut penser aussi à un usage dans une voiture pour avoir accès vocalement au manuel d’utilisation du véhicule en posant des questions. Est-ce que cela marche bien ? Oui, mais pas parfaitement. Nous sommes dans une deuxième vague de développement. Nous avons commencé avec l’apprentissage machine (machine learning) pour ensuite avoir accès au deep learning. Avec ce travail, nous sommes plus dans la recherche que dans du développement de produit. Le deep learning permet un apprentissage sans supervision d’un système. C’est beaucoup utilisé dans la reconnaissance visuelle. On développe des «  réseaux neuronaux  » virtuels dont les algorithmes créent d’autres algorithmes. On sait que cela fonctionne, mais on ne sait pas exactement comment le système y est arrivé. C’est une technologie qui soulève certaines craintes, car il pourrait y avoir une certaine perte de contrôle.

E. C. : Selon vos termes, quels sont les intérêts à invisibiliser les écrans ? Les désavantages ?

C. C. : En ce qui concerne les désavantages, on met à mal la notion de la vie privée, car tout ce que l’on fait est enregistré et compilé avec l’informatique ubiquitaire et peut être analysé. Quelqu’un qui aurait accès à la montre connectée que je porte au poignet pourrait savoir à quel moment j’ai été stressé dans la journée en accédant aux données archivées relatives à mon rythme cardiaque. Ma montre peut prendre mon rythme cardiaque grâce à une application qui pourrait très bien être activée à mon insu par un tiers. On perd la vision de ce qui est enregistré et de ce qui ne l’est pas et surtout on ne sait plus trop qui a accès à quoi. D’autant plus qu’il n’y a pas forcément de contrat à accepter avant utilisation. On ne sait plus très bien ce qui est fait avec ce genre de données ; celles-ci peuvent par exemple être accessibles sur le marché et une entreprise peut avoir avantage à acheter ces données-là. Mes données personnelles deviennent une marchandise en soi. Le problème se situe au niveau des réglementations : dans le domaine technologique, la réglementation ne suit pas. Il faut souvent plusieurs années avant qu’une technologie soit réglementée : c’est donc pour moi un désavantage majeur de ce que j’entends par invisibilisation des écrans.

Également, on peut dire que n’importe quel progrès technologique s’accompagne toujours d’une communauté qui a un avantage sur une autre : celle qui s’est adaptée et l’autre qui ne s’est pas adaptée ou qui refuse de s’adapter. Avec l’ordinateur, on parle désormais d’«  analphabétisation  » informatique. L’invisibilité des écrans et le développement de l’intelligence artificielle ne peuvent qu’accentuer les disparités entre les communautés. Je pense qu’il y a beaucoup de réglementations qui devraient être mises en place. Cependant, d’un point de vue strictement technique, je vois beaucoup d’avantages et peu de désavantages.

E. C. : Pensez-vous que les écrans et interfaces visuelles sont amenés à disparaître pour être remplacés par d’autres technologies, vocales par exemple ?

C. C. : Je ne crois pas que les interfaces visuelles puissent disparaître. Il y a plusieurs manières d’interagir avec les technologies et certaines personnes peuvent être plus visuelles, d’autres plus auditives. Selon moi, le côté vocal vient équilibrer les choses. Quelqu’un qui ne supporte pas de rester assis devant un écran peut avoir accès différemment aux informations. Il y a plusieurs choses qu’on ne peut pas faire sans écran et sans voir ce que l’on fait. Par exemple un architecte a besoin du visuel. Il pourrait certes utiliser une table hologramme, mais on reste dans la dimension visuelle. Je ne pense pas que les écrans sont amenés à disparaître, mais peut-être que les formes vont changer : les technologies holographiques, la réalité augmentée en sont quelques exemples.

E. C. : La science-fiction présente un certain nombre de nouveaux dispositifs qui viennent modifier radicalement l’expérience des individus ainsi que la société, comme par exemple des interfaces cérébrales numériques. Ces innovations fictionnelles vous inspirent-elles dans vos projets ?

C. C. : Oui, nous nous inspirons beaucoup de la science-fiction. Nous répondons d’ailleurs à des appels de projets qui s’inscrivent dans des branches particulières qui questionnent les possibilités de réalisation d’une technologie. Par exemple, l’un de nos clients nous a demandé de créer un dispositif qui fonctionnerait exactement comme l’intelligence artificielle J.A.R.V.I.S. (une espèce d’assistant virtuel) du film Iron Man. La seule réponse que l’on puisse offrir à une telle requête est qu’un projet de ce type est difficilement réalisable, même avec plusieurs millions de dollars. Par ailleurs, le nom de notre entreprise, S3R3NITY, est emprunté à la série télévisée Firefly (Joss Whedon, 2002). Serenity est le nom du vaisseau spatial dans la série. L’auteur de SF Neal Stephenson nous inspire entre autres pour l’intelligence artificielle. Certains de ses romans – Le Samouraï virtuel, L’âge de diamant, Cryptonomicon – nous inspirent énormément. En fait, l’entreprise a été lancée par moi et mon frère qui avons baigné dans la culture cyberpunk. Mon autre associé joue à des jeux de rôle de type SF. Quand on commence un projet, c’est donc dans l’imaginaire de la SF que l’on va puiser.

Pour tout vous dire, quand nous rencontrons des clients, ceuxlà s’attendent souvent à ce qu’on arrive avec des ordinateurs et des résultats, mais on arrive avec un gros rouleau de papier et des marqueurs. On commence un brainstorming tout en évitant de perdre le client dans un langage trop technique. Nous poussons ce dernier à puiser dans son imaginaire afin de nous transmettre sa vision la plus folle, la plus extravagante de son projet, sans aborder la faisabilité du projet. Par la suite, en fonction du budget et des technologies existantes, nous regardons ce qu’il est possible de créer en se rapprochant le plus de cet idéal. L’un de nos projets, Luminari, est parti de l’idée de l’un de nos clients, qui rêvait quand il était jeune de pouvoir parler avec des personnages historiques. Ça relevait de la pure science-fiction. On s’est rendu compte que si l’on mettait dans le système toutes les répliques de théâtre d’un personnage historique, on pourrait essayer de reproduire des personnalités. C’est un autre volet du projet qui vient vraiment de la SF. En associant ce projet avec des compagnies de jeux vidéo qui travaillent avec l’immersion, de la réalité virtuelle ou encore des hologrammes, on pourrait voir arriver des personnages en hologramme et pouvoir interagir avec dans des musées. Les technologies sont là, c’est quelque chose qui est possible.

E. C. : En tant qu’entrepreneur, comment pensez-vous votre rôle d’innovateur à l’égard de la société ?

C. C. : À l’intérieur de l’entreprise, on s’est donné un code éthique. À partir de là, nous avons des discussions avec nos associés du type : estce que nous sommes partants pour développer tel type de technologie et pour quelles raisons ? Par exemple, il y a peu, une compagnie de sécurité d’Afrique du Sud nous a contactés afin de créer un programme de reconnaissance faciale, qui sache reconnaître – je reprends leurs propres critères – si l’individu a la peau blanche, noire ou «  autre  ». Cette technologie devait servir à surveiller les entrées de gated community (résidences fermées) en Afrique du Sud. En clair, ils nous demandaient de leur fournir un système d’intelligence artificielle qui serait raciste à sa manière, un système de discrimination. Nous n’avons jamais donné suite à cela et nous étions très choqués, d’autant plus qu’il y a eu un appel d’offres sur le marché et qu’une compagnie a très certainement pris ce contrat. Il n’y a aucune réglementation qui empêche la réalisation de ce type de projet et j’ai rarement vu des compagnies de développement de technologies se faire poursuivre pour avoir développé quelque chose d’illégal dans ce genre.

En fait, une question qui me revient tout le temps c’est l’acceptabilité d’un projet : qu’est-ce qui est acceptable et qu’est-ce qui ne l’est pas ?

Pour chaque technologie que l’on souhaite développer, on se demande ce que ça implique. Si le projet implique une utilisation de la technologie qui peut avoir un trop grand impact négatif sur la vie des gens, nous refusons de le développer. C’est un questionnement qui est toujours présent. Nous avons une responsabilité, mais celle-ci n’est pas nécessairement assumée par tous les ingénieurs et les concepteurs, surtout quand l’appât du gain est présent. Beaucoup d’ingénieurs, si tu leur donnes un montant d’argent, ne vont pas réfléchir à ça. Il y a peu de place à la réflexion et beaucoup de laisser-aller. De plus, la réflexion est très dogmatique, et le développement technologique est très idéalisé dans le sens où pour certaines personnes la technologie n’est qu’amélioration et qu’elle va changer le monde pour le mieux. En fait, très peu de personnes ont la formation pour avoir une réflexion sociologique sur les impacts à long terme. Des ingénieurs spécialisés dans un domaine ne vont pas nécessairement se questionner, ou alors, ils vont aborder ces questions superficiellement souvent en suivant le discours mainstream qui reprend beaucoup d’idées préconçues. À l’inverse, les chercheurs qui se posent ces questions-là ont très peu de contact avec l’industrie des technologies. Il y a une rupture, ils ne dialoguent pas entre eux. Dans notre entreprise, on se questionne sur les impacts, peut-être parce qu’on a chacun eu un parcours marginal. C’est d’ailleurs surprenant qu’on ait créé une entreprise [rires]. Mon associé Philippe parle justement de monter très prochainement un comité d’éthique sur l’intelligence artificielle et les différents secteurs des nouvelles technologies. Il s’agirait de rassembler les gens qui travaillent chacun dans leur coin pour qu’il y ait des discussions ainsi qu’une confrontation des différents points de vue. Je ne sais pas ce qui pourrait en sortir, mais au moins il y aurait un lieu commun pour dialoguer.

Également, l’une des difficultés pour nous, c’est que le marché change constamment. Le développement peut prendre un sens puis bifurquer, il faut réagir vite. En l’espace de trois ans, par exemple, une sous-branche de l’apprentissage machine (machine learning), à savoir l’apprentissage profond (deep learning), est passée d’applications plutôt théoriques et expérimentales à des applications commerciales. Il s’agit notamment de projets portant sur la reconnaissance visuelle et faciale, de même que sur le traitement informatique du langage naturel. Il y a trois ans, je n’aurais pas pu imaginer que nous aurions de telles capacités en intelligence artificielle. Aujourd’hui, on peut traiter des données massives en quelques clics en une nuit dans son sous-sol, alors qu’en 2012, il fallait 16 000 ordinateurs pour que Google arrive au même résultat.

E. C. : Certains projets actuellement en élaboration ont pour but d’implanter des nanopuces informatiques directement dans le cerveau. Par exemple, MylifeBit de Microsoft constitue un projet de lifelogging et de datafication que les concepteurs prévoient de greffer dans le cerveau dans quelques années. Il n’y aurait plus besoin d’écrans extérieurs, les données pourraient être gérées par une interface cérébrale numérique. En tant que spécialiste des nouvelles technologies, que pensez-vous d’un tel projet ?

C. C. : Je m’interroge sur la nécessité de ce type de technologie : à qui est-ce que ça va profiter ? Si quelqu’un veut enregistrer sa vie au grand complet, elle a bien le droit, mais ça peut soulever toutes sortes de problèmes, notamment si tu acceptes un emploi, mais que tu as l’obligation d’utiliser ce système-là. Est-ce que le fait de refuser ce type de technologie serait pénalisant pour la personne ? Un employeur pourrait-il avoir accès 24 h sur 24 à ce que tu fais ? Et qui aurait accès aux données par la suite ? Si les données sont là, personne ne peut garantir la sécurisation des données. C’est un grand risque. Est-ce que moi je prendrai ? Je n’en vois pas l’intérêt pour le moment. Est-ce que c’est quelque chose qui relève du choix personnel ou bien qui relève du choix de société ? C’est une grande question. Si c’est un choix de société, qui trancherait et comment ? Si c’est un choix individuel, qu’est-ce que ça implique pour les autres ? Quant à mettre une technologie dans son cerveau, pour moi c’est une progression de ce qui est déjà là. Par exemple, les lunettes que vous portez, il fut un temps où les personnes n’en portaient pas en permanence.

E. C. : En revanche, les lunettes, il y a toujours moyen de les enlever. Vous convenez avec moi qu’il y a une grande différence entre des lunettes et une technologie de lifelogging implantée dans le cerveau ? De plus, il y a une différence entre, d’une part, une technique issue du domaine médical (modifier la vision pour la ramener à une norme) et une modification du corps au-delà de la norme. On entre dans le domaine que Jérôme Goffette appelle le domaine anthropotechnique. Une anthropotechnie vient modifier plus ou moins profondément le corps pour des raisons extramédicales, hors de tout but thérapeutique. Qu’en pensez-vous ?

C. C. : Est-ce que ça se rapproche du tatouage, c’est-à-dire quelque chose que tu as en permanence sur toi ? Certaines personnes disent qu’elles ne voudraient pas avoir quelque chose en permanence sur elles, mais on voit que d’autres ne sont pas dérangées par cela. Ensuite, avoir une technologie sur laquelle on n’a pas le contrôle, implantée dans notre corps, j’avoue que je ne sais pas. Il faudrait que je me trouve face à la technologie pour me prononcer plus objectivement.

En imaginant ce qu’une telle technologie pourrait être, j’y trouve à la fois du merveilleux et du terrifiant. Du merveilleux, au sens individuel de ce que cela implique : qui n’aimerait pas être capable de voir dans le noir ou de mémoriser un livre au complet ? Mais du terrifiant, car selon moi les dérapages possibles sont beaucoup plus grands que les bénéfices que l’on peut en tirer. Je pense en particulier à une surveillance abusive, à une perte de contrôle sur notre corps, et surtout à une accessibilité à ce type de technologie qui serait restreinte à une élite. Je doute de la sagesse collective face à ces possibilités.

En somme, à chaque fois que je suis confronté à une nouvelle technologie, j’essaie d’imaginer la pire des situations et la meilleure des situations qu’elle peut engendrer. Il s’agit de se demander si le pire est acceptable. Et si je trouve que ce n’est pas le cas, le projet n’en vaut pas la peine.

E. C. : Plusieurs thèmes peuvent être rattachés aux technologies d’invisibilisation et de miniaturisation des écrans tels que la surveillance généralisée, la prédiction des comportements ou encore le transhumanisme. Ces thèmes vous interpellent-ils ?

C. C. : Ces trois sujets entrent tout à fait en ligne de compte dans ma réflexion. La prédiction des comportements me fait penser à la firme Recorded Future financée par l’armée américaine et par la CIA qui a pour but de «  prédire l’avenir  » et d’analyser la «  menace en temps réel  ». Quand tu penses au deep learning, c’est-à-dire l’apprentissage des machines sans supervision, et que tu croises ça avec des technologies de prédiction, ça pose de nombreuses questions : dans quelles mains ces technologies sont tombées, qui va les utiliser, comment et dans quel but ? Il existe aussi la société Palantir qui a été développée par des personnes travaillant dans la branche antifraude de PayPal pour des agences fédérales de surveillance américaines. Leur système d’analyse de données et de prédiction de comportements sert aujourd’hui aux renseignements généraux américains, mais aussi à des entreprises. En fait, ce type de système peut servir autant à l’urbanisme qu’à l’armée. On entend peu parler de ce type d’entreprises, mais les technologies de prédiction de comportements constituent un gros marché.

Cependant, est-ce qu’il faut accorder une telle foi, voire une croyance religieuse à la technologie ? C’est là que le transhumanisme prend place. La technologie peut soi-disant prédire le futur, du moins, c’est ce que certaines entreprises prétendent. Elles vendent leurs services d’analyse de données massives aux agences de renseignement et de sécurité pour prédire des événements, un peu comme des astrologues d’un nouveau genre. L’idée de Singularité technologique de Raymond Kurzweil, promettant l’avènement d’une intelligence artificielle forte, constitue elle-même une prédiction du futur, car ce n’est qu’une possibilité, mais certains sont convaincus que c’est un événement inévitable. C’est là qu’on tombe dans la croyance. Si tu crées un futur tellement prévisible, on arrive à ce qu’on appelle une prophétie autoréalisatrice. Le transhumanisme, je le vois comme un nouveau type de religion. Il faut avoir un regard critique vis-à-vis des technologies et quand je parlais de l’idéalisation de la technologie, là je pense que c’est le summum. Les transhumanistes véhiculent la croyance que la technologie est la solution à tout. Surtout, c’est une élite composée d’individus qui ont les moyens, notamment financiers, de modifier technologiquement leur propre corps. Est-ce que c’est quelque chose de bon ou de mauvais ? Lorsque la possibilité de se modifier est là, est-ce qu’il y a un moyen de limiter le phénomène ? En plus, on sait que le transhumanisme est relié au libertarianisme. Lorsqu’on conjugue élitisme et individualisme, les dangers d’abus sont très réels.

J’ai d’ailleurs eu un problème éthique à moment donné : nous avons failli présenter notre projet Luminari à l’Université de la Singularité, qui est dirigée par le gourou du transhumanisme, Kurzweil, mais j’avais des réticences à aller y présenter ce projet, car le transhumanisme est loin de ma vision des choses. Coup de chance, notre projet n’était pas prêt à temps pour l’événement et la présentation n’a donc jamais eu lieu.

E. C. : Pour conclure, quelles valeurs défendez-vous en tant qu’entrepreneurs ?

C. C. : Comme je l’ai mentionné plus tôt, assumer une responsabilité sociale face aux technologies que nous développons est une valeur importante chez S3R3NITY. Aussi, nous faisons une grande place à la discussion, à l’argumentation ainsi qu’aux différents points de vue. Il nous arrive de changer d’idée lorsqu’on nous présente les bons arguments. Une autre valeur que je partage avec mes associés concerne la prise de décision par consensus, plutôt que par vote ou de manière hiérarchique. Cela implique que les gens doivent se sentir libres d’exprimer leurs idées et leurs émotions au travail, sans être jugés. Le processus décisionnel est plus long, mais lorsque tout le monde est d’accord et que tous les aspects d’un projet ont été discutés, le travail d’équipe devient vraiment motivant. Le milieu de travail doit refléter cet esprit. Notre entreprise nous a aussi menés à travailler avec des personnes provenant de différentes régions de la planète. Qu’il soit question de l’Ukraine, de la Russie, du Pakistan, de l’Inde, de l’Angleterre, des États-Unis, du Brésil et de la France, pour ne nommer que ceux-ci, il est important pour nous d’être ouverts aux différentes cultures. Nous valorisons cette ouverture culturelle. Voilà qui résume bien le noyau des valeurs que nous défendons.