Entretiens

Michel Lavigne

Avec Romain Landsberg 
et Frédérique Pain 

Publié en ligne le 26 janvier 2018

Texte intégral

Michel Lavigne : Quelles sont les plateformes de destination pour lesquelles vous travaillez (smartphones, tablettes, autres types d’objets numériques, systèmes Android, iOs…) ? Quels types d’application vous sont-ils demandés, pour quelles sortes d’usages ?

Romain Landsberg : Aujourd’hui Backelite a un large spectre d’intervention. Nous travaillons tout naturellement sur iOS, Android, WindowsPhone, Blackberry, Bada… Nous travaillons aussi en avance de phase sur les différentes plateformes : des télés connectées ainsi que sur le futur produit Windows 8. Nous travaillons essentiellement sur des projets BtoBtoC.

Frédérique Pain : Nous travaillons sur tout type de plateforme. Le choix d’un type de plateforme dépend de la maturité de la technologie dont nous souhaitons tester les applications d’usage, mais aussi des conditions de l’expérimentation ; contexte de mobilité ou non par exemple. Nous sommes une équipe de chercheurs pluridisciplinaire qui réalise des prototypes d’applications dans l’objectif de rendre tangibles les innovations issues des technologies inventées au sein du centre de recherche d’Alcatel Lucent, les Bell Labs. Nous concevons les applications qui permettent aujourd’hui d’identifier les usages qui feront sens dans le futur pour les utilisateurs et nos clients. Les expériences d’usages autour du tout connecté, des smart cities, de l’environnement interactif, du tout gestuel, des big datas et de l’immersion à distance sont rendues tangibles sous forme de prototype et testés dans notre User Lab ou bien in situ directement.

M. L. : Les capacités techniques des nouveaux terminaux mobiles sont-elles mises à contribution (interfaces multi-touch, accéléromètre…) ? Les applications pour lesquelles vous travaillez requièrent-elles la géolocalisation ? Pour quels types d’usages ?

R. L. : Nous proposons à nos clients les dernières innovations techniques offertes par les derniers terminaux. Mais nous les proposons uniquement si elles ont un sens avec l’ADN de nos clients et qu’elles répondent vraiment à une offre de service riche. Par exemple, dans le cadre de notre collaboration avec vente-privée.com nous proposons les points de retraits les plus proches de façon naturelle. L’utilisation du multitouch est utilisée par petites touches et doit répondre à une gestuelle naturelle de navigation. Pour France24, par exemple, nous avons géolocalisé l’information sur une carte à l’échelle mondiale. Pour accéder à une zone précise du monde nous proposons le « pinch to zoom » qui est un geste acquis des utilisateurs iOS.

F. P. : Les interfaces multi-touch et l’accéléromètre sont sollicités pour nous permettre de tester des modes d’interaction fluides et dits « naturels » dans le cadre par exemple de modes de navigation innovants. Nous avons conçu et testé des applications innovantes sur mobiles en collaboration avec Ubimedia, notre labo commun avec l’Institut Telecom. Nous avons intégré ces interactions dans une application de livre social (support iPad et aussi Android) où les annotations sont partagées avec mon réseau social via une simple gestuelle. L’interaction par le geste est un axe évident de recherche pour nous. Nous utilisons aussi la Kinect comme support rapide de prototypage. Quant à la géolocalisation elle fait maintenant partie intégrante de nos scenarios d’usage. Elle permet en particulier d’observer les comportements d’usage à partir de scenarios très riches mêlant position physique, données partagées et contexte de partage.

M. L. : En quoi la prise en compte mobilité modifie-t-elle la conception multimédia par rapport au développement d’applications classiques ?

R. L. : La première grande modification est la prise en compte du principe de possession du mobile comparée à l’utilisation d’un ordinateur souvent partagé par les membres d’une famille. Le mobile permet de rassembler le « qui » et le « où ». Un service mobile se doit d’offrir de l’information dès le premier écran. Pour cela il faut analyser en amont les contenus que possède le client. Ensuite nous devons faire un grand travail de hiérarchisation pour ne garder que l’ADN de notre client.

F. P. : À titre d’exemple le contexte de mobilité suppose de prendre en compte le changement de support de visualisation pendant le parcours de l’utilisateur. Il faut pouvoir proposer à l’utilisateur une expérience continue d’accès à son service. Il faut donc identifier les touch points d’usage et les devices associés qui pourront contribuer à créer cette expérience d’usage. On pourra ainsi commencer une conversation video temps réel sur son ordinateur à la maison et souhaiter continuer la discussion avec son interlocuteur alors que nous partons au travail ou voulons transférer la discussion à une autre personne sans interruption.

M. L. : Sur le plan technique, quels sont les outils logiciels utilisés pour la conception ? De nouveaux outils de développement sont-ils nécessaires (logiciels, langages…) ? La mobilité entraîne-t-elle une complexification du développement ?

R. L. : Après avoir longtemps travaillé dans l’univers du web sédentaire, j’ai du réinventer mes méthodologies de travail et de conception. Les mobiles proposent de nombreuses caractéristiques physiques et techniques. Mais en parallèle nous devons proposer des interfaces « sur mesure ». Pour cela nous pensons flexible ou, pour reprendre un terme à la mode, nous réfléchissons responsive pour couvrir le large spectre des différents écrans. Nous travaillons essentiellement avec Photoshop et des crayons, ces derniers servant à se faire une idée globale de l’ergonomie du service et créer le squelette de l’interface. Ensuite nous amenons la chair du service en ajoutant les Little Big Details qui vont rendre le service unique. En termes de développement, Backelite dispose de pôles de développement pour chaque OS natif et un pôle browsing pour les sites mobiles et les applications hybrides. Nous nous appuyons sur le Framework WOPE que nous développons en interne. De nombreux clients s’appuient également sur ce Framework pour développer leurs services en interne.

Note de bas de page 1 :

Pierrick Thebault (2011). Designing for the ubiquitous computing era : towards the reinvention of everyday objects and the creation of new user experiences. International journal of design and innovation research (IJODIR) vol. 6-n° 1.

F. P. : Nous codons directement les applications sous le format requis par le device. Les accès aux APIs des apps permettent aussi d’introduire rapidement et facilement des blocs de fonctionnalités. La mobilité a effectivement complexifié le développement car il est nécessaire d’identifier par quelle plateforme vont transiter les informations. Nous avons, par exemple, développé un browser environnement qui permet via voix sur IP de rendre visibles les ombres numériques de notre environnement et d’accéder à des informations socialement partagées sur un objet grâce à la triangulation personne, lieu, objet1.

M. L. : Quels sont les nouveaux concepts en termes d’ergonomie que vous êtes amenés à mettre en œuvre ? Comment modifient-ils l’usage et l’expérience utilisateur ?

R. L. : Nous souhaitons proposer aux utilisateurs de nos réalisations une expérience simple, riche, intuitive et personnalisée. Nous avons constaté que les utilisateurs ne personnalisaient pas leurs interfaces. Notre réflexion est de transférer l’intelligence sur le device. Ainsi c’est le téléphone qui va proposer les meilleurs contenus en se basant sur le qui, le où, et l’historique de navigation.

F. P : Difficile de parler de concepts d’ergonomie, je parlerai plutôt de nouvelles approches d’ergonomie car les usages que nous testons sont très en amont du quotidien contemporain de nos potentiels utilisateurs. Nous essayons d’identifier les nouvelles affordances issues des interactions gestuelles par exemple, car il n’existe pas aujourd’hui de critères d’ergonomie pour concevoir les interactions où la gestuelle est prédominante : quel va être le geste le plus naturel pour transférer ma conversation vidéo de mon ordinateur à mon téléphone mobile, quel geste me permet d’allumer la lumière, ou d’activer l’affichage d’un écran virtuel sur ma table de salon ?

M. L. : Ces nouveaux développements sont-ils porteurs de nouveaux concepts dans l’esthétique du multimédia ? Une liberté créative reste-t-elle possible avec des écrans plus petits et des situations d’usage de plus en plus diversifiées ?

R. L. : On constate que les devices proposent des écrans de plus en plus en grands, et on peut ajouter à cela le très grand succès des tablettes dont le marché pourrait dépasser celui des ordinateurs portables d’ici quelques années. Les appareils mobiles sont également de plus en plus puissants, et ouvrent donc des perspectives créatives de plus en plus grandes. On n’oublie jamais que la star de l’application est le contenu. Mais dans le mobile, on peut parler d’un esthétisme du détail : animation, gestion des cas particuliers, actions de l’utilisateur qui vont créer de l’émotion. Par exemple la suppression d’une note dans l’application Notes d’iOS…

Note de bas de page 2 :

Ioana Cristina Ocnarescu, Jean-Baptiste Labrune, Carole Bouchard et al. (2012). An initial framework of Aesthetic Experience over Time. In Design & Emotion.

F. P : L’esthétique du multimédia est une question clé pour le designer d’interaction. Nous abordons la question par un travail très pointu de recherche en design sur l’esthétique de l’expérience2.

M. L. : Quelles sont les applications les plus surprenantes et novatrices que vous êtes amené à créer ?

R. L. : Je pense que les applications les plus innovantes que nous avons été amenés à créer sont souvent des refontes complètes de grands classiques du web. Nous avons imaginé l’interface de vente-privée.com et l’ensemble de son parcours en partant d’une page blanche en tirant au maximum parti des possibilités de la tablette et des nouveaux usages qu’elle a créés pour ses utilisateurs. Nous avons aussi repensé la banque sur tablette pour la Société générale en faisant le même exercice. L’objectif était de proposer une interface épurée et de proposer une toute nouvelle ergonomie pour faire effectuer des virements par exemple.

Note de bas de page 3 :

http://workshop.alea.net/8/quick-and-cheap-robot-kinect

F. P. : Les applications qui mixent les types de medias et d’interaction utilisateur lui permettant de vivre une expérience d’usage en temps réel, comme celles qui permettent l’interaction avec le monde environnant et les objets. Très concrètement, grâce la détection des gestes, mes mains peuvent devenir une règle pour mesurer des objets dans ma maison. Les innovations technologiques des Bell Labs nous permettent de mettre en scène des expériences de partage vidéo en temps réel avec ma communauté sociale d’un exploit sportif que je suis en train de vivre. Nous testons aussi des environnements immersifs qui permettent de se sentir proche de son équipe de travail même si elle est à 3 000 km de distance sans pour autant utiliser des représentations vidéo taille réelle de la personne. Nous explorons des pistes de représentations intermédiaires de la conversation pour en améliorer l’impact. En communication 20 % des messages passent par la voix et 80 % passent par l’expression corporelle. Nous réalisons ainsi ce que nous appelons des Crazy Mocky Ups afin de tester ce monde des possibles avec l’utilisateur, comme un robot jouet qui reproduit les gestes de mon correspondant à distance, comme un objet design physique qui me permet de frapper virtuellement à la porte, ou bien une caméra qui peut lancer des coups d’œil3.

M. L. : Dans quelles directions pensez-vous que la recherche va évoluer en la matière ? Comment imaginez-vous les interfaces et applications du futur et l’évolution de votre métier dans les années à venir ?

R. L. : Je pense que l’on va peu à peu se tourner vers le « tout écran », avec des écrans flexibles et le « tout connecté » avec la 4G et le WiFi qui se répand de plus en plus dans les lieux publics. La navigation à la voix pourrait également se démocratiser, ainsi que la visiophonie pour les échanges professionnels. On constate également l’émergence d’un design « HD », adapté pour les écrans à forte densité de pixels, comme l’écran Retina présent sur les iPhone et les iPad.

F. P. : Les nouvelles technologies de traitement des signaux vidéo, par exemple, vont transformer les lieux physiques en une véritable centrale de traitement de l’information : entre reconnaissance de geste, de visage, interaction dans l’espace, nouvelle modalité d’affichage et nouvelle possibilité de communication, tout ceci va apporter une multitude de nouveaux services. Nous avons créé des applications intégrant ces nouvelles technologies afin de tester les nouvelles expériences d’immersion. Le sujet « Big Datas » nous oblige également à redéfinir les interfaces de représentation de l’information (champ actuel de la data viz, pour data vizualisation), mais aussi les outils de conception qui sont en pleine mutation.

M. L. : En tant que créateur d’applications quelles sont les nouvelles chances/opportunités que vous voyez dans la mobilité ?

R. L. : Nous avons appris à maîtriser les interfaces tactiles avec le temps. Aujourd’hui, nous nous orientons vers le tout tactile. Nous avons de plus en plus de demandes pour créer l’ensemble des interfaces d’une marque, qui peut se décliner aussi bien sur un écran mobile de quelques centimètres à une TV HD. Le designer se doit donc d’être de plus en plus polyvalent pour répondre à des problématiques cross devices. Et nous avons également un regard gourmand vers les bornes de services que nous croisons en ville tous les jours.

F. P. : Le numérique a provoqué des mutations profondes dans les modèles économiques des entreprises du tertiaire. Nous sommes cependant loin d’imaginer les impacts dans certains secteurs industriels. Les applications de la mobilité, si on peut parler ainsi, vont accompagner les mutations économiques de secteurs comme le transport (constructeurs automobiles) ou l’aéronautique.

M. L. : Ces nouvelles applications vous semblent-elles présenter des dangers ou risques ? Lesquels ?

R. L. : J’imagine depuis longtemps un service de traduction en direct. Nous avons le speech to text. Nous avons Google Translate. Nous avons le text to speech… On peut donc reconstruire la tour de Babel ! À l’instar des générations actuelles qui n’arrivent plus à lire un article long, les générations futures prendront-elles le temps d’apprendre une autre langue ? L’homme augmenté ne sera-t-il pas trop démuni sans batterie ni réseaux ?

F. P. : Le danger reste que les usages projetés par ces nouvelles applications sont encore très éloignés du quotidien des utilisateurs et donc cantonnent ces innovations à des buzz d’estime. C’est pourquoi les travaux des chercheurs sur la représentation mentale et les décryptages des imaginaires collectifs sont un axe de recherche prioritaire et très prometteur.