Eli Pariser, The filter bubble, Penguin Books, 2011

Nolwenn Maudet 

Publié en ligne le 12 janvier 2018

Sommaire

Texte intégral

Eli Pariser est le président de l’association politique MoveOn.org et le co-fondateur de l’ONG Avaaz.org, plate-forme de lobbying citoyen. Dans The filter bubble, ouvrage non traduit en français, il analyse le phénomène de la personnalisation du web. Il commence sa réflexion avec le concept de pertinence résumé par une citation de Mark Zuckerberg : « un écureuil mourant dans votre jardin peut être plus pertinent pour vous maintenant que des gens qui meurent en Afrique ». Pariser fait débuter le phénomène le 4 décembre 2009 lorsque Google annonce la mise en place du principe de recherche personnalisée pour ses utilisateurs, dans l’indifférence quasi générale. Mais le plus célèbre des moteurs de recherche n’a pas l’apanage de cette pratique : de Youtube à Facebook en passant par Yahoo News, ce système s’est rapidement imposé sur le web. Or, pour l’auteur, il s’agit d’un véritable changement de paradigme. Ce mouvement de filtrage de l’information par les algorithmes de personnalisation est ce que Pariser nomme la filter bubble, la bulle filtrante. Outre son fonctionnement, ce sont les impacts qui intéressent l’auteur : de l’économie des contenus jusqu’aux philosophies qu’elle sous-tend. Pariser se concentre notamment sur les effets potentiellement délétères que peut avoir cette bulle filtrante sur la démocratie, l’identité et la façon de penser. Aussi l’ouvrage s’appuie sur de très nombreux entretiens auprès d’influentes personnalités du web mais également sur des travaux de recherche en informatique et en psychologie.

Pariser analyse trois dynamiques méconnues et problématiques créées par la bulle filtrante. La première, c’est que chaque utilisateur est seul dans sa propre bulle. La deuxième, c’est que la bulle est invisible. Si l’utilisateur peut connaître la ligne éditoriale de son journal, il ignore en revanche pourquoi et comment Google décide de lui montrer ce qu’il lui montre et il ne peut donc pas voir comment et à quel point cela est biaisé. Enfin, la troisième (et c’est le point le plus critique pour Eli Pariser), c’est que les utilisateurs ne choisissent pas d’entrer dans la bulle et il est aujourd’hui de plus en plus difficile de lui échapper.

Pourtant, la bulle filtrante s’impose aujourd’hui comme une évidence. Dans un contexte de surcharge informationnelle, l’aide proposée par les algorithmes de personnalisation est très appréciable. L’auteur en donne deux raisons principales : d’un côté, le modèle économique d’Internet fondé sur la publicité ciblée et, de l’autre, la course à la pertinence des informations. Or, pour atteindre ces deux objectifs, le monde numérique se transforme peu à peu en une machine destinée à solliciter et analyser les données personnelles. Un système qui, selon Eli Pariser, remettrait en question les différentes utopies nées du développement d’Internet.

Une bulle qui enferme les individus

On a en effet longtemps cru qu’Internet permettrait à tous les individus d’être égaux dans leur rapport à l’information, les ouvrirait sur le monde en abolissant les distances et en rendant les informations accessibles à tous. Or, le principe même de la personnalisation va à l’encontre de cette utopie. En effet, en opérant un filtrage, les algorithmes de personnalisation modifient la représentation du monde qu’a l’utilisateur. En choisissant de présenter seulement certaines informations, celles qui « conviennent le mieux » au détriment des autres, ils peuvent affecter de nombreux processus cognitifs. Pariser prend ainsi pour exemple le renforcement du biais de confirmation, bien connu des psychologues. Il s’agit de la tendance qu’ont les individus à privilégier et accorder plus de poids aux informations qui confirment leurs idées préconçues. C’est justement l’action de ces algorithmes. Au lieu d’ouvrir sur le monde, ils renferment sur les opinions et les gens qui leur ressemblent. Ils peuvent également gêner la créativité et l’apprentissage puisque ces deux notions supposent la confrontation avec ce que l’on ne connaît pas déjà. Eli Pariser s’inquiète donc d’une généralisation de ces mécanismes et pointe une menace pour la vie démocratique, celle-ci nécessitant au contraire de pouvoir envisager les choses du point de vue de l’autre. Il faudrait donc pouvoir éviter que la bulle filtrante enferme les individus dans des visions isolées.

Une bulle qui façonne l’identité

En parallèle de la personnalisation, on observe un mouvement d’homogénéisation de l’identité sur Internet. Du point de vue des algorithmes, tels qu’ils sont actuellement conçus, chaque individu ne possède qu’une seule identité qui s’exprime de manière cohérente à travers nos actions. L’utilisateur est alors contraint de faire confiance aux entreprises qui prétendent exprimer et synthétiser correctement ce qu’il veut vraiment. Leurs algorithmes de personnalisation fonctionnent en trois étapes : d’abord, ils supposent les préférences de l’utilisateur à travers les données récoltées ; ensuite, ils proposent les contenus et services qu’ils estiment convenir ; enfin, ils ajustent en fonction des actions opérées par l’utilisateur après-coup (comme le clic) pour obtenir ce qui convient le mieux. Ainsi, notre identité présumée façonne nos médias. Mais ce n’est pas aussi simple car ces derniers façonnent également notre identité. Là encore, Pariser illustre son propos à l’aide d’un autre biais psychologique connu : le biais du présent. Il s’agit de la différence qui existe entre ce à quoi un individu aspire et ce qu’il fait réellement. En ne faisant pas la différence entre les impulsions d’un individu et ses véritables intérêts, les filtres tendent à favoriser les contenus qui demandent moins d’efforts. Au lieu d’un régime d’informations variées, ils favorisent la « malbouffe informationnelle ».

Les algorithmes au pouvoir

Dernier point et non des moindres, Pariser met à mal le mythe d’Internet comme outil de « l’empowerment » de l’individu, en raison de la « désintermédiation » du rapport à l’information qu’il permet. Or les intermédiaires n’ont pas disparu, au contraire, ils se sont déplacés et sont devenus invisibles mais n’en sont pas moins puissants. Et le pouvoir, dans le futur, sera peut-être davantage entre les mains des algorithmes que des humains. Au lieu de décentraliser le pouvoir, Internet serait en train de contribuer à le recentraliser autour de ceux qui maîtrisent les flux d’informations et les algorithmes. D’autant plus que ce système incite largement à la passivité, ce qui va à l’encontre de l’image classique du média Internet, qui confèrerait de l’autonomie à ses utilisateurs, ces derniers étant rendus de par leurs capacités à créer des contenus et à naviguer en leur sein, contenus parfois découverts par sérendipité, un schéma opposé à celui de la télévision par exemple. Tout cela nous conduit à nous interroger sur la liberté réelle qui est la nôtre à l’ère de la personnalisation. Car peut-on véritablement parler de choix, lorsque ces choix sont faits pour nous par des algorithmes ?

Que peut-on faire face à ces constats ?

Bien que l’ensemble de l’analyse soit très pessimiste, Eli Pariser propose des solutions concrètes et pertinentes pour remédier à la situation. Car ce qui se joue aujourd’hui n’est pas inédit. Eli Pariser montre que le journalisme y a déjà été confronté, au début du XXe siècle. Les journalistes ont dû peu à peu prendre conscience de leur pouvoir et développer un rapport à l’information qui soit au service de l’intérêt général. Pariser demande avec raison aux concepteurs de prendre conscience de l’importance de leurs choix lors de la conception d’algorithmes et d’outils.

Il propose, par exemple, que les algorithmes prennent en compte leurs propres défauts et, comme dans une démarche scientifique, considère la réfutabilité de leurs résultats. À savoir qu’un type de contenu ne doit pas systématiquement occulter les autres parce qu’il a été préféré auparavant, les préférences humaines n’étant pas « linéaires ». Pariser appelle également à l’instauration d’une transparence du système qui fait actuellement cruellement défaut. Chacun pourrait alors comprendre quels sont les paramètres choisis pour la personnalisation et de quelle manière ils sont utilisés. Il souhaite également que la personnalisation ne soit pas obligatoire mais puisse être contrôlée ou même désactivée par l’utilisateur.

Une prospective salutaire

Moins de dix ans se sont écoulés depuis les prémices de la bulle filtrante et la prise de recul reste difficile, l’auteur en est conscient. D’autant plus que ces algorithmes ne sont pas figés mais au contraire constamment revus par leurs différents concepteurs. L’analyse d’Eli Pariser oscille donc entre le phénomène tel qu’il impacte les pratiques aujourd’hui et une vision plus prospectiviste sur les conséquences à long terme de la généralisation de ces mécanismes, sur la vie démocratique et les modes de pensée. Cependant, la plupart des arguments avancés sont issus de recherches scientifiques faisant consensus comme pour les biais psychologiques mis en jeu. Des arguments pertinents qui amènent le lecteur à jeter un regard neuf sur ce phénomène passé paradoxalement inaperçu alors qu’il façonne déjà de très nombreuses pratiques. Vous ne regarderez probablement plus les résultats de vos requêtes sur Google de la même manière. C’est un premier pas.