« Facebook doesn’t share anything, and it is almost totally opaque to outsiders to understand how its’ algorithms work! »
C’est une crainte exprimée par beaucoup d’académiciens ces derniers temps. Il y a une décennie, tout était différent. L’opinion publique ne se formait pas en quelques clics sur un appareil tout petit mais tout puissant, connecté à des sources d’informations immenses et diversifiées.
En effet, nous n’avons même plus besoin de ces quelques clics aujourd’hui ! Selon un sondage de Pew Research Center, 61% de la fameuse Generation Y (aka digital natives) utilise Facebook comme source primaire d’actualité politique et gouvernementale. Et non, ces clics ne sont même plus nécessaires car tout est déjà soigneusement sélectionné pour nous et listé sur nos news feeds. Oui, très soigneusement !
Je t’entends dire « C’est sympa ! Ça facilite la vie ! ». Certes, les plateformes comme Facebook ou Google rendent accessible l’information et permettent même des échanges très enrichissants (souvent rares par contre). Mais l’exposition continue à des news nous fatigue aussi. En effet, personne ne pourrait nier que le fact checking est une tâche assez pénible ! Qu’est-ce qui se passe, du coup, avec l’information qu’on vient d’acquérir ? On suppose qu’elle est correcte pour autant qu’elle ne nous choque pas et/ou qu’elle vienne d’une page que l’on juge fiable. On passe donc par un filtre antérieurement construit. On range la pensée critique dans une armoire.
En soi, tout cela n’est pas vraiment nouveau. Il a toujours été difficile de garder un esprit critique envers toute nouvelle information reçue. Par contre, c’est qui est nouveau, c’est l’impact que ces immenses plateformes digitales d’information peuvent avoir. Une recherche, menée par les professeurs Robert Epstein et Ronald E. Robertson, constate que l’algorithme de recherche de Google peut déterminer le vote de plus de 20% des électeurs encore indécis sans qu’une manipulation intentionnelle ne soit impliquée dans les résultats des recherches.
Le state of the art fait peur… surtout pour trois raisons. Premièrement, ces plateformes, bien qu’elles aient plutôt un caractère de sphère publique, sont détenues par des privés, gardent leurs algorithmes très confidentiels (pour des raisons d’avantage compétitif) et ne sont en général pas transparentes sur l’utilisation de cet énorme pouvoir. Facebook a, par exemple, osé faire une expérience sur environ 150’000 de ces utilisateurs en servant délibérément du contenu négatif sur le news feed de ces personnes pendant deux ans, afin de voir si celui-ci avait un effet déprimant.
Deuxièmement, ces plateformes sont devenues de véritables champs de bataille d’influence politique. Surtout dans le cas de Facebook et de Twitter, le niveau d’engagement (mentions j’aime, commentaires, favoris, partages, etc.) d’une publication ou d’un hashtag joue un rôle primordial dans sa visibilité. Cette visibilité va logiquement générer encore plus d’engagement et il fait le buzz ! En soi, cela n’est pas mauvais non plus. Par contre, la pratique de ces réseaux sociaux nous montre que ce système de « visibilité selon popularité » peut être manipulé très facilement. Le gouvernement turc est, par exemple, soupçonné d’avoir engagé plus de 6000 personnes à plein temps pour gérer de faux comptes sociaux (et parfois même automatisés) afin de contrôler l’opinion publique sur certaines questions politiques. Les autres rumeurs de manipulation concernent les élections aux USA, le référendum du Brexit, ainsi que l’élection de Macron à la présidence.
Quant au modus operandi de ces comptes de propagande, celui-ci va de l’utilisation des publicités payantes jusqu’à la création de pages remplies de milliers de followers non-existants qui attirent une masse de monde grâce à leur popularité fictive. Il faut également mentionner qu’il est possible de s’acheter des likes et followers sur quasiment chaque réseau social. Cette popularité artificielle permet d’ailleurs une acceptation plus aisée et peu réfléchie des informations partagées. En effet, la citation de Joseph Goebbels prend forme dans ces phénomènes : « If you repeat a lie often enough, it becomes the truth.”
Pour terminer, la manière dont fonctionnent ces plateformes renforce la polarisation dans la société, surtout au niveau politique. Même si 60% des utilisateurs de Facebook n’en étaient pas au courant en 2015, le réseau social utilise depuis longtemps des algorithmes très sophistiqués pour sélectionner le contenu qui s’affiche sur notre news feed afin de « personnaliser » l’expérience. En effet, Facebook filtre et classe les publications selon leur niveau de pertinence par rapport à l’utilisateur en question. Les éléments pris en compte sont très nombreux : tout ce que l’entreprise connait sur la personne peut avoir un impact (vu que les algorithmes sont confidentiels, on n’en connait pas l’étendue), l’interaction antérieure avec des publications similaires (au niveau substantiel ou quant à la provenance) jouant un rôle incontestable. On aura alors plus tendance à voir la nouvelle photo de profil d’un ami dont on a liké et commenté la photo auparavant, qu’une connaissance avec qui on n’a jamais eu d’interaction sur le réseau.
Même si cela semble être très agréable pour une utilisation plus efficace de ce réseau (oui, tout le monde se fiche de ce que 90% de nos amis Facebook ont mangé hier soir), cela a des implications énormes pour la formation de l’opinion idéologique et politique des utilisateurs. En effet, l’algorithme fait en sorte qu’on ne soit presque plus exposé à des sujets ou idées qui ne nous intéressent pas ou auxquels on s’oppose. Avec le temps, une « île » personnelle et isolée d’information est construite. Au final, on discute uniquement avec les personnes du même avis et toute sorte d’échange avec celles et ceux qui voient les choses différemment disparait. On reste coincé dans une vision, plus précisément dans notre propre chambre d’écho.
Être conscient de ces problématiques est une première étape pour se protéger. Dès lors, il ne faut jamais oublier l’avertissement suivant :
« The Internet manipulates. When it does not, it shows us what it thinks we want to see, but not necessarily what we need to see! »
On vous conseille cette vidéo d’Eli Pariser lors du TED2011.
Bonus: How to break out of your information bubble?
Nihat Cingöz
https://www.theguardian.com/technology/2017/may/22/social-media-election-facebook-filter-bubbles
https://www.huffingtonpost.com/megan-anderle/how-facebook-and-googles-_b_8282612.html
https://www.wired.com/2016/11/filter-bubble-destroying-democracy/
https://www.cnnturk.com/turkiye/chpli-sezgin-tanrikulu-trolleri-sordu