•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Bannir les extrémistes et les conspirationnistes des réseaux sociaux, à quoi bon?

Cette pratique peut diminuer la résonance d’idées jugées dangereuses et de désinformation, mais elle s'accompagne de son lot d'inconvénients. Elle soulève aussi d’importantes questions sur la liberté d’expression et la responsabilité des réseaux sociaux.

Illustration. La bouche d'un homme est couverte d'un morceau de ruban adhésif orné des logos de YouTube, Twitter et Facebook.

Si la décision de bannir une personne ou un groupe revient au réseau social qui l’héberge –habituellement parce qu’il a contrevenu aux conditions d’utilisation– une telle décision peut aussi avoir des répercussions contre-productives.

Photo : Illustration Sophie Leclerc

Deplatforming. C’est un mot qui n’a pas encore d’équivalent français (Nouvelle fenêtre) et qui désigne le fait d’empêcher quelqu’un de s’exprimer sur une plateforme – généralement, un réseau social – ou lors d’activités publiques. C’est aussi un mot qui a rarement été employé pour parler d’une personnalité francophone. Mais son usage devient de plus en plus répandu à mesure que les cas de deplatforming se multiplient.

En France, l’essayiste d’extrême droite Alain Soral y a goûté pour la première fois, en 2017, quand Facebook a supprimé son profil (Nouvelle fenêtre) en indiquant que les organisations ou les personnes qui prêchent la haine ne sont pas autorisées sur Facebook. Sa chaîne YouTube a été bannie cet été, juste après la suppression de celle du polémiste Dieudonné, condamné à plusieurs reprises en France pour propos antisémites et également évincé de Facebook.

Au Québec, le premier cas à avoir fait grand bruit est celui d’Alexis Cossette-Trudel, figure de proue francophone de la mouvance conspirationniste QAnon et important propagateur de désinformation au sujet de la COVID-19, notamment sur sa chaîne Radio-Québec. Sa page Facebook et sa chaîne YouTube ont été supprimées à une semaine d’intervalle, le mois dernier, alors qu’elles cumulaient ensemble un peu plus de 200 000 abonnés.

Capture d'écran d'une vidéo de Radio-Québec. On y voit plusieurs images liées à l'armée américaine.

Alexis Cossette-Trudel est toujours présent sur Twitter après avoir été banni de YouTube et de Facebook.

Photo : Capture d'écran

Si la décision de bannir un individu ou un groupe revient au réseau social qui l’héberge – habituellement parce qu’il a contrevenu aux conditions d’utilisation – une telle décision peut aussi avoir des répercussions contre-productives.

Cet article a initialement été publié dans l'édition du 14 novembre de l'infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci, ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

Une question de proportions

L’un des principaux arguments en faveur du deplatforming est fort simple : il peut considérablement réduire la portée d’idées jugées dangereuses. Pour Tristan Mendès France, maître de conférence à l'Université de Paris et spécialiste des cultures numériques, bannir les contenus extrémistes, haineux et complotistes est essentiel.

Ces plateformes leur permettent d’avoir une viralité et une audience gigantesques, qui vont bien au-delà de la réalité de ce qu’ils représentent dans l’espace social. Ça permet à des groupuscules extrémistes de bénéficier de ce qu’on appelle l’accélération algorithmique et d’atteindre un auditoire qu’ils n’auraient jamais atteint s’ils avaient un simple blogue, déclare-t-il.

Les puissants algorithmes de recommandation des réseaux sociaux sont responsables d’une grande partie du contenu que consomment leurs utilisateurs. YouTube a par exemple révélé en 2018 que plus de 70 % du temps d’écoute sur sa plateforme est propulsé par son système de recommandation, et non par des recherches que les gens eux-mêmes prennent l'initiative de faire.

Ces grandes plateformes doivent prendre la responsabilité de l’accélération de la visibilité – et donc, de la toxicité – qu’elles offrent à ces promoteurs de haine ou de complotisme en ligne, estime Tristan Mendès France.

Différents logos de la plateforme YouTube sur un écran.

70 % du temps d’écoute sur YouTube est propulsé par son système de recommandation, et non par des recherches qu’initient eux-mêmes les gens.

Photo : afp via getty images / NICOLAS ASFOURI

Le débat sur le deplatforming a commencé lorsque l’extrême droite américaine a commencé à se faire censurer en 2016, parce que celle-ci croyait qu’avoir un accès débridé à toute personne qui utilise les réseaux sociaux était dans ses droits, affirme la directrice du Technology and Social Change Project de l’université Harvard, Joan Donovan.

La spécialiste en extrémisme en ligne et en désinformation soutient que des contenus haineux ou conspirationnistes amplifiés par des systèmes uniques aux médias sociaux peuvent provoquer des préjudices sociaux particulièrement importants, ce qui inclut berner le public avec de la désinformation ou le radicaliser petit à petit.

Si, en plus de tout ça, les individus ou les groupes qui profitent de cette technologie s’en servent pour faire de l’argent, il n’est plus juste question d’exprimer une opinion politique. Leur comportement est alors encouragé parce qu’ils ont un incitatif pour l’entretenir, analyse-t-elle.

Efficacité prouvée, mais...

Lorsqu’il est question de réduire l’auditoire d’une figure haineuse ou complotiste connue, le peu de littérature existante au sujet du deplatforming tend à démontrer que la pratique est efficace.

En 2018, une analyse du New York Times a conclu (Nouvelle fenêtre) que le nombre de visites sur le site web du conspirationniste Alex Jones ainsi que le nombre de visionnements sur ses vidéos ont chuté de près de 50 % après qu’il a été banni de Facebook et de YouTube.

Alex Jones marche dans un corridor.

Le conspirationniste Alex Jones a perdu une grande partie de son auditoire après avoir été banni de Facebook et de YouTube.

Photo : La Presse canadienne / AP/Tamir Kalifa/Austin American-Statesman

L'épistémologue du web et professeur à la Faculté des sciences humaines de l’université d’Amsterdam Richard Rogers a publié en mai dernier un article de recherche (Nouvelle fenêtre) dans lequel il détaillait comment la présence web de 25 célébrités extrémistes d’Internet s’est transformée lorsqu’ils ont été forcés de migrer vers des plateformes alternatives (surtout Telegram), après avoir été bannis des grands réseaux sociaux traditionnels. 

Le public s’est aminci de manière assez spectaculaire – au moins de moitié – et ce, dans tous les cas, explique Richard Rogers en entrevue.

Les recherches du professeur l’ont toutefois mené à se poser une question importante : à qui bénéficie le deplatforming?

Selon lui, la pratique a la capacité de détoxifier un espace web donné. En revanche, on s’éloigne de plus en plus des idéaux de démocratie et de liberté qui caractérisent l’Internet depuis ses humbles débuts. Il souligne que la centralisation du web s’exacerbe depuis des années grâce aux réseaux sociaux, maintenant qu’ils sont devenus des géants qui dominent le trafic en ligne, provoquant un certain abandon général du web libre et ouvert.

Améliore-t-on vraiment l’Internet en en retirant de plus en plus de gens? Une portion non négligeable de la population parle maintenant des médias sociaux en employant des termes qui nous auraient stupéfaits il y a cinq ans : censure, biais, bannissement. Les médias sociaux font maintenant l’objet de ce genre de discussion, et ça alimente le complotisme. En ce sens, c’est mauvais pour la société, dit-il.

S’attaquer au problème de fond

Plusieurs opposants au deplatforming soutiennent que la pratique peut avoir des conséquences inattendues, et qu’elle ne s’attaque pas aux vrais problèmes à l’origine de l’extrémisme et du complotisme en ligne. C’est notamment le cas de Martin Geoffroy, directeur du Centre d’expertise et de formation sur les intégrismes religieux, les idéologies politiques et la radicalisation (CEFIR).

En ce qui concerne la liberté d’expression, que des grandes compagnies puissent décider si quelqu’un a le droit de s’exprimer ou non, il y a un problème. Nos gouvernements ne prennent pas en charge ces choses-là parce qu’ils ont peur de priver un citoyen de sa liberté d’expression. Mais de laisser ça comme un Far West à des compagnies, c’est problématique, dit le sociologue.

Et de toute façon, c’est limité. Ça ne changera pas les croyances complotistes et le monde continue à y croire. Le problème pour moi, ce n’est pas qu’elles soient plus ou moins diffusées. Le problème fondamental, c’est que le monde ne croit pas à la science. Ça prend avant tout de la littératie numérique et de l’éducation scientifique. Le deplatforming, c’est un Band-Aid, explique-t-il.

Martin Geoffroy estime que se faire bannir d’une plateforme web peut être une consécration pour les extrémistes, et que cela ne fait que renforcer leurs croyances et celles de leur public, tous deux croyant déjà qu’il existe un vaste complot contre eux, en plus de leur donner un sentiment d’importance.

Je mène une campagne pour que le gouvernement Legault ait un nouveau plan de lutte contre la radicalisation menant à la violence parce que ça fait deux ans qu’on n’en a pas. C’est ça que ça prend, et il faut aussi que les enseignants et les scientifiques aillent occuper le même espace web qu’occupent les conspirationnistes, affirme-t-il.

Tristan Mendès France est d’accord pour dire que l’éducation est l’arme première pour s’attaquer aux croyances conspirationnistes, mais qu’elle ne répond pas à l’urgence à court terme.

Ceux qui sont convaincus sont convaincus et on n’y changera rien. Mais il y a un feu à la maison. L’idéal aurait été d’avoir ignifugé la maison, mais malheureusement, le feu est déjà là. L’important est de l’éteindre et de faire en sorte que les personnes qui arrivent aujourd’hui sur le marché de l’information – je pense aux jeunes – ne soient pas exposées à des discours toxiques et absolument dangereux, illustre le spécialiste des cultures numériques.

Des décisions arbitraires

Tous les spécialistes consultés dans le cadre de ce texte s’entendent sur une chose : les décisions des réseaux sociaux de bannir certaines personnes ou groupes sont arbitraires et généralement prises seulement après d’importantes pressions populaires.

Il y a une sorte d’amateurisme de la part de ces réseaux sociaux qui agissent au coup par coup. Il n’y a pas de cohérence d’une plateforme à l’autre, et c’est surtout une question de visibilité médiatique. Il y a beaucoup d’aléas, et elles focalisent assez aléatoirement sur les personnes les plus visibles. Mais ça ne m’empêche pas d’être rassuré quand un compte saute. Dieudonné ou Soral, le coup que ça leur a porté est flagrant : on n’entend presque plus parler d’eux, témoigne Tristan Mendès France.

Martin Geoffroy se montre encore plus critique.

Les médias sociaux, ce qu’ils veulent, c’est notre attention. Ce qui la retient, ce sont les publications humoristiques ou celles qui provoquent la fureur morale. C’est ça, leur pain et leur beurre. Il ne faut pas se leurrer : ces réseaux-là, non seulement ils entretiennent ce type de discours, ils l'encouragent. C’est juste après que la pression est trop forte qu’ils posent des gestes, analyse le directeur du CEFIR.

Le cas de Radio-Québec

Bien que la chaîne Radio-Québec ait été évincée de YouTube et de Facebook en octobre dernier, elle est encore présente sur Twitter. Ce compte a près de 48 000 abonnés, mais la chaîne YouTube en avait 125 000 et le compte Facebook en avait 77 000.

Alexis Cossette-Trudel téléverse maintenant ses vidéos sur Periscope, la plateforme vidéo intégrée à Twitter, ainsi que sur d’autres plateformes d’hébergement vidéo plus obscures. Si ses webjournaux franchissaient régulièrement le cap des 150 000 vues sur YouTube, ils cumulent aujourd’hui un nombre semblable, voire supérieur, de visionnements lorsqu’on combine les statistiques de Periscope et des plateformes alternatives.

Le logo de Radio-Québec.

Le compte Twitter de Radio-Québec a près de 48 000 abonnés, alors que la chaîne YouTube en avait 125 000 et que le compte Facebook en avait 77 000.

Photo : Capture d'écran

Il semble donc que le deplatforming n’a pas trop affecté les cotes d’écoute de Radio-Québec, mais il est important de noter que son nombre actuel de vues pourrait être gonflé, étant donné que Periscope comptabilise une vue après seulement 3 secondes de visionnement et que ces vidéos démarrent automatiquement lorsqu’elles passent dans un fil Twitter.

À titre comparatif, YouTube comptabilise une vue après environ 30 secondes d’écoute afin de s’assurer que le visionnement était intentionnel, selon plusieurs observateurs du site. La plateforme n’a par contre jamais expliqué publiquement comment fonctionne son système de comptabilisation de vues.

Twitter, qui a dit en juillet (Nouvelle fenêtre) qu’il limiterait la portée des contenus liés à QAnon dans ses recommandations, recommande toujours des contenus de Radio-Québec sur les fils des gens, amplifiant ainsi sa portée. Aucun de ses récents tweets traitant des thèses complotistes infondées entourant de la fraude électorale aux États-Unis n’a été couvert d’une étiquette d’avertissement, comme le fait le réseau social sur les tweets sur le même sujet.

Questionné à cet effet, le directeur des communications de Twitter Canada, Cam Gordon, nous a référé aux règles encadrant QAnon (Nouvelle fenêtre) sur Twitter ainsi que différentes politiques de la plateforme. Nous n’avons rien d’autre à partager pour l’instant, a-t-il dit.

Pour Martin Geoffroy, il s’agit là d’une preuve de l’inefficacité du deplatforming, qui peut à l’inverse souffler sur les braises conspirationnistes.

Ça fait que les gens qui le suivent sont deux fois plus convaincus que c’est lui qui détient les grands secrets du monde parce que les réseaux sociaux se sont attaqués à lui et pas aux autres. En plus, il y a encore un paquet de gens proches de lui, qui partagent ses vidéos, qui l’invitent à leurs émissions et qui propagent le même genre de conspirations qui sont encore sur Facebook et Twitter, observe-t-il.

Tristan Mendès France estime pour sa part que le bannissement de Facebook et de YouTube – selon lui les deux plus puissantes sources d’accélération algorithmique – porte malgré tout un dur coup à Radio-Québec.

Il est maintenant réduit à son audience nucléaire, et je doute qu’il gagne autant de visibilité qu’il a pu gagner ces derniers mois. Alexis Cossette-Trudel a explosé cette année à partir de la séquence du coronavirus. Le fait qu’il était déplateformé va certainement ralentir sa croissance, ou même la limiter à ce qu’elle était quand il s’est fait déplateformer, soutient le spécialiste des cultures numériques.

Sur Twitter, il bénéficie d’un laissez-passer qui est proprement incompréhensible. Pour l’instant, il va s’accrocher à ça jusqu’à ce que le consensus se fasse sur Twitter comme ça a été le cas sur Facebook avec QAnon. Si son compte saute, il devra basculer sur les autres plateformes qu’utilisent les gens de son acabit.

Le compte Twitter d’Alexis Cossette-Trudel reste une porte d’entrée vers ses profils de réseaux sociaux plus obscurs, qui ne cumulent pour l’instant qu’un petit nombre d’abonnés.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !