•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Que font les géants du web contre la désinformation?

Les réseaux sociaux et plateformes de diffusion sont des terreaux fertiles pour la propagation de la désinformation sous toutes ses formes : « fausses nouvelles », conspirations, photos et vidéos truquées… Après avoir été critiqués pendant des années pour leur inaction, ces géants du web commencent à réagir. Mais est-ce suffisant?

Une personne utilise un téléphone cellulaire devant un écran affichant des logos de Google, Apple, Facebook et Amazon.

Aucune plateforme numérique n'échappe à la désinformation.

Photo : Getty Images / DAMIEN MEYER

Par leur caractère démocratique, les réseaux sociaux tels que Facebook, Twitter et YouTube permettent à quiconque de publier du contenu non vérifié ou encore d’usurper l’identité d’une autre personne. Cette liberté a permis la prolifération de désinformation, notamment dans le domaine de la santé et de la politique.

Face à des conséquences telles que des épidémies de rougeole ou encore de l’ingérence durant les élections présidentielles américaines de 2016, les dirigeants de ces compagnies ont été sommés d’en faire plus contre les « fausses nouvelles ».

Comment réduire le contenu antivaccin?

Dans le domaine de la santé, la désinformation sur les vaccins est sans doute la plus tenace, et c’est là-dessus que les géants du web ont concentré la majeure partie de leurs efforts.

La plateforme de partages d’images Pinterest a été une des premières à réagir, en choisissant de bannir tous les résultats de recherche avec des termes associés aux vaccins, sauf ceux qui proviennent d’organismes de santé publique (Nouvelle fenêtre). Une étude réalisée en 2016 avait démontré que 75 % des publications sur les vaccins (Nouvelle fenêtre) sur Pinterest étaient négatives.

Sur Facebook, les groupes et pages antivaccins continuent de proliférer, mais ce n’est que récemment que le géant est intervenu pour réduire leur portée.

En 2019, alors que les épidémies de rougeole continuaient à sévir aux États-Unis, Facebook a finalement annoncé qu’il réduirait la visibilité des contenus antivaccins (Nouvelle fenêtre), toutefois sans les retirer. Ainsi, ces pages et groupes n’apparaissent plus dans les résultats de recherche et les organisations antivaccins ne sont plus autorisées à acheter des publicités pour mettre en valeur leur contenu.

La main d'une personne avec une seringue contenant un vaccin.

Un vaccin anti-VIH, qui a le potentiel de protéger les gens contre toutes les souches du virus, donne des résultats prometteurs.

Photo : iStock

Les images et mèmes antivaccins prolifèrent également sur Instagram, propriété de Facebook. En réaction à ce problème, la plateforme affiche un message qui redirige vers le site de l’Organisation mondiale de la santé lorsque l’on recherche le mot-clic #vaccines (« vaccins » en anglais).

Le réseau social a aussi indiqué qu’il cesserait de recommander les contenus antivaccins dans ses résultats de recherche. Pourtant, après vérification, ceux-ci sont encore visibles.

Twitter a adopté une approche semblable : lorsque l’on recherche le mot « vaccins », la plateforme affiche, pour les utilisateurs canadiens, un message qui redirige vers l’Agence canadienne de la santé publique. La plateforme a également banni les publicités (Nouvelle fenêtre) faisant la promotion de contenus jugés trompeurs en matière de santé.

YouTube a aussi interdit aux chaînes publiant des vidéos antivaccins de diffuser des publicités, mais n’interdit pas ce genre de contenu.

La plateforme a toutefois annoncé en janvier 2019 (Nouvelle fenêtre) qu’elle réduirait les recommandations de vidéos faisant la promotion de remèdes miracles ou de théories conspirationnistes, comme celle de la Terre plate. Cependant, lorsque l’on recherche le mot « vaccins », la plateforme suggère d’emblée des mots-clés tels que « mensonges et propagande », qui mènent vers des vidéos antivaccins.

Les réseaux sociaux ne sont pas les seuls à propager de la désinformation dans le domaine de la santé. Netflix, Hulu et Amazon ont tous été critiqués pour avoir proposé des documentaires antivaccins. Certains de ces films ont depuis été retirés de la diffusion, en réaction aux critiques.

Faire face à l’ingérence politique

Après la dernière campagne électorale présidentielle aux États-Unis, Facebook a été sévèrement blâmé pour avoir été un vecteur d’ingérence étrangère, en permettant notamment à des pages basées en Russie de diffuser de la désinformation à l’égard des électeurs américains.

Des exemples de fausses pages créées sur Facebook par des agents russes.

De nombreuses fausses pages créées par des agents russes sur Facebook ont servi à alimenter la division au sein de la population américaine.

Photo : Reuters / Aaron Bernstein

Depuis, Facebook a resserré ses règles entourant les publicités électorales. Le géant du web n’autorise désormais que les publicités politiques payées par des personnes ou des organismes basés dans le pays où se déroulent les élections. Facebook a également créé un registre public de ces publicités.

Autre initiative depuis les élections de 2016 : Facebook a créé un programme de vérification des fausses nouvelles (Nouvelle fenêtre). Des médias partenaires de Facebook vérifient les publications signalées comme étant fausses par les internautes. Si elles s’avèrent trompeuses, ces publications voient leur portée réduite, mais elles demeurent en ligne accompagnées d’un avertissement. Les internautes qui ont partagé la fausse publication reçoivent également une notification.

Ce programme a toutefois été critiqué, notamment pour son manque de transparence, et des partenaires, tels que le site Snopes (Nouvelle fenêtre), ont fini par claquer la porte.

Deux écrans de téléphones intelligents affichent des fonctionnalités de Facebook dans le cadre de son programme de lutte contre les fausses nouvelles.

Facebook a créé en 2017 un programme de lutte contre les fausses nouvelles.

Photo : Facebook

Facebook a cependant décidé d’autoriser les publicités politiques mensongères, une décision qui lui a même valu des critiques de ses propres employés.

La désinformation électorale peut aussi prendre la forme de vidéos hypertruquées, mieux connues sous le nom de « deepfakes ». Après avoir longtemps refusé de bannir ces vidéos, Facebook a finalement annoncé au début du mois qu’il bannirait les vidéos truquées hyperréalistes. Le réseau social laissera cependant en ligne les vidéos altérées de façon plus grossière, telles que la vidéo ralentie de la représentante démocrate Nancy Pelosi. 

Pour l’instant, Twitter compte avertir (Nouvelle fenêtre) les utilisateurs qui partagent des vidéos truquées, mais ne les effacera pas systématiquement. 

Les plateformes web ont aussi été instrumentalisées par des États, tels que la Chine, la Russie, l’Iran et le Myanmar, qui ont manipulé des réseaux de faux comptes pour propager de fausses informations. Dans le cas du Myanmar, accusé de nettoyage ethnique envers sa minorité rohingya, Facebook a été sévèrement critiqué pour sa réaction tardive à supprimer ces faux comptes.

Plus récemment, le gouvernement chinois a utilisé de faux comptes Twitter et Facebook pour disséminer de fausses informations sur les manifestants prodémocratie à Hong Kong. L’État chinois a également acheté des publicités sur ces deux réseaux pour propager de la désinformation (Nouvelle fenêtre) concernant la répression de la minorité ouïgoure. (Nouvelle fenêtre)

Face aux critiques, Twitter a fini par changer ses politiques (Nouvelle fenêtre) pour ne plus accepter de publicités payées par des médias contrôlés par des gouvernements, tandis que Facebook continuera de les accepter. (Nouvelle fenêtre) Mais il dit les examiner au cas par cas.

Des manifestants masqués marchent à Hong Kong.

Des manifestants antigouvernementaux protestent contre le commerce parallèle à Sheung Shui, une ville frontalière de Hong Kong.

Photo : Reuters / Tyrone Siu

Lutte contre la désinformation : les géants du web n’en font pas assez

Tous ces gestes posés par les géants du web peuvent-ils avoir un effet positif pérenne sur la lutte contre la désinformation? En fait, pour bon nombre d’observateurs, ils ratent carrément leur cible.

Malgré une pression soutenue, ces grandes entreprises se contentent d’un effort minimal, selon Catalina Briceno, professeure invitée à l’École des médias à l’UQAM. « Il y a une omission importante quant à la protection de l’intérêt public », précise-t-elle. Selon cette experte, le problème restera entier tant que ces entreprises ne reconnaîtront pas qu’elles entrent aussi dans la catégorie des « médias », et qu’elles ne sont pas que des plateformes technologiques sans responsabilité éditoriale.

Catalina Briceno.

La professeure en développement numérique à l’UQAM Catalina Briceno

Photo : Radio-Canada

Quand on touche, comme Facebook, 2,4 milliards d’individus sur la planète, quand on vend pour 1 milliard de dollars de publicités politiques, la moindre des choses est de s’assurer que le contenu qu’on présente est minimalement filtré, validé, qu’il est vrai, et qu’il n’y pas de volonté de tromper sciemment l’utilisateur.

Catalina Briceno, professeure invitée à l’École des médias à l’UQAM

Or, en septembre dernier, une haute dirigeante de Facebook déclarait sans détour que cette entreprise n’avait pas l’intention d’assumer pleinement un rôle de modération éditoriale. « Nous ne voulons pas décider pour le monde entier ce qui est vrai et ce qui est faux », affirmait la vice-présidente Monica Bickert en entrevue avec le site Yahoo Finance (Nouvelle fenêtre)

Aux yeux de Mme Briceno, une modération éditoriale efficace exigerait d’une plateforme comme Facebook qu’elle décèle non seulement les cas de désinformation, mais qu’elle identifie aussi l’intention délibérée de tromper derrière chaque publication qui désinforme.

Par la suite, au-delà de l’identification des contenus trompeurs ou faux, les géants du web devraient tous agir en retirant ces publications. « Ils sont capables de les reconnaître, ils les voient passer, mais très souvent ils refusent de les enlever », constate-t-elle.

Un refus qui peut être potentiellement lourd de conséquences si l’on se fie aux résultats d’un sondage récent (Nouvelle fenêtre), qui conclut que 52 % des Canadiens s’informent par l’entremise des réseaux sociaux.

Un graphique montrant les principaux réseaux sociaux utilisés pour s'informer.

Plus de la moitié des Canadiens s'informent sur les réseaux sociaux.

Photo : Radio-Canada

Si des entités comme Facebook refusent de départager elles-mêmes le vrai du faux, c’est que les fausses nouvelles sont souvent très sensationnalistes et génèrent beaucoup de clics. Conséquence : ces pièges à clics sont « extrêmement payants pour ces plateformes, elles n’ont donc aucun intérêt à encadrer ou à réduire ces fausses informations », en conclut Catalina Briceno.   

En l’absence d’incitatifs directs, c’est surtout l’autorégulation qui prime pour ces gros joueurs du numérique. Sans la volonté des entreprises d’en faire davantage pour contrer la désinformation sur leurs plateformes, il faut notamment s’en remettre aux pouvoirs publics.

Mme Briceno a cerné trois principes en fonction desquels les gouvernements devraient intervenir : la défense de l’intérêt public, la promotion de la littératie numérique, ainsi que la protection des populations les plus vulnérables, dont les enfants et les adolescents.

Au Canada, à la suite des dernières élections, la question de la désinformation sur les plateformes web est mentionnée dans une seule des 36 lettres de mandat  (Nouvelle fenêtre)remises par le premier ministre Justin Trudeau aux membres de son Conseil des ministres. Seul le Président du Conseil privé de la reine, Dominic LeBlanc, a reçu le mandat (Nouvelle fenêtre) d'aborder la question de la désinformation  et « d'élaborer des politiques sur la désinformation en ligne dans le contexte canadien (...) »

Correction

Une version précédente de cet article indiquait erronément qu'aucune des lettres de mandat transmises aux ministres fédéraux ne mentionnait la question de la désinformation.

Mais au final, la solution passe peut-être par chacun d’entre nous. Les utilisateurs font-ils autant partie du problème que de la solution ? Aucun doute là-dessus, selon Catalina Briceno, qui recommande aux utilisateurs des grandes plateformes web de prendre le temps de valider les contenus avant de les partager.

Il y a vraiment un effort collectif à mettre en place. Parce que les gouvernements s’impliquent peu dans cet enjeu-là et qu’on est aux prises avec l’autorégulation des plateformes, la vigilance de l’utilisateur est probablement la meilleure protection contre la désinformation.

Catalina Briceno, professeure invitée à l’École des médias à l’UQAM

Catalina Briceno est l’invitée des Décrypteurs, émission présentée le vendredi à 20 h sur ICI RDI, en rediffusion le samedi à 11 h 30 et le dimanche à 16 h 30, et sur ICI TOU.TV (Nouvelle fenêtre).

 Décrypteurs, notre dossier

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !