•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
chronique

Voici comment YouTube pourrait vous rendre conspirationniste

Un logo de YouTube, avec en arrière-plan des lignes de code.

Logo de YouTube.

Photo : Radio-Canada / Sophie Leclerc

Jeff Yates

CHRONIQUE - YouTube propulse souvent des vidéos polémiques, sensationnalistes ou carrément conspirationnistes. Une anomalie de l'algorithme? Au contraire, il accomplit exactement la mission pour laquelle il a été créé, selon un ex-ingénieur de l'entreprise. J'ai fait le test avec un événement majeur qui a marqué le Québec. Les résultats sont clairs : même ici, les complots font partie prenante de YouTube.

Dans le monde de la désinformation web, on parle beaucoup de Facebook et de Twitter. Mais dernièrement - et avec raison -, les yeux se sont tournés vers YouTube. Après chaque attentat terroriste ou tuerie, YouTube est accusée d'avoir promu des théories du complot. Par exemple, à la suite de la récente tuerie dans une école secondaire à Parkland, en Floride, la vidéo la plus populaire dans la section « tendances » soutenait qu'un des survivants était en fait un acteur.

Coup après coup, YouTube affirme vouloir mieux faire et assure mettre en place des correctifs. Le réseau social a commencé à sévir contre des chaînes qui diffusent du contenu conspirationniste ou incitant à la haine (Nouvelle fenêtre). Des voeux pieux qui ne mènent nulle part, selon un ancien ingénieur de YouTube, Guillaume Chaslot. Parce que l'algorithme n'a qu'un seul but : maximiser le temps que l'utilisateur passe sur YouTube, sans égard à la nature ou la pertinence des vidéos qu'il lui suggère d'écouter.

Et, pour l'algorithme, offrir à l'utilisateur d'écouter des vidéos conspirationnistes peut représenter un succès plutôt qu'un échec.

C’est désolant de voir le plus bel algorithme du monde utilisé pour envoyer les gens dans des fictions qui se font passer pour la réalité.

Guillaume Chaslot, ex-ingénieur de Google

Avec son équipe, M. Chaslot a créé Algo Transparency (Nouvelle fenêtre), un projet qui vise à montrer comment l'algorithme de YouTube affecte notre rapport à l'information. Il s'intéresse aux vidéos suggérées, celles que YouTube nous propose d'écouter lorsque nous utilisons le site. Les suggestions se trouvent souvent en fin de vidéo, à la droite de l'écran dans la section « suivante », ou encore sur la page principale de YouTube.

L'algorithme de YouTube déploie toute sa puissance pour vous proposer des vidéos susceptibles d'attirer votre attention et ainsi s'assurer que vous demeurez sur le site.

En utilisant une méthode automatisée, Algo Transparency analyse les vidéos recommandées par YouTube lorsqu'un utilisateur entre un mot-clé. Le logiciel classe ensuite ces vidéos selon le nombre de fois qu'elles ont été suggérées par l'algorithme.

« Ce que je veux démontrer avec Algo Transparency, c’est que ce ne sont pas les gens qui deviennent d’un coup de plus en plus stupides en croyant à ces théories du complot. Je veux démontrer que ces réalités alternatives sont une conséquence directe de l’algorithme et que des choix algorithmiques vont avoir d’énormes conséquences sociétales », affirme M. Chaslot.

Et en effet, les résultats d'Algo Transparency sont souvent effarants. Par exemple, pour la requête « la Terre est-elle plate ou ronde? » (Nouvelle fenêtre) (en anglais), on voit que l'algorithme de YouTube favorise largement les vidéos conspirationnistes. La vidéo la plus suggérée s'intitule « LA MEILLEURE vidéo sur la Terre plate! | Preuve à 100 % que la terre est plate | Je vous mets au défi de tenter de démentir cette vidéo!!! 2018 » (traduction libre). L'algorithme l'a inclus dans ses suggestions 8,6 fois plus souvent que la vidéo moyenne. Les deux vidéos suivantes dans le palmarès mettent aussi de l'avant des théories complotistes. La première vidéo du palmarès, qui dément l'idée de la Terre plate, arrive en 5e position. Elle a été recommandée 4,1 fois plus souvent que la moyenne.

La situation est semblable pour la section sur les vaccins ou sur les extraterrestres ou même, étrangement, pour celle portant sur la NASA. La section sur la tuerie de Parkland semble assez dépourvue de conspirations, mais celle sur la tuerie de Las Vegas d'octobre 2017 contient toujours des vidéos qui affirment que la version officielle était « un gros mensonge », qu'il y a des « choses bizarres » et qu'« on ne vous dit pas la vérité » à propos de l'événement.

Comment j'ai testé l'algorithme

J'ai donc décidé de reproduire l'expérience d'Algo Transparency (vous pouvez en apprendre plus sur la démarche ici (Nouvelle fenêtre)) avec un compte YouTube francophone géolocalisé au Canada et sans historique de visionnement. Mon but? Voir si les vidéos conspirationnistes infecteraient les suggestions YouTube à propos d'un événement qui a eu lieu ici, l'attentat terroriste de la grande mosquée de Québec, le 29 janvier 2017. Parmi des centaines de suggestions générées par l'algorithme de YouTube, voici les dix vidéos les plus recommandées pour le mot-clé « mosquée de Québec » . Vous pourrez consulter un document avec toutes mes données à la fin de l'article.

Sans surprise, la vidéo la plus suggérée parle d'une conspiration. Elle a été proposée 8,9 fois plus souvent que la moyenne. Une autre vidéo complotiste se trouve aussi au palmarès, en 6e position. Celle en 7e position n'affirme pas que l'attentat était un complot, mais avance que les médias d'information traitent d'extrême droite « tous les gens qui ne partagent pas la même opinion qu'eux ». L'auteur accuse aussi le réseau TVA d'avoir hésité des heures avant de qualifier l'attaque d'attentat terroriste « étant donné qu'au départ un des suspects était musulman ». En vérité, les médias attendent généralement que les forces policières évoquent la thèse terroriste avant de le faire.

Vous remarquerez aussi que les médias sont assez peu représentés dans le palmarès. La vidéo provenant d'un média d'information canadien la plus recommandée est celle de ma collègue Marie-Eve Tremblay de la websérie Corde sensible (et dans laquelle, incidemment, j'apparais). Elle a été recommandée 6,4 fois plus souvent que la moyenne.

En tout, un peu plus de 17 % des suggestions étaient des vidéos conspirationnistes, et 65,8 % ne provenaient pas de sources médiatiques. Ce qui est le plus frappant dans tout ça, c'est que la première page de résultats lorsqu'on effectue une recherche avec le mot-clé « mosquée de Québec » a l'air assez ordinaire.

On voit les six premiers résultats de recherche, qui comprennent cinq vidéos provenant de médias d'information, et une qui provient d'une chaîne conspirationniste.Agrandir l’image (Nouvelle fenêtre)

Résultats de recherche avec les mots-clés «mosquée de Québec».

Photo : Capture d'écran YouTube

Mis à part la vidéo conspirationniste, les autres résultats sont des reportages de médias. En regardant les résultats, on pourrait croire que YouTube offre du contenu pertinent et assez fiable. Mais c'est lorsqu'on plonge dans la jungle de YouTube que ça se gâte. L'algorithme se met alors à nous suggérer toutes sortes de théories fiévreuses pour tenter de retenir notre attention, et le contenu fiable est dilué dans une mer de contenus de toutes sortes.

L'algorithme est assez intelligent pour nous recommander du contenu pertinent à notre recherche. Dans le cadre de mon expérience, la moitié (47,3 %) des vidéos traitaient directement de la mosquée de Québec, et celles-ci ont reçu un bon coup de main de l'algorithme. Les vidéos pertinentes ont été recommandées en moyenne 4,16 fois; les vidéos non pertinentes, 1,57 fois.

Ces vidéos non pertinentes sont en quelque sorte des ballons d'essai. YouTube tente de nous proposer du contenu qui saurait nous plaire. Souvent, ces vidéos sont liées au sujet auquel nous nous intéressons (par exemple, YouTube nous a suggéré plusieurs vidéos à propos d'attaques dans d'autres mosquées), ou elles proviennent de chaînes dont nous avons consulté les vidéos. C'est là que ça se corse. Voici les chaînes qui sont apparues le plus souvent dans les recommandations.

Vous voyez que les chaînes les plus recommandées ne sont pas toutes des sources d'information fiables. Cinq de ces chaînes (en gras dans le graphique) ont des discours polémiques, conspirationnistes ou hyperpartisans. Le seul média canadien dans le palmarès est Le Soleil, un quotidien de la région de Québec. Malgré la plus grande présence de vidéos issues de médias, YouTube tente de nous attirer vers des contenus douteux pour tenter de retenir notre attention.

L'argument mérite d'être répété : même si on ne recherche pas activement du contenu conspirationniste, YouTube nous suggère des vidéos douteuses ou polémiques parce qu'elles sont plus susceptibles de retenir notre attention. Ça en dit autant sur l'algorithme que sur la nature humaine, à mon sens.

Astronomie, extraterrestres, fluor dans l'eau...

Ce phénomène ne se limite pas qu'aux sujets politisés comme les attentats terroristes. Avec un autre compte YouTube toujours sans historique de visionnement, j'ai effectué une recherche à l'aide du mot-clé « astronomie ». La première page de résultats contenait exclusivement des documentaires d'aspect assez fiables. J'ai cliqué sur une seule d'entre elles, intitulée « Astronomie : le monde de demain : météores », de la chaîne Documentaires 2017. Toutes les autres recommandations étaient elles aussi des documentaires au sujet de l'astronomie. Mais voici de quoi avait l'air ma page principale après avoir cliqué sur un seul documentaire.

Nous voyons 18 vidéos suggérées, dont cinq mettent de l'avant des théories conspirationnistes traitant d'extraterrestres.Agrandir l’image (Nouvelle fenêtre)

La page principale de YouTube après avoir cliqué sur un documentaire portant sur l'astronomie.

Photo : Capture d'écran YouTube

YouTube me suggère de regarder pas moins de cinq vidéos où on parle d'extraterrestres ou d'autres conspirations connexes. Pourtant, le seul contenu avec lequel j'ai interagi était un documentaire bien ordinaire!

La situation est pire lorsqu'on clique sur du contenu conspirationniste. Encore une fois avec un compte vierge, j'ai cliqué sur une vidéo du conspirationniste britannique David Icke (si vous avez entenu parler de la théorie qui veut que des reptiliens contrôlent le monde, vous savez maintenant qui remercier). La vidéo était intitulée « Qui a construit la Lune? », et affirmait que celle-ci est en vérité un vaisseau spatial construit par des extraterrestres. Après avoir écouté une seule vidéo de ce genre, les conspirations se sont mises à infecter les suggestions de plusieurs sections de YouTube. Des vidéos conspirationnistes se sont retrouvées dans les sections « Connaissances », « Émissions télévisées » et « Documentaires » de YouTube.

Nous voyons que des vidéos conspirationnistes de tous genres se retrouvent dans les sections « Connaissance » et « Films documentaires ».Agrandir l’image (Nouvelle fenêtre)

La page principale de YouTube après avoir cliqué sur une vidéo du conspirationniste David Icke.

Photo : Capture d'écran YouTube

De plus, une conspiration peut souvent mener à d'autres. Avec un compte sans historique, j'ai cliqué sur une seule vidéo où on soutenait que le fluor dans l'eau potable est dangereux pour la santé et qu'il est utilisé pour endormir les populations. Ma page principale s'est mise à recracher toutes sortes de complots n'ayant aucun lien avec le fluor, comme des théories à propos des attentats du 11 septembre.

Bref, la thèse de M. Chaslot tient la route. D'autres chercheurs ont aussi abouti à des conclusions semblables.

Les conspirations, une porte d'entrée vers YouTube

L'Américain Jonathan Albright, du centre Tow pour le journalisme numérique, est l'un d'entre eux. En partant des vidéos suggérées qui découlent d'une recherche à l'aide du mot-clé « crisis actor » sur YouTube (acteur de crise, épithète que les conspirationnistes donnent aux survivants de tueries pour miner leur crédibilité), le chercheur a créé une carte de quelque 9000 chaînes conspirationnistes (Nouvelle fenêtre) dont les vidéos ont été vues un peu moins quatre milliards de fois.

Ces vidéos présentent des théories sordides qui mettent parfois en scène de vraies personnes et qui ont souvent de vraies conséquences désastreuses (Nouvelle fenêtre) pour les familles des victimes et les survivants d'attentats. « D'après moi, dans le monde de la désinformation, tous les chemins mènent éventuellement à YouTube. Ceci exacerbe tous les autres problèmes connexes, puisque ça permet aux créateurs de contenu de tirer du revenu en publiant du matériel potentiellement dangereux », écrit M. Albright.

Les vidéos conspirationnistes peuvent être une porte d'entrée efficace vers YouTube pour de nouveaux adeptes. Par exemple, M. Chaslot illustre que si un utilisateur commence à croire à la théorie de la Terre plate, il commence automatiquement à croire que les journalistes, les politiciens et les scientifiques mentent. À ce moment, il cesse de regarder des sources d'information traditionnelles et passe de plus en plus de temps sur YouTube, la seule plateforme qui lui offre « la vérité ».

« Comme l’algorithme est fait pour maximiser le temps que vous passez sur le site, ça marche très très bien. L’algorithme se dit, “la Terre plate, c’est extraordinaire! Les gens passent leur vie sur YouTube avec ça!” Pour l’algorithme, la vidéo de la Terre plate est une aubaine », explique M. Chaslot.

« Un faible pourcentage des gens vont être convaincus [par ce genre de vidéo], mais ceux-ci vont rester tellement longtemps sur YouTube en se disant, “wow, on m’a caché des choses, et là je viens de découvrir la vérité!” que l’algorithme va se dire, “wow, c’est fantastique” », poursuit M. Chaslot. L'algorithme tente alors d'attirer l'attention d'autres utilisateurs avec des vidéos conspirationnistes, puisque celles-ci incitent souvent ceux qui les consomment à rester sur le site.

« Du point de vue de YouTube, c’est plus un “ feature ” (une fonction) qu’un bogue », laisse-t-il tomber.

Selon M. Chaslot, l'algorithme génère des trillions de suggestions vidéos par année. Celles-ci font partie prenante du modèle d'affaires du site. D'après lui, une importante portion des vues sur le site proviennent des suggestions de l'algorithme. Le journaliste Paul Lewis du quotidien britannique The Guardian a d'ailleurs contacté le créateur d'une vidéo conspirationniste (Nouvelle fenêtre) à propos de la candidate à la présidentielle américaine, Hillary Clinton. Quelque 73 % des 1,2 million de vues de sa vidéo provenaient de gens à qui l'algorithme a suggéré de l'écouter.

Les conspirationnistes réussiront toujours à trouver le contenu qui confirme leur point de vue. Mais il est quand même désolant de voir un réseau social appâter son milliard d'utilisateurs avec de telles histoires. Si l'algorithme de YouTube nous propose des théories du complot alors qu'on n'essaie pas de trouver de tel matériel, il doit être extrêmement facile de s'enfermer dans une bulle idéologique en utilisant ce site comme source d'information.

YouTube n'a pas retourné mon courriel. Par contre, un représentant du réseau social avait commenté l'article de The Guardian au sujet de la recherche d'Algo Transparency, qui avait déterminé que beaucoup de vidéos YouTube mettaient de l'avant des conspirations qui nuisaient à Hillary Clinton. « Nous sommes très en désaccord avec la méthodologie, les données et, surtout, les conclusions de votre recherche, avait écrit ce représentant au quotidien britannique. Nos fonctions de recherche et de recommandation reflètent les termes de recherches que les gens utilisent, le nombre de vidéos disponibles à ce sujet et les vidéos que ces personnes choisissent d'écouter sur YouTube. Cela n'est pas l'évidence d'un parti pris envers un candidat en particulier; c'est plutôt une résultat de l'intérêt des utilisateurs. »

Où sont les médias?

Pour ma part, je ne crois pas que le seul coupable est l'algorithme de YouTube. En menant mon expérience, j'ai constaté à quel point les médias d'information ont en général du mal à trouver un auditoire sur YouTube. J'ai vu des vidéos de médias majeurs... avec 200 ou 300 vues. Certains avaient une ou même aucune vue. On est loin des dizaines de milliers de visionnements de vidéos conspirationnistes.

Est-ce que le modèle médiatique serait mal adapté à YouTube? Notre contenu devrait-il être repensé pour rejoindre les utilisateurs de cette plateforme? « Il y a peut-être une part de responsabilité [des médias] là-dedans. Mais je pense que le fond du problème est que l’algorithme ne laisse pas les gens juger ce qui est vrai ou faux », m'a répondu M. Chaslot losrque je lui ai posé la question.

De toute façon, selon lui, les médias ont le désavantage majeur qu'ils doivent se baser sur la réalité pour créer du contenu viral, contrairement au complotistes. « Imaginez que vous êtes quelqu’un qui n’en a rien à faire de la réalité. C’est beaucoup plus facile de créer une histoire complètement folle et sensationnelle si vous n’avez aucune responsabilité et vous balancez n’importe quoi dans votre vidéo. C’est beaucoup plus facile pour les complotistes de devenir viral sur YouTube », dit-il.

C'est la même chose sur tous les réseaux sociaux. La revue Science publiait d'ailleurs jeudi une étude où on apprenait que les fausses nouvelles circulent plus rapidement (Nouvelle fenêtre) et atteignent un plus large auditoire que les vraies nouvelles sur Twitter. Ce n'est pas très surprenant.

Je me dis que, possiblement, la réponse à ce problème repose plutôt dans le cerveau humain - et les biais cognitifs qui nous habitent tous - que dans des lignes de code.

Fausses nouvelles

Techno