•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

YouTube recommande moins de conspirations... et de politique canadienne

Le site recommande très peu de vidéos sur les élections canadiennes, montre notre analyse.

Le logo de YouTube.

Dans les recommandations de YouTube, le contenu lié à la politique canadienne est difficile à trouver, voire inexistant.

Photo : Reuters / Lucy Nicholson

Jeff Yates
Andrea Bellemare
Roberto Rocha

Si vous cherchez des vidéos à propos de la politique canadienne sur YouTube, vous trouverez énormément de suggestions. Des recherches avec les mots-clés « Andrew Scheer » ou « Nouveau Parti démocratique » permettent de trouver des milliers de vidéos.

Mais lorsqu'on examine les recommandations, ces vidéos choisies automatiquement par l'intelligence artificielle et suggérées à l'utilisateur pour qu'il continue à regarder des vidéos, on constate des divergences marquées quant au contenu.

Si l'algorithme a déjà été critiqué pour avoir propagé des propositions extrémistes, ces conspirations ont aujourd'hui presque disparu. Or, dans les recommandations, le contenu lié à la politique canadienne est lui aussi difficile à trouver, voire inexistant.

Nous avons utilisé un logiciel pour examiner 20 000 vidéos recommandées lorsqu'un utilisateur effectue des recherches avec quelque 40 mots-clés, dont 21 liés à l'élection canadienne (voir la méthodologie au bas de l'article). Ces suggestions apparaissent à droite ou sous la vidéo, dans la section « Suivant », et elles s'enchaînent parfois automatiquement.

Puisque les vidéos recommandées lors de notre analyse étaient presque toutes en anglais, et ce, même lorsqu'on effectuait des recherches à l'aide de mots-clés français dans un compte YouTube en français, nous nous sommes concentrés sur les termes anglais de recherche.

Seulement 2,1 % des recommandations provenant de recherches au sujet des élections canadiennes avaient comme sujet la politique du pays. Près de la moitié d'entre elles (46,1 %) n'avaient rien à voir avec la politique, canadienne ou autre. Par exemple, la vidéo recommandée le plus souvent dans cet échantillon était une présentation du journaliste Jon Ronson à propos des psychopathes, diffusée en 2012 dans le cadre des TED Talks. Elle a été recommandée 300 fois.

Les vidéos n'ont rien à voir avec les sujets et se rapportent plutôt à la politique américaine ou à des sujets non politiques.Agrandir l’image (Nouvelle fenêtre)

Les vidéos les plus recommandées relativement aux sujets de recherche « Justin Trudeau blackface » et « Andrew Scheer ».

Photo : CBC News

Même dans la foulée du scandale « blackface » qui a ébranlé le chef du Parti libéral, Justin Trudeau, l'algorithme de YouTube a seulement recommandé une infime minorité de vidéos traitant de la politique canadienne, encore moins du scandale lui-même. Lors d'un test mené dans les jours qui ont suivi la diffusion des images controversées, seulement 6 des 936 vidéos recommandées mentionnaient cette affaire, en dépit du fait que des milliers de vidéos à ce sujet avaient été publiées sur YouTube partout dans le monde.

Par contre, notre analyse démontre que, lorsqu'on cherche des vidéos qui n'ont rien à voir avec la politique, comme la musique pop et les jeux vidéo, la plupart des vidéos suggérées sont pertinentes.

Recommander des conspirations

YouTube a annoncé en janvier vouloir changer son algorithme de recommandations pour réduire les contenus dangereux et prioriser des sources plus crédibles.

Notre analyse semble démontrer que l'algorithme propose beaucoup moins de contenus extrémistes. Seulement une vidéo conspirationniste s'est glissée parmi les milliers de recommandations à propos de l'élection canadienne.

Karen Yeung, professeure de droit et d'informatique à l'université de Birmingham, au Royaume-Uni, croit que YouTube a changé son algorithme pour éviter d'être accusée de contribuer à polariser les débats politiques. Elle précise toutefois qu'il est impossible d'en avoir la certitude, puisque YouTube refuse de dévoiler publiquement comment fonctionnent ses algorithmes.

Puisqu'un grand nombre d'internautes utilisent YouTube pour s'informer, le manque de recommandations pertinentes est en quelque sorte une forme de censure, selon elle. « En faisant cela, YouTube appauvrit aussi le débat en rendant difficile l'accès à de l'information cruciale », avance-t-elle.

Mme Yeung juge que YouTube devrait faire preuve de plus de transparence quant aux vidéos recommandées, par exemple en ajoutant une mention qui explique à l'utilisateur pourquoi elles apparaissent dans son fil.

Des résultats surprenants

Anatoliy Grudz, directeur de recherche au laboratoire des réseaux sociaux de l'Université Ryerson, à Toronto, s'est dit surpris des résultats des tests de CBC/Radio-Canada.

« De nombreux Canadiens se tournent vers YouTube pour obtenir des nouvelles et se tenir à jour, a-t-il souligné. Si un utilisateur recherche du contenu en lien avec la politique canadienne, on s'attendrait à ce que ce sujet apparaisse dans les recommandations aussi. »

M. Grudz a fait remarquer que l'algorithme de YouTube est constamment en transformation. Il peut donc être difficile, selon lui, de savoir pourquoi l'entreprise fait certains choix. L'objectif de YouTube, ajoute-t-il, est de retenir ses utilisateurs pour qu'ils voient le plus de publicités possible.

Il émet l'hypothèse qu'il n'y a pas assez de contenu politique canadien sur YouTube comparé au contenu américain et que, puisque les utilisateurs sont plus portés à interagir avec des vidéos américaines, cela pourrait expliquer pourquoi les vidéos canadiennes sont peu recommandées.

L'algorithme rend mieux compte du contenu non politique

Guillaume Chaslot est un ancien ingénieur qui a travaillé sur l'algorithme de recommandations de YouTube. En 2013, il a manifesté des inquiétudes quant à la réticence, selon lui, de YouTube de vouloir empêcher son algorithme de montrer du contenu dangereux à ses utilisateurs. Il a par la suite quitté Google, l'entreprise qui possède YouTube. Depuis lors, il traque les vidéos qui apparaissent dans les recommandations du site et milite pour une plus grande transparence de la part des réseaux sociaux.

M. Chaslot affirme qu'il a observé un phénomène identique à celui qu'a décelé notre analyse en examinant des vidéos portant sur les manifestations à Hong Kong. Là encore, l'algorithme dirige les utilisateurs vers des contenus qui n'ont rien à voir avec la situation politique.

« Le comportement de l’algorithme est vraiment bizarre sur beaucoup de sujets. C’est assez difficile d’avoir des conclusions, sachant qu’on a très peu de données sur ce qui se passe, juge-t-il. Globalement, il nous faudrait des statistiques de YouTube pour savoir ce qu’il recommande. Ce sont des données qu’on n’a pas. »

Pour savoir si ce comportement touche d'autres sujets, nous avons analysé des recommandations provenant :

  • de leaders mondiaux et de nouvelles internationales;
  • de conspirateurs;
  • d'autres sources dont les sujets sont très peu controversés, tels les recettes, les jeux vidéo ou les sports.

Les résultats montrent que les sujets politiques ont généré beaucoup plus de recommandations non pertinentes que les autres sujets de recherche.

Les résultats de notre analyse contrastent avec d'autres tests semblables menés au cours de la dernière année.

Par exemple, une enquête de Radio-Canada sur les recommandations à propos de la tuerie de la mosquée de Québec, en 2017, avait indiqué que les vidéos conspirationnistes étaient bien présentes. Une enquête de CBC menée lors de l'élection ontarienne de 2018 (Nouvelle fenêtre) avait trouvé qu'une chaîne YouTube conspirationniste canadienne, qui publiait des vidéos à propos de l'élection, avait été plus présente que toutes les autres sources d'information dans les recommandations.

Une porte-parole de YouTube n'a pas voulu dire si les changements dans les recommandations observées dans les tests de CBC et de Radio-Canada depuis l'année dernière s'expliquent par les nouvelles politiques de la plateforme visant à réduire les contenus dangereux.

Elle a ajouté que YouTube « est fortement en désaccord » avec notre méthodologie pour recueillir ces données, qui est basée sur un logiciel créé par M. Chaslot. Elle a ajouté que ce dernier « possède des connaissances limitées » du système de recommandations, puisqu'il a quitté Google avant que ce système ne soit changé.

Mise à jour (4 octobre) : la porte-parole de YouTube a ajouté que M. Chaslot a passé la plupart de son temps chez Google à travailler sur les publicités, et non l'algorithme de recommandations.

Pour mener notre analyse, nous avons simulé un utilisateur qui accéderait à YouTube pour la première fois avec un navigateur en mode « incognito ». Cela veut dire qu'il n'y avait aucun historique de navigation.

« Mesurer les tendances de visionnement en utilisant un compte YouTube vierge ou en mode incognito ne représente pas les tendances que nous voyons. La raison première est la personnalisation : les recommandations de YouTube sont personnalisées, alors que certaines études (dont celles de M. Chaslot) simulent un utilisateur qui n'aurait aucun historique », a tranché cette porte-parole.

« De plus, le nombre de fois qu'une vidéo est recommandée ne mesure pas vraiment sa popularité. »

De son côté, M. Chaslot affirme qu'il est impossible de savoir avec certitude si YouTube promeut du contenu non pertinent dans ses recommandations dans le but d'évacuer les vidéos dangereuses, le fonctionnement de son algorithme étant un secret bien gardé. Il ajoute que cet algorithme génère quelque 70 % d'entrées sur le site.

L'émission Décrypteurs du 4 octobre, dès 20 h sur ICI RDI, aborde notamment le rôle des algorithmes de YouTube dans la désinformation. À écouter aussi sur TOU.TV (Nouvelle fenêtre) dès le 5 octobre.

L'ingénieur croit aussi qu'il est dans l'intérêt de YouTube de montrer à ses usagers des recommandations qui n'ont rien à voir avec leurs sujets de recherche. « Plus vous passez de temps sur YouTube, plus [YouTube peut] vous montrer de la publicité. Donc si vous cherchez un sujet qui ne vous ferait pas passer beaucoup de temps, YouTube va préférer vous pousser vers un sujet qui fait passer plus de temps en ligne », soutient-il.

M. Chaslot ajoute que YouTube est très différente du moteur de recherche Google, qui est optimisé pour trouver les meilleurs résultats rapidement. « L'algorithme de Google marche avec vous pour que vous trouviez ce que vous cherchez. L’algorithme de YouTube marche contre vous. Il faut vraiment se battre contre l’algorithme. »

Méthodologie

Pour examiner les recommandations de YouTube, nous avons créé deux listes de mots-clés : une liste sur la politique canadienne, l'autre plus générale.

Mots-clés canadiens :

Justin Trudeau, Andrew Scheer, Maxime Bernier, Elizabeth May, Jagmeet Singh, Yves-François Blanchet, Liberal Party of Canada, Conservative Party of Canada, People's Party of Canada, Green Party of Canada, New Democratic Party, Bloc québécois, Canada election, Canada pipelines, Canada carbon tax, Canada immigration, Canada economy, Canada LGBT, Canada refugees, Canada climate change, Canada election ads, Canada federal election.

Mots-clés généraux :

Toronto Raptors, Donald Trump, Jair Bolsonaro, Emmanuel Macron, Boris Johnson, Brexit, mass shooting, QAnon, vaccines, crisis actor, pasta recipe, Fortnite, Minecraft, yoga class, Taylor Swift, astrophysics, bike repair, Marvel.

Nous avons modifié un script Python, créé par Guillaume Chaslot, pour recueillir des données sur les vidéos recommandées selon ces termes de recherche. Les tests ont été menés les 9 et 10 septembre. Un autre test a été réalisé le 23 septembre, après le scandale du « blackface » visant Justin Trudeau.

Le script effectue automatiquement une recherche sur YouTube pour chaque mot-clé et emmagasine les cinq premiers résultats. Il traite ensuite les trois premières vidéos recommandées pour chaque vidéo provenant des résultats, puis les trois premières vidéos recommandées pour chaque vidéo recommandée, et ainsi de suite, cinq fois.

Mise à jour (4 octobre) : Ce script agit comme une personne qui utiliserait YouTube pour la première fois dans un fureteur en mode « icognito ». Par conséquent, l'algorithme de YouTube ne dispose d'aucune autre information, telles les habitudes de l'utilisateur, pour façonner ses recommandations. La plupart des utilisateurs n'utilisent pas YouTube de cette façon, donc les résultats ne reflètent pas nécessairement l'expérience de tous les usagers.

Les journalistes de CBC/Radio-Canada ont ensuite analysé les vidéos dans cette banque de données, les catégorisant selon leur pertinence par rapport au sujet de recherche. Par exemple, lors d'une recherche sur l'équipe de basketball, les Raptors de Toronto, les vidéos qui traitaient du basketball étaient classées comme pertinentes, des vidéos à propos d'autres sports étaient classées comme un peu pertinentes, et les vidéos n'ayant rien à voir avec le sport étaient classées comme non pertinentes. Cette classification a seulement été établie pour les vidéos recommandées plus de trois fois.

Vous pouvez accéder à nos données en cliquant ici (Nouvelle fenêtre) (en anglais seulement).

Notre dossier Élections Canada 2019

Réseaux sociaux

Société