Google offre une description édulcorée de personnages controversés, selon une étude

Des chercheurs appellent à plus de transparence de la part de Google sur le fonctionnement de son algorithme de recherche.
Photo : Radio-Canada
Les suggestions automatiques du moteur de recherche de Google induisent le public en erreur sur les théoriciens conspirationnistes et participent ainsi à la « promotion » de leurs idées, affirme une récente étude.
Si vous commencez à écrire le nom d’Alex Jones dans l'outil de recherche Google, celui-ci vous suggère : Alex Jones, animateur de radio
et vous donne une mini-photo pour que vous puissiez voir s'il s'agit de la personne que vous cherchez.
Le qualificatif d'animateur de radio pour l'Américain aux idées d’extrême droite, fondateur du site Internet Infowars, devenu célèbre pour ses théories complotistes sur la tuerie de Sandy Hook et les attentats du 11 Septembre pourrait vous surprendre.
Faites le même exercice avec Gavin McInnes, fondateur du groupe d’extrême droite Proud Boys, et il vous est présenté comme un écrivain. Pour Jake Angeli, dit QAnon Shaman, l’un des participants de l’assaut du Capitole des États-Unis en 2021, le moteur de recherche utilise le qualificatif d'activiste.
Les discussions sur les plateformes qui permettent de véhiculer de la désinformation en ligne ciblent régulièrement Facebook et Twitter, alors que le moteur de recherche de Google est trop souvent oublié, soutient Ahmed Al-Rawi, professeur à l’École des communications de l’Université Simon Fraser (SFU), en Colombie-Britannique.
Or ces descriptions données par l’outil de suggestion automatique du moteur de recherche Google omettent une partie de la vérité et enjolivent la vision de ces individus auprès du grand public, comme l'explique Ahmed Al-Rawi, qui est aussi directeur du laboratoire The Disinformation Project de SFU.
« Appeler quelqu’un un activiste, alors que cette personne a répandu la haine et a même appelé au génocide, ce n’est pas normal. »
Activistes, journalistes, et bien d’autres
Dans le cadre de cette étude, Ahmed Al-Rawi a recherché les titres suggérés par le moteur de recherche de Google pour qualifier 37 personnes, considérées comme des théoriciennes du complot ou ayant appuyé des théories complotistes, avec d’autres chercheurs du laboratoire de désinformation.
Les résultats de l’étude, publiés dans le M/C Journal, montrent que, parmi les 30 personnes qui disposaient d’un sous-titre, aucun de ces qualificatifs ne reflétait la vision qu'en a le public, selon Ahmed Al-Rawi : 16 étaient représentées pour leur contribution dans le domaine artistique, 4 étaient qualifiées d'activistes, 7 associées, à leurs emplois d'origine, 2, liées au domaine journalistique, une, à sa carrière sportive, et la dernière, identifiée comme faisant de la recherche.
Sachant que les suggestions du moteur de recherche de Google peuvent donner des résultats différents en fonction de la zone géographique de recherche, les chercheurs ont été surpris de découvrir que les mêmes résultats ont été obtenus au Canada, aux États-Unis et aux Pays-Bas. Ils sont arrivés à cette conclusion en utilisant un réseau privé virtuel (VPN) dont l'origine se trouvait dans ces trois pays.
À lire aussi :
Un préjugé impossible à définir sans un algorithme connu
Un algorithme utilise une série de règles et une base de données définies pour arriver à un résultat. Si sa base de données initiale est subjective, ces iniquités seront également véhiculées jusqu'au résultat donné.
Dans ce cas-ci, les qualificatifs attribués aux théoriciens du complot sont-ils dus à une erreur dans la base de données de Google ou à un choix conscient? Difficile à dire, vu le peu d’information disponible sur le fonctionnement de son algorithme, soutient Stéphane Couture, professeur en communication de l’Université de Montréal, coresponsable du Laboratoire sur les droits en ligne et les technologies alternatives.
Toutefois, il est clair que le choix de ces titres n'a pas été effectué dans le cadre d’une politique éditoriale. Google ne dispose pas d'un rédacteur en chef qui a décidé de mettre ce sous-titre d'animateur radio à Alex Jones
, explique Stéphane Couture.
Ahmed Al-Rawi craint pour sa part que les groupes conspirationnistes ne puissent tirer profit de ce système.
Le directeur du laboratoire The Disinformation Project soutient que, si la base de données de Google repose sur les informations disponibles sur Internet, comme la plateforme le stipule, ces théoriciens du complot pourraient influencer la façon dont ils sont présentés par l’outil de recherche, grâce à la manière dont ils se définissent eux-mêmes sur Internet.
« Le système est manipulé, c’est comme une faille qui laisse les conspirationnistes s’autopromouvoir avec l’aide de Google. »
Une vision limitée
Stéphane Couture explique que Google mise sur la neutralité de son processus de recherche pour s'assurer de l'adhésion du plus grand nombre d'internautes possible.
Bien que cette neutralité soit seulement prétendue et que ces sous-titres donnent une vision limitée de ces individus, il reste qu'ils ne sont pas faux, soutient le professeur en communication. Alex Jones est bien un animateur radio, rappelle-t-il.
C’est sûr que, si la plateforme présente Alex Jones comme un conspirationniste, les gens qui se trouvent dans le camp d'Alex Jones vont être fâchés contre Google.
« Ces informations nous paraissent biaisées, mais elles ne le sont pas pour Alex Jones. »
Selon Stéphane Couture, c’est plutôt dans le choix de donner ou non un sous-titre à ces individus que Google prend une position. D'autres figures controversées, comme Oussama Ben Laden, n’en disposent pas, par exemple.
Contrôle et transparence demandés
Les deux chercheurs rappellent que n’est pas la première fois que les algorithmes du moteur de recherche de Google font l’objet de discussions.
Ahmed Al-Rawi croit que, s'il y avait suffisamment de pression de la part de la communauté internationale, cela pourrait inciter le géant numérique à intervenir pour régler la situation.
Google a déjà apporté des changements à son algorithme de recherche, après un tollé suscité par des termes à tendance péjorative pour qualifier des femmes ou des groupes racisés sur l'outil de recherche, rappelle Ahmed Al-Rawi.
En 2020, Google a également décidé de retirer les étiquettes genrées, comme homme
ou femme
, de son algorithme pour se conformer à ses règles d’éthiques sur l’intelligence artificielle.
Stéphane Couture affirme que Google devrait être plus transparent quant au fonctionnement de ses algorithmes. Il suggère que la plateforme retire ces titres de ses suggestions et se dote d’un éditeur en chef
qui pourrait être tenu responsable lorsque des questions de préjugés algorithmiques se posent.
Leur impact est bien réel, selon lui, vu l'utilisation que le grand public fait de la plateforme.
« C’est comme si on disait : "Oussama Ben Laden, c’était un ancien citoyen de l'Arabie saoudite." Ça efface complètement son histoire et, de façon étrange, la dimension politique derrière ça. »
Les grands de l'Internet comme Google justifient ces préjugés de leurs algorithmes par le fait qu’elles sont le miroir de la société
, mais selon de plus en plus de chercheurs et de politiciens, ces plateformes ont un rôle éditorial
à jouer, affirme Stéphane Couture.
Ailleurs sur le web :
Avec des informations de Nantou Soumahoro