•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Google offre une description édulcorée de personnages controversés, selon une étude

Une image créée d'un homme qui est sur Google avec son téléphone intelligent, son cerveau plein de désinformation.

Des chercheurs appellent à plus de transparence de la part de Google sur le fonctionnement de son algorithme de recherche.

Photo : Radio-Canada

Les suggestions automatiques du moteur de recherche de Google induisent le public en erreur sur les théoriciens conspirationnistes et participent ainsi à la « promotion » de leurs idées, affirme une récente étude.

Si vous commencez à écrire le nom d’Alex Jones dans l'outil de recherche Google, celui-ci vous suggère : Alex Jones, animateur de radio et vous donne une mini-photo pour que vous puissiez voir s'il s'agit de la personne que vous cherchez.

Le qualificatif d'animateur de radio pour l'Américain aux idées d’extrême droite, fondateur du site Internet Infowars, devenu célèbre pour ses théories complotistes sur la tuerie de Sandy Hook et les attentats du 11 Septembre pourrait vous surprendre.

Faites le même exercice avec Gavin McInnes, fondateur du groupe d’extrême droite Proud Boys, et il vous est présenté comme un écrivain. Pour Jake Angeli, dit QAnon Shaman, l’un des participants de l’assaut du Capitole des États-Unis en 2021, le moteur de recherche utilise le qualificatif d'activiste.

Les discussions sur les plateformes qui permettent de véhiculer de la désinformation en ligne ciblent régulièrement Facebook et Twitter, alors que le moteur de recherche de Google est trop souvent oublié, soutient Ahmed Al-Rawi, professeur à l’École des communications de l’Université Simon Fraser (SFU), en Colombie-Britannique.

Or ces descriptions données par l’outil de suggestion automatique du moteur de recherche Google omettent une partie de la vérité et enjolivent la vision de ces individus auprès du grand public, comme l'explique Ahmed Al-Rawi, qui est aussi directeur du laboratoire The Disinformation Project de SFU.

« Appeler quelqu’un un activiste, alors que cette personne a répandu la haine et a même appelé au génocide, ce n’est pas normal. »

— Une citation de  Ahmed Al-Rawi, directeur, Disinformation Project, SFU

Activistes, journalistes, et bien d’autres

Dans le cadre de cette étude, Ahmed Al-Rawi a recherché les titres suggérés par le moteur de recherche de Google pour qualifier 37 personnes, considérées comme des théoriciennes du complot ou ayant appuyé des théories complotistes, avec d’autres chercheurs du laboratoire de désinformation.

Une suggestion du moteur de recherche de Google offrant une photo de Alex Jones et le qualifiant d'animateur de radio.

Alex Jones fait partie de 37 théoriciens du complot a avoir été étudiés dans le cadre de cette étude.

Photo : Radio-Canada

Les résultats de l’étude, publiés dans le M/C Journal, montrent que, parmi les 30 personnes qui disposaient d’un sous-titre, aucun de ces qualificatifs ne reflétait la vision qu'en a le public, selon Ahmed Al-Rawi : 16 étaient représentées pour leur contribution dans le domaine artistique, 4 étaient qualifiées d'activistes, 7 associées, à leurs emplois d'origine, 2, liées au domaine journalistique, une, à sa carrière sportive, et la dernière, identifiée comme faisant de la recherche.

Sachant que les suggestions du moteur de recherche de Google peuvent donner des résultats différents en fonction de la zone géographique de recherche, les chercheurs ont été surpris de découvrir que les mêmes résultats ont été obtenus au Canada, aux États-Unis et aux Pays-Bas. Ils sont arrivés à cette conclusion en utilisant un réseau privé virtuel (VPN) dont l'origine se trouvait dans ces trois pays.

Un préjugé impossible à définir sans un algorithme connu

Un algorithme utilise une série de règles et une base de données définies pour arriver à un résultat. Si sa base de données initiale est subjective, ces iniquités seront également véhiculées jusqu'au résultat donné.

Dans ce cas-ci, les qualificatifs attribués aux théoriciens du complot sont-ils dus à une erreur dans la base de données de Google ou à un choix conscient? Difficile à dire, vu le peu d’information disponible sur le fonctionnement de son algorithme, soutient Stéphane Couture, professeur en communication de l’Université de Montréal, coresponsable du Laboratoire sur les droits en ligne et les technologies alternatives.

Toutefois, il est clair que le choix de ces titres n'a pas été effectué dans le cadre d’une politique éditoriale. Google ne dispose pas d'un rédacteur en chef qui a décidé de mettre ce sous-titre d'animateur radio à Alex Jones, explique Stéphane Couture.

Un robot regarde des algorithmes.

Les êtres humains transmettent leurs biais aux algorithmes qu’ils conçoivent.

Photo : getty images/istockphoto / PhonlamaiPhoto

Ahmed Al-Rawi craint pour sa part que les groupes conspirationnistes ne puissent tirer profit de ce système.

Le directeur du laboratoire The Disinformation Project soutient que, si la base de données de Google repose sur les informations disponibles sur Internet, comme la plateforme le stipule, ces théoriciens du complot pourraient influencer la façon dont ils sont présentés par l’outil de recherche, grâce à la manière dont ils se définissent eux-mêmes sur Internet.

« Le système est manipulé, c’est comme une faille qui laisse les conspirationnistes s’autopromouvoir avec l’aide de Google.  »

— Une citation de  Ahmed Al-Rawi, directeur, The Disinformation Project, SFU
L'ombre d'une femme se cache derrière des données.

Les préjugés algorithmiques peuvent conduire à des situations de discrimination.

Photo : iStock

Une vision limitée

Stéphane Couture explique que Google mise sur la neutralité de son processus de recherche pour s'assurer de l'adhésion du plus grand nombre d'internautes possible.

Bien que cette neutralité soit seulement prétendue et que ces sous-titres donnent une vision limitée de ces individus, il reste qu'ils ne sont pas faux, soutient le professeur en communication. Alex Jones est bien un animateur radio, rappelle-t-il.

C’est sûr que, si la plateforme présente Alex Jones comme un conspirationniste, les gens qui se trouvent dans le camp d'Alex Jones vont être fâchés contre Google.

« Ces informations nous paraissent biaisées, mais elles ne le sont pas pour Alex Jones. »

— Une citation de  Stéphane Couture, professeur en communication, Université de Montréal

Selon Stéphane Couture, c’est plutôt dans le choix de donner ou non un sous-titre à ces individus que Google prend une position. D'autres figures controversées, comme Oussama Ben Laden, n’en disposent pas, par exemple.

Contrôle et transparence demandés

Les deux chercheurs rappellent que n’est pas la première fois que les algorithmes du moteur de recherche de Google font l’objet de discussions.

Ahmed Al-Rawi croit que, s'il y avait suffisamment de pression de la part de la communauté internationale, cela pourrait inciter le géant numérique à intervenir pour régler la situation.

Google a déjà apporté des changements à son algorithme de recherche, après un tollé suscité par des termes à tendance péjorative pour qualifier des femmes ou des groupes racisés sur l'outil de recherche, rappelle Ahmed Al-Rawi.

En 2020, Google a également décidé de retirer les étiquettes genrées, comme homme ou femme, de son algorithme pour se conformer à ses règles d’éthiques sur l’intelligence artificielle.

Le logo de Google sur la façade extérieure d'un bâtiment.

Google a déjà adopté des mesures pour éviter certains préjugés de son algorithme.

Photo : afp via getty images / NOAH SEELAM

Stéphane Couture affirme que Google devrait être plus transparent quant au fonctionnement de ses algorithmes. Il suggère que la plateforme retire ces titres de ses suggestions et se dote d’un éditeur en chef qui pourrait être tenu responsable lorsque des questions de préjugés algorithmiques se posent.

Leur impact est bien réel, selon lui, vu l'utilisation que le grand public fait de la plateforme.

« C’est comme si on disait : "Oussama Ben Laden, c’était un ancien citoyen de l'Arabie saoudite." Ça efface complètement son histoire et, de façon étrange, la dimension politique derrière ça. »

— Une citation de  Stéphane Couture, professeur en communication, Université de Montréal

Les grands de l'Internet comme Google justifient ces préjugés de leurs algorithmes par le fait qu’elles sont le miroir de la société, mais selon de plus en plus de chercheurs et de politiciens, ces plateformes ont un rôle éditorial à jouer, affirme Stéphane Couture.

Avec des informations de Nantou Soumahoro

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...