Vous naviguez sur l'ancien site
Aller au menu principal Aller au contenu principal Aller au formulaire de recherche Aller au pied de page
Ici Radio-Canada Première

Contrôleur audio

Extension Flash Veuillez vous assurer que les modules d'extension (plug-ins) Flash sont autorisés sur votre navigateur.

Chargement en cours

Rebecca Makonnen
Audio fil du mardi 11 juin 2019

On a piqué une jasette avec un robot conversationnel féministe

Publié le

Trois captures d'écran de conversations avec Siri sur le sexisme et le féminisme.
L'intelligence artificielle reprend les biais sexistes qui lui sont inculqués par les humains qui la programme.   Photo : Stéphanie Dufresne

C'est bien documenté : les robots conversationnels comme Siri ou Alexa reproduisent les biais sexistes et racistes qui leur sont inculqués par les humains qui les programment. Le robot conversationnel F'Xa a été créé par Feminist Internet, avec le but avoué de révéler et de désamorcer les biais sexistes de l'intelligence artificielle (IA). La chroniqueuse Rose-Aimée Automne T. Morin lui a parlé, d'égale à égale.

C’est un biais cognitif documenté : on préfère entendre une voix d’homme quand il est question d’autorité, et celle d’une femme quand on a besoin d’aide. C’est la responsabilité des grandes corporations comme Google et Apple de challenger ces attentes-là!

Rose-Aimée Automne T. Morin

Révéler les biais cachés
La mission du robot F’xa est d'abord de révéler les biais sexistes de l'intelligence artificielle. F'xa explique comment les outils technologiques reflètent les biais des personnes impliquées dans le codage, la collecte, la sélection et l’utilisation des données employées pour entraîner les algorithmes qui permettent à l’intelligence artificielle de fonctionner.

Par exemple, en parlant avec F’Xa, on apprend que l’intelligence artificielle est de plus en plus utilisée en ressources humaines. Certaines entreprises l’utilisent pour trier automatiquement les candidatures qu’elles reçoivent en fonction de données précises. Un robot fait une première évaluation des CV reçus, afin d'alléger le processus de recrutement.

F’xa nous donne l’exemple d’une compagnie qui a dû abandonner son outil quand elle a compris qu’il discriminait systématiquement toutes les femmes. Le robot avait été conçu en utilisant les données d’un milieu où la majorité des employés étaient historiquement des hommes. Les algorithmes avaient donc déduit qu’être femme n’était pas un facteur positif pour l’embauche.

L’intelligence artificielle discréditait tous les CV comportant le mot "femme", même si c’était "capitaine de l’équipe féminine d’échecs de Yale"!

Rose-Aimée Automne T. Morin

Des pistes d'action pour renverser le sexisme de l'IA
F'xa propose aussi des solutions pour pour contrer les biais sexistes, rapporte Rose-Aimée Automne T. Morin. L'outil s'adresse autant aux utilisateurs et utilisatrices qu'aux designers qui travaillent dans l’industrie.

  1. Plus de diversité dans l'industrie des technologies. « Ça permet de prévenir les angles morts. »
  2. Apprendre aux intelligences artificielles à répondre fermement aux attaques sexistes. « En jasant avec le chatbot, j’ai appris que lorsqu’on insulte Siri avec des termes traditionnellement associés aux femmes ou quand on la sexualise, elle répond généralement de manière comique ou alors elle dit qu’elle ne comprend pas cette commande. »
  3. Comme utilisatrice ou utilisateur : prendre le temps de piquer une jasette avec F’xa. « Ce que je vous ai rapporté aujourd’hui ne constitue peut-être que 5% de ce qu’elle m’a appris! »
  4. En tant que consommateur ou consommatrice, il ne faut pas hésiter à écrire au fabricant de l'assistante vocale quand on remarque un comportement qui renforce des inégalités. « Je vais pour ma part, dès maintenant, en faire une mission! »

Chargement en cours