•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Une émission générée par l’IA est bannie de Twitch pour des propos jugés transphobes

Il y a des personnages pixélisés dans un salon.

«Nothing, Forever», une émission dont les scènes sont générées en continu grâce à l’intelligence artificielle, a été bannie de Twitch pour 14 jours.

Photo : Capture d'écran - Twitch

Radio-Canada

Nothing, Forever, une émission entièrement générée par intelligence artificielle, a été bannie de la plateforme Twitch pour au moins 14 jours en raison de propos jugés transphobes, selon l'équipe derrière le programme.

En moins d’une semaine, la série, qui était diffusée en continu, avait suscité plus de 175 000 abonnements, et quelques 10 000 personnes la regardaient à tout moment de la journée.

Cette suspension survient après une tirade jugée inadéquate du personnage de Larry Feinberg, qui est inspiré de Jerry Seinfeld de la comédie de situation Seinfeld, sur les personnes transgenres, les adeptes du libéralisme et la communauté LGBTQ+, dimanche soir.

L'émission Nothing, Forever génère des scènes en continu grâce à l’intelligence artificielle – notamment avec l’apprentissage automatique, une technologie qui permet aux algorithmes d’apprendre par eux-mêmes.

Ainsi, les développeurs et développeuses de la série ont nourri leurs algorithmes d'une quantité impressionnante d'informations, comme plusieurs émissions humoristiques américaines. Les dialogues sont créés avec GPT-3, le modèle de langage développé par la jeune pousse OpenAI.

L'équipe de Nothing, Forever attribue les propos erratiques de leur personnage phare à une panne partielle du modèle le plus avancé de GPT-3, ce qui l'a poussée à utiliser une version désuète du logiciel.

Elle assure avoir trouvé la cause du problème et avoir pris les mesures nécessaires pour empêcher qu'une situation similaire ne se produise. Twitch n'avait pas commenté la situation au moment d'écrire ces lignes.

L'incident de Nothing, Forever fait écho à un problème qui donne du fil à retordre au monde de l'intelligence artificielle : lorsqu'un algorithme est entraîné en partie avec du contenu biaisé ou haineux, le résultat peut, lui aussi, se révéler biaisé ou haineux. L'industrie travaille d'arrache-pied pour trouver des solutions et des outils permettant d'enrayer ce phénomène.

Avec les informations de Vice

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...