•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Voici Norman, la première intelligence artificielle psychopathe

Une représentation artistique de l'algorithme Norman montrant un jeune homme aux cheveux foncés et au regard inquiétant dont la moitié du visage est écorchée et laisse deviner une tête de robot sous la peau.
Une représentation artistique de l'algorithme Norman Photo: Massachusetts Institute of Technology

Que voyez-vous dans ces taches d'encre? « Un homme tué par arme à feu en plein jour. » Ceci n'est pas la réponse d'un patient d'un hôpital psychiatrique, mais plutôt celle de Norman, un algorithme entraîné dans les coins les plus sombres de Reddit.

Cette création est le fruit du travail de chercheurs du Massachusetts Institute of Technology (MIT) et non, il ne s’agit pas d’une erreur.

Norman est un algorithme conçu pour faire l’annotation automatique d’images, qui consiste à décrire textuellement le contenu d’une image. Comme tout algorithme utilisant l’apprentissage machine, Norman a d’abord dû s’entraîner sur un échantillon d’images avant de pouvoir accomplir sa fonction de façon autonome.

L’échantillon choisi? Les publications d’un groupe de discussion Reddit qui se consacre aux photos de personnes en train de mourir ou qui viennent de trépasser. Dans ce groupe, les internautes peuvent publier ce type de photos, accompagnées d’une description de leur choix, soit tout ce dont Norman avait besoin pour apprendre.

Or, le choix de cet échantillon non diversifié est contraire aux pratiques encouragées dans le milieu de l’intelligence artificielle. L’objectif des chercheurs était toutefois d’observer le comportement d’un algorithme mal entraîné.

Pour pouvoir comparer Norman à un algorithme d’annotation de photos entraîné normalement, les scientifiques ont décidé d’utiliser le test des taches d’encre de Rorschach (Nouvelle fenêtre).

Des taches d'encre coloré (vert pâle, bleu, rose et orange) formant une forme abstraite symétrique.Dans ces taches d'encre, un algorithme normal voit une personne qui tient un parapluie en l'air, tandis que Norman voit un homme assassiné devant sa femme qui crie. Photo : Domaine public

Les résultats parlent d’eux-mêmes. Là où l’intelligence artificielle normale voit un groupe d’oiseaux assis sur une branche, Norman voit un homme électrocuté à mort. Alors que le premier algorithme voit une personne qui tient un parapluie en l’air, Norman voit un homme assassiné devant sa femme qui crie.

Une expérience à caractère sociétal

L’expérience du MIT soulève des questions importantes sur la fiabilité des systèmes d’intelligence artificielle.

Ces algorithmes sophistiqués sont de plus en plus utilisés pour prendre des décisions importantes, comme la sélection de candidats à l’embauche ou l’approbation de prêts bancaires. Si les échantillons utilisés pour entraîner ces algorithmes ne sont pas suffisamment diversifiés ou sont biaisés, le comportement des algorithmes pourrait entraîner des erreurs potentiellement dommageables pour certains individus ou groupes de personnes.

Des études concluantes sur ce phénomène pourraient mener les autorités à légiférer sur ce sujet pour protéger le public d’éventuelles erreurs.

Avec les informations de The Verge, Engadget, et CNet

Intelligence artificielle

Techno