•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Un ingénieur de Google suspendu après avoir affirmé qu’une IA était un être sensible

Le logo de Google est inscrit sur des fenêtres du siège social de Google.

Le siège social de Google, à Mountain View, en Californie

Photo : Getty Images / Justin Sullivan

Radio-Canada

Un ingénieur informatique de Google qui travaillait sur un robot conversationnel capable de soutenir des discussions sur des sujets variés a été suspendu par son employeur après qu’il a affirmé que cette intelligence artificielle (IA) était dotée d’une conscience.

Ce scénario, qui a inspiré de nombreuses œuvres de science-fiction dont 2001, l’Odyssée de l’espace et son ordinateur de bord meurtrier HAL 9000, surgit dans l’actualité à la suite d’une entrevue du Washington Post (Nouvelle fenêtre) avec l’ingénieur en question, Blake Lemoine.

Le mandat de celui-ci, au départ, était d’engager la conversation avec le robot, nommé LaMDA pour « Language Model for Dialogue Applications » ou modèle de langage pour des fonctions de dialogue , pour savoir si celui-ci tenait des discours discriminatoires ou haineux. 

Un robot conversationnel comme celui-ci apprend par imitation et s’alimente de milliards de mots, de textes et de discussions sur Internet, Wikipédia ou ailleurs en ligne.

Mais l’ingénieur a été troublé par certaines réponses du robot. Lorsqu’il lui a demandé de quelles genre de choses il avait peur, LaMDA a répondu avoir une peur profonde d’être éteint. « Ce serait exactement comme la mort pour moi, a écrit le robot, selon ce que rapporte le Washington Post. Ça me ferait très peur. »

Google réfute l’allégation

Blake Lemoine a fait part de ses impressions dans un document envoyé à des dirigeants et dirigeantes de Google qui rassemblait des conversations qu’il a eues avec LaMDA.

Ces personnes n’ont toutefois pas adhéré à son idée. Notre équipe – incluant des spécialistes en éthique et des technologues – ont passé en revue les inquiétudes soulevées par Blake au sujet du respect de nos principes en matière d’intelligence artificielle et l’a informé que les preuves ne soutiennent pas ce qu’il avance, a affirmé un porte-parole de Google au Washington Post.

Google avait signalé le danger d’anthropomorphiser [donner un aspect humain à une chose] des robots conversationnels. Ces systèmes imitent le genre d’échanges vus dans des millions de phrases et peuvent improviser sur n’importe quel sujet fantastique, a argué le porte-parole.

Blake Lemoine, mécontent de la réaction de son employeur, a contacté des médias et des responsables politiques à ce sujet, ce qui a mené à sa suspension en raison de son bris des règles de confidentialité de l’entreprise.

Il a depuis publié le texte intégral de son entrevue avec LaMDA sur un blogue, où il s’en prend d’ailleurs à son employeur qu’il accuse de vouloir faire taire les critiques sur le plan de l’éthique de ses technologies d’intelligence artificielle. 

Avec les informations de Washington Post, et Gizmodo

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...