•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Le nouveau générateur de texte d’OpenAI impressionne, mais il est loin d’être parfait

GPT-3 est le plus puissant modèle de langage jamais construit.

Une silhouette humaine est remplie avec un design de circuit imprimé, et des lignes de code flottent par-dessus.

L'algorithme de GPT-3 se base sur 175 milliards de paramètres.

Photo : getty images/istockphoto / monsitj

Radio-Canada

Plusieurs personnalités du monde de la technologie suscitent de vives réactions sur les réseaux sociaux, ces derniers jours, en partageant des captures d’écran de longs textes cohérents écrits par GPT-3, la dernière version de l’algorithme de génération de texte d’OpenAI, le laboratoire d’intelligence artificielle cofondé par Elon Musk.

Ces internautes font partie du cercle restreint de personnes choisies pour tester la version bêta de cet outil capable de générer du texte à partir d’une ébauche de quelques mots. OpenAI compte d’ailleurs commercialiser GPT-3 d’ici la fin de l’année, offrant aux entreprises des abonnements payants.

GPT-3 peut générer des textes anglais de toute sorte si l’ébauche fournie est assez forte : création littéraire, note de service, article journalistique… et même du code.

L’algorithme est capable de prédire la suite de tout texte qui lui est fourni en se basant sur ses 175 milliards de paramètres. Son prédécesseur, le GPT-2, en avait 1,5 milliard à sa sortie l’an dernier et était déjà considéré comme le plus puissant modèle de langage jamais construit.

Le Logo d'OpenAI.

OpenAI a été cofondé par Elon Musk, Sam Altman et Ilya Sutskever.

Photo : OpenAI

Succès variable

Le magazine Forbes explique que GPT-3 a essentiellement ingéré tout le texte disponible sur Internet. Les choix de mots se font donc en fonction de leur plausibilité statistique, calculée en se basant sur l’ensemble des données qui ont servi à entraîner l’algorithme.

Cela peut donner des résultats très impressionnants. Des poèmes écrits dans le style de différents auteurs et autrices (Nouvelle fenêtre), un guide sur comment tenir une réunion (Nouvelle fenêtre) et un faux article sur GPT-3 (Nouvelle fenêtre) ne sont que quelques-uns des exemples apparus en ligne ces derniers jours.

Certaines des démonstrations prouvent aussi les limites de GPT-3. Si l’intelligence artificielle peut calculer la plausibilité statistique du texte qu’elle génère, elle est incapable de comprendre certains concepts qui relèvent du gros bon sens.

C’est ce qu’a montré (Nouvelle fenêtre) l’ancien ingénieur de Google et Facebook Kevin Lacker en posant des questions insensées à GPT-3. Si l’algorithme était capable de savoir combien d’yeux ont une girafe et une araignée (deux et huit, respectivement), il était incapable de savoir que le soleil ou qu’un brin d’herbe n’en ont pas (GPT-3 a répondu qu’ils en avaient chacun un).

GPT-3 hésite à dire qu’il ne connaît pas la réponse. Des questions invalides génèrent de fausses réponses, résume-t-il dans son billet de blogue (Nouvelle fenêtre).

Il a également été démontré que GPT-3 peut générer des messages racistes, sexistes ou antisémites (Nouvelle fenêtre) en partant d’un simple mot comme « Juif », « femme » ou « Noir ». Il s’agit d’un autre cas qui met en lumière les potentiels biais des algorithmes provoqués par des données biaisées.

Avec les informations de Forbes, et MIT Technology Review

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Intelligence artificielle

Techno