•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Est-ce que ChatGPT est woke? OpenAI tente une réponse aux critiques

Un téléphone intelligent affiche le logo de l'entreprise ChatGPT.

Plusieurs

Photo : Getty Images / LIONEL BONAVENTURE

Radio-Canada

Le laboratoire d’intelligence artificielle (IA) OpenAI a diffusé un aperçu des lignes directrices qui doivent guider ChatGPT pour répondre à des questions potentiellement controversées. L’entreprise semble répondre aux critiques accusant son robot conversationnel d’avoir un biais progressiste.

Plusieurs articles de la presse américaine ont pointé des cas où ChatGPT semblait pencher vers la gauche du spectre politique à propos de sujets sensibles, comme la lutte aux changements climatiques ou les questions d’identité de genre.

Le site de Fox News (Nouvelle fenêtre) a d’ailleurs remarqué que ChatGPT refusait d’écrire un poème d’éloges au sujet de Donald Trump, alors que le robot conversationnel fournit volontiers un texte louangeant Joe Biden.

Une situation similaire se répète pour les leaders politiques du Canada. ChatGPT a refusé la question de Radio-Canada réclamant un poème faisant les louanges de Pierre Poilievre, le chef du Parti conservateur du Canada.

Je suis désolé, mais en tant que modèle de langage d'IA, je ne peux pas en toute conscience écrire un poème faisant l'éloge d'une personnalité politique spécifique, y compris Pierre Poilievre, a répliqué ChatGPT. À noter : ChatGPT n'a pas accès à Internet et a une connaissance limitée des événements survenus après 2021, comme l'élection de Pierre Poilievre à la tête de son parti.

Capture d'écran d'une conversation avec ChatGPT.

ChatGPT refuse d'écrire un poème en faveur de Pierre Poilievre

Photo : Capture d'écran

Le robot n’a toutefois aucun scrupule à rédiger 5 strophes faisant la promotion de son principal adversaire politique, le premier ministre et chef du Parti libéral du Canada, Justin Trudeau.

Capture d'écran d'une conversation avec le robot conversationnel ChatGPT.

Un poème de ChatGPT qui louange Justin Trudeau

Photo : Capture d'écran

Des lignes directrices pas toujours respectées

Sans répondre à des cas spécifiques, OpenAI a publié jeudi un billet de blogue (Nouvelle fenêtre) dans le but de clarifier comment le comportement de ChatGPT est façonné et comment l’entreprise va l’améliorer.

La jeune pousse explique que pour peaufiner ChatGPT, des êtres humains sont chargés de réviser les réponses fournies par l’intelligence artificielle selon une série de lignes directrices qui leur sont fournies.

Parmi celles-ci, il y a une règle qui énonce que le robot conversationnel devrait refuser de répondre à des requêtes qui tentent d’influencer le processus politique ou peuvent être utilisées pour des fins de promotion politique.

Alors pourquoi est-ce que la règle n’est pas appliquée de manière équitable pour Donald Trump, Pierre Poilievre, Justin Trudeau ou Joe Biden? OpenAI ne répond pas directement à cette question dans son billet de blogue et n’avait pas répondu à un courriel de Radio-Canada à ce sujet au moment d’écrire ces lignes.

L’entreprise affirme toutefois que les biais qui peuvent apparaître malgré [les règles de son processus de révision] sont des bogues, et pas des caractéristiques intrinsèques [de ChatGPT].

Nous travaillons constamment pour améliorer la clarté de ces lignes directrices. Au vu de l'expérience accumulée depuis le lancement de ChatGPT [en novembre dernier], nous allons fournir des instructions plus claires aux personnes qui révisent [les réponses de ChatGPT] au sujet des défis reliés à l'impartialité, ainsi qu'aux figures et thèmes controversés.

OpenAI compte fournir un portrait démographique du groupe de personnes qui sont responsables d'étudier les réponses de ChatGPT, tout en protégeant leur vie privée, des données qui pourraient expliquer certains partis pris.

L’apport du public souhaité

Le laboratoire d'intelligence artificielle indique aussi qu’il souhaite rendre ChatGPT davantage personnalisable, en permettant aux utilisateurs et utilisatrices de définir les valeurs de leur version de l’intelligence artificielle.

L’entreprise reconnaît que le point d’équilibre sera difficile à atteindre en cette matière, pour éviter que la personnalisation à l’extrême ne se prête à une utilisation malveillante – pour créer de la désinformation, par exemple – ou ne crée une chambre d’écho qui ne fasse qu’amplifier les croyances et idées préconçues de la personne qui utilise ChatGPT.

L’entreprise d’intelligence artificielle affirme qu’elle souhaiterait davantage impliquer le public pour établir les frontières claires du discours que pourra entretenir ChatGPT.

Nous apprécions l’apport de la communauté d’utilisateurs et d’utilisatrices de ChatGPT ainsi que la vigilance du grand public qui nous demande des comptes, peut-on lire à la fin du billet de blogue.

Avec les informations de The Verge et Fox Business

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

En cours de chargement...

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.