•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

OpenAI travaille sur un outil pour détecter les images générées par DALL-E 3

Un œil ouvert, vu de près, avec le logo d'OpenAI dans la pupille.

OpenAI a dévoilé la troisième génération de son générateur d'images d'IA DALL-E 3 en septembre.

Photo : afp via getty images / JOEL SAGET

Radio-Canada

OpenAI, qui signe notamment le logiciel d’intelligence artificielle (IA) ChatGPT, a annoncé plancher sur un outil qui permettrait de classer la provenance des visuels générés par son générateur d’images DALL-E 3.

Mira Murati, directrice technique d’OpenAI, a mentionné travailler sur cette technologie lors de l’événement Tech Live mardi, organisé par le Wall Street Journal.

L’outil – qui fait encore l’objet de tests à l’interne – permettrait de déterminer si une image a été créée par DALL-E 3 avec une précision de près de 99 %, a affirmé la directrice technique sur scène.

Murati s’est toutefois faite avare de détails quant à un calendrier de sortie pour l’outil de détection, mais promet d’offrir de plus amples informations bientôt.

D’autres outils existent

Google a déjà annoncé la mise en place de nouvelles fonctionnalités qui permettront aux internautes de déterminer plus facilement si une photo a été générée par une IA. Parmi celles-ci, on compte l’ajout d’un bouton À propos de l’image, qui fournira des informations contextuelles sur sa création, comme la date de téléversement, ou encore si elle a déjà été identifiée comme fausse par des organes de presse.

Les images générées par le logiciel d’IA Midjourrney, ou encore avec la banque d’images de Shutterstock, seront également étiquetées par le géant californien.

OpenAI a récemment supprimé de ChatGPT une petite mention, « regenerate response  » (régénérer une réponse) à la fin de ses textes générés, ce qui permettait de déceler facilement des essais créés par l’IA et mis tel quel en ligne.

L’outil a également reformulé certaines phrases, telles en tant qu’IA, ou encore en tant que modèle de langage d’IA pour adopter des formules plus banales, selon les Décrypteurs.

L’entreprise avait affirmé en janvier 2023, en lançant un outil de détection, qu’il était impossible de détecter de façon fiable tous les textes écrits avec de l’IA.

Avec les informations de Mashable

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.