•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

L’Italie bloque le robot conversationnel ChatGPT, vedette de l’intelligence artificielle

Un téléphone avec la page de ChatGPT ouverte.

Le robot conversationnel ChatGPT a été rendu accessible au grand public le 30 novembre dernier.

Photo : Radio-Canada / Érik Chouinard

Agence France-Presse

L'Italie mène-t-elle la fronde contre l'intelligence artificielle (IA)? Le pays a bloqué le robot conversationnel ChatGPT pour des craintes liées à l'utilisation des données, deux mois après avoir banni Replika, un autre programme commercialisé comme un « ami virtuel ».

Dans un communiqué publié vendredi, l'Autorité italienne de protection des données personnelles prévient la population que sa décision a un effet immédiat et accuse ChatGPT de ne pas respecter la réglementation européenne ainsi que de ne pas avoir de système pour vérifier l'âge des utilisatrices ou utilisateurs mineurs.

Cette décision aura pour conséquence la limitation provisoire du traitement des données des utilisatrices et utilisateurs italiens provenant d’outils d’OpenAI, l'entreprise à l'origine de l'application, ajoute-t-elle.

ChatGPT a été lancé en novembre et a rapidement été pris d'assaut par des internautes pour sa capacité à répondre clairement à des questions difficiles et à écrire des poèmes ou encore du code informatique.

Financé par le géant informatique Microsoft, qui l'a ajouté à plusieurs de ses services, dont Bing, il est parfois présenté comme un concurrent potentiel au moteur de recherche Google.

L'institution italienne souligne que ChatGPT a subi le 20 mars une perte de données concernant les conversations des utilisateurs et utilisatrices, et les informations relatives au paiement des gens abonnés au service payant.

Elle lui reproche aussi l'absence d'une note d'information aux utilisateurs et utilisatrices, dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse de données personnelles, dans le but d'entraîner les algorithmes faisant fonctionner la plateforme.

En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, l'Autorité met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge expose les personnes mineures à des réponses absolument non conformes par rapport à leur niveau de développement.

L'Autorité avait aussi bloqué au début de février l'application Replika, qui propose de discuter avec un avatar sur mesure. Des internautes se plaignaient de recevoir des messages et images trop osés, proches du harcèlement sexuel.

Cette fois, on demande à OpenAI de communiquer d'ici 20 jours les mesures entreprises pour remédier à cette situation, sous peine d'une sanction allant jusqu'à 20 millions d'euros (29,3 millions de dollars canadiens) ou jusqu'à 4 % du chiffre d'affaires mondial annuel, le maximum prévu par le Règlement européen sur les données personnelles (RGPD).

Interrogé par l'Agence France-Presse, un porte-parole de l'entreprise a assuré que ChatGPT était désactivé pour les utilisatrices et les utilisateurs en Italie afin de se conformer à la décision de l'Autorité, assurant avoir le souci de de la protection des données. Nous pensons que nous respectons le RGPD et les lois en la matière, a-t-il ajouté.

Nous travaillons activement à réduire les données personnelles dans l'entraînement de notre IA. Nous pensons qu'une régulation de l'IA est nécessaire et espérons travailler en ce sens avec l'Autorité, a précisé le porte-parole.

Cette affaire montre que le RGPD, qui a déjà entraîné pour les géants de la technologie des milliards de dollars d'amendes, pourrait devenir également l'ennemi des nouvelles IA génératrices de contenus.

Réguler l’IA

L'Union européenne prépare en outre un projet de loi pour réguler l'intelligence artificielle qui pourrait être prêt à la fin de 2023 ou au début de 2024, pour une mise en application quelques années plus tard.

Il faut dire que l'IA nourrit des craintes bien plus profondes que la seule exploitation des données personnelles.

L'agence de police européenne Europol a averti lundi que des malfrats étaient prêts à tirer parti de l’IA, comme le robot conversationnel ChatGPT, pour commettre des fraudes et d'autres cybercrimes.

Du hameçonnage à la désinformation en passant par les logiciels malveillants, les capacités en constante évolution des robots de conversation sont susceptibles d'être rapidement exploitées par des personnes mal intentionnées, selon ce qu’a estimé Europol dans un rapport.

Ils peuvent également être utilisés pour tricher lors d'examens, et ChatGPT avait été bloqué peu après sa sortie dans plusieurs écoles et universités dans le monde. De grandes entreprises ont aussi déconseillé à leurs équipes d'utiliser l'application, par crainte de fuite de données sensibles.

Le milliardaire Elon Musk et des centaines de spécialistes du monde ont signé mercredi un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que GPT-4, la plus récente version du logiciel sur lequel repose ChatGPT, en invoquant des risques majeurs pour l'humanité.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...