•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

La lutte contre les hypertrucages s’amorce dans le monde

Les États cherchent à lutter contre les trucages numériques hyperréalistes, des vecteurs de désinformation.

Une adolescente doute d'un contenu qu'elle consulte sur son téléphone intelligent.

Le combat contre la désinformation en ligne et les hypertrucages commence à s'organiser dans différents gouvernements.

Photo : iStock

Agence France-Presse

Robots conversationnels propageant de fausses informations, applications générant des vidéos pornographiques trafiquées, voix clonées utilisées pour de la fraude : devant la montée en puissance des technologies d'hypertrucage (deepfakes), les gouvernements commencent à organiser la riposte.

La prolifération des hypertrucages présente un défi majeur en matière de désinformation. Meta, qui possède Facebook, avait par exemple annoncé l'année dernière qu'elle avait retiré une vidéo truquée du président ukrainien Volodymyr Zelensky appelant sa population à baisser les armes et à se rendre aux troupes russes.

Kate Isaacs, une Britannique qui milite pour que les contenus pornographiques réalisés sans consentement soient retirés du site Pornhub, a raconté en octobre à la BBC s'être effondrée quand une vidéo pornographique truquée avec son visage a été publiée sur Twitter.

Les entreprises qui créent ces outils utilisent des techniques d'intelligence artificielle (IA) qui nécessitaient auparavant des compétences spécialisées, mais qui sont désormais accessibles au grand nombre et à bas coût.

Des inquiétudes dans le monde

Cette démocratisation de la création automatisée de contenus texte, audio et vidéo, et son utilisation potentiellement malveillante, par exemple à des fins de fraude financière ou d'usurpation d'identité, ont suscité de fortes inquiétudes dans le monde.

Ces technologies ont notamment été qualifiées d'armes de perturbation massive par le cabinet d'analyse des risques Eurasia Group.

La jeune pousse britannique ElevenLabs, qui développe un outil de clonage de voix au moyen de l’IA, a admis cette semaine avoir constaté un nombre croissant d'utilisations abusives de son logiciel.

Des internautes ont publié un extrait, généré avec cet outil, dans lequel une imitation de la voix de l'actrice Emma Watson lisait un passage de Mein Kampf, un livre rédigé par Adolf Hitler.

L'essor de l'hypertrucage pourrait mener à ce que l'agence de police européenne Europol a décrit comme une apocalypse de l'information, un scénario où de nombreuses personnes seraient incapables de distinguer la réalité de la fiction et de savoir quelles sont les sources d'information fiables.

Un avant-goût de ce phénomène a eu lieu le week-end dernier lorsque le joueur de football américain Damar Hamlin a remercié, dans une vidéo, l'équipe médicale qui l'avait soigné après son arrêt cardiaque pendant un match. Beaucoup de conspirationnistes, persuadés que son malaise sur le terrain était en réalité dû au vaccin contre la COVID-19, ont alors crié à l’hypertrucage.

Réglementer les nouvelles technologies

La Chine, à la pointe en matière de réglementation des nouvelles technologies, a annoncé au début de janvier l'entrée en vigueur d'une nouvelle réglementation encadrant l'hypertrucage. Elle impose désormais aux entreprises chinoises offrant ce genre d'outils d'obtenir l'identité réelle de leurs utilisateurs et utilisatrices.

Le texte rend par ailleurs obligatoire l'apposition d'une mention sur les contenus truqués, afin d'éviter toute confusion pour le public.

L'hypertrucage présente un danger pour la sécurité nationale et la stabilité sociale s'il n'est pas encadré, avait ainsi affirmé le gendarme chinois de l'Internet le mois dernier.

Aux États-Unis, des personnes élues souhaitent la mise en place d'un groupe de travail spécialisé dans la surveillance des hypertrucages. Toutefois, une levée de boucliers de la part d’activistes des droits numériques s’opère, sonnant l'alerte sur les risques que de telles mesures pourraient avoir sur l’innovation et la liberté d’expression.

En Europe, le gouvernement britannique a déclaré en novembre qu'il allait rendre illégal le partage de vidéos pornographiques truquées réalisées sans le consentement des victimes.

L'Union européenne planche de son côté sur un projet de loi sur l’intelligence artificielle, le AI Act, qu'elle envisage d’adopter avant la fin de l'année. Celui-ci est censé encourager l'innovation et éviter les dérives.

Le texte imposerait notamment aux internautes de mentionner si leur publication contient un hypertrucage, mais plusieurs craignent qu'il n'aille pas assez loin.

Les détecteurs d’IA, une solution?

Comment réinstaurer la confiance numérique avec transparence? C'est la vraie question, souligne à l'AFP Jason Davis, professeur à l'Université de Syracuse.

Les outils [de détection] arrivent, et plutôt rapidement. Mais la technologie avance sans doute encore plus vite. Comme la cybersécurité, nous ne résoudrons jamais ce problème, on peut seulement espérer garder la cadence, poursuit-il.

Des gens, des entreprises et des organisations ont déjà du mal à anticiper les remous que pourraient causer des outils comme le nouveau robot conversationnel ChatGPT, créé par l'entreprise californienne OpenAI, qui peut générer des dissertations, articles ou poèmes, sur demande et en quelques secondes.

NewsGuard, qui évalue les sources d'information en fonction de leur fiabilité, l'a qualifié dans une récente étude de nouveau superpropagateur de désinformation, car ChatGPT avait donné des réponses fausses et trompeuses à des questions sur la COVID-19 et les fusillades en milieu scolaire.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...