•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Des scientifiques ont trouvé un moyen pour déjouer les hypertrucages

Deux images côte à côte du président Obama. Une d'entre elles est une version hypertruquée de son visage.

Les hypertrucages deviennent de plus en plus sophistiqués et difficiles à déceler.

Photo : Capture d'écran YouTube

Radio-Canada
Prenez note que cet article publié en 2021 pourrait contenir des informations qui ne sont plus à jour.

Un système d’intelligence artificielle (IA) mis au point par une équipe de recherche américaine permettrait de repérer les hypertrucages (deepfakes), ces vidéos altérées pour remplacer un visage ou changer les propos d’une personne, notamment.

Des scientifiques en génie informatique de l’Université d’État de New York à Buffalo utilisent la lumière reflétée dans les yeux des (fausses) personnes sur les images ou les vidéos pour y parvenir.

Les logiciels qui produisent des hypertrucages sont peu habiles pour bien représenter ces réflexions. Les réflexions dans deux yeux qui regardent dans une même direction devraient être très ressemblantes, et souvent, ce n'est pas le cas dans ces vidéos.

Le système attribue donc une cote de similarité à ces réflexions. Plus elles diffèrent, plus la vidéo a des chances d’être un hypertrucage.

Des images de faux visages générés par IA à partir de la base de données du site ThisPersonDoesNotExist.com (cette personne n’existe pas) ont été analysées par le système. Celui-ci s’est montré efficace à 94 %, selon les scientifiques.

Ce système comporte toutefois plusieurs failles. D’abord, les deux yeux doivent être bien visibles pour comparer les réflexions. Il est également possible de modifier manuellement les images brutes générées par l’IA pour corriger les réflexions, et donc de tromper le système.

Les scientifiques qui souhaitent lutter contre ces vidéos manipulées, au grand potentiel d’effets néfastes, font face à des techniques toujours plus sophistiquées.

En septembre 2020, le géant informatique Microsoft a par ailleurs lancé son propre outil, Video Authenticator, pour lutter à sa façon contre ces montages. Les vidéos et photos analysées soumises au logiciel se font attribuer un pourcentage d’authenticité basé sur les possibilités qu’elles aient été manipulées artificiellement.

Avec les informations de The Next Web, et The Verge

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...