Des scientifiques ont trouvé un moyen pour déjouer les hypertrucages

Les hypertrucages deviennent de plus en plus sophistiqués et difficiles à déceler.
Photo : Capture d'écran YouTube
Un système d’intelligence artificielle (IA) mis au point par une équipe de recherche américaine permettrait de repérer les hypertrucages (deepfakes), ces vidéos altérées pour remplacer un visage ou changer les propos d’une personne, notamment.
Des scientifiques en génie informatique de l’Université d’État de New York à Buffalo utilisent la lumière reflétée dans les yeux des (fausses) personnes sur les images ou les vidéos pour y parvenir.
Les logiciels qui produisent des hypertrucages sont peu habiles pour bien représenter ces réflexions. Les réflexions dans deux yeux qui regardent dans une même direction devraient être très ressemblantes, et souvent, ce n'est pas le cas dans ces vidéos.
Le système attribue donc une cote de similarité à ces réflexions. Plus elles diffèrent, plus la vidéo a des chances d’être un hypertrucage.
Des images de faux visages générés par IA à partir de la base de données du site ThisPersonDoesNotExist.com (cette personne n’existe pas
) ont été analysées par le système. Celui-ci s’est montré efficace à 94 %, selon les scientifiques.
Ce système comporte toutefois plusieurs failles. D’abord, les deux yeux doivent être bien visibles pour comparer les réflexions. Il est également possible de modifier manuellement les images brutes générées par l’IA pour corriger les réflexions, et donc de tromper le système.
Les scientifiques qui souhaitent lutter contre ces vidéos manipulées, au grand potentiel d’effets néfastes, font face à des techniques toujours plus sophistiquées.
En septembre 2020, le géant informatique Microsoft a par ailleurs lancé son propre outil, Video Authenticator, pour lutter à sa façon contre ces montages. Les vidéos et photos analysées soumises au logiciel se font attribuer un pourcentage d’authenticité basé sur les possibilités qu’elles aient été manipulées artificiellement.