Facebook retire une vidéo truquée du président ukrainien appelant à la capitulation

La vidéo truquée s'est propagée sur les réseaux sociaux mercredi.
Photo : Capture d'écran Twitter
Un hypertrucage, moqué pour sa piètre qualité, où on voyait le président ukrainien Volodymyr Zelensky derrière son pupitre de chef d’État appelant son armée à rendre les armes face à l’envahisseur russe, a été retiré de Facebook.
Les hypertrucages, appelés deepfakes en anglais, sont des vidéos modifiées à l’aide de l’intelligence artificielle pour remplacer un visage ou changer les propos d’une personne.
La vidéo a d’abord fait son apparition à la suite du piratage, mercredi, de la chaîne de télévision ukrainienne Ukraine 24 et de son site web. Elle s’est ensuite propagée sur les réseaux sociaux.
Des internautes ont rapidement pointé du doigt des indices flagrants de manipulations. On a notamment remarqué des discordances entre le teint de la peau du cou et du visage, de la pixellisation autour de la tête du prétendu président et l’élocution modifiée de celui qui se présentait comme chef d’État.
Un peu plus tard, Nathaniel Gleicher, le chef de la sécurité de Meta, maison mère de Facebook et d’Instagram, a indiqué que la vidéo avait été retirée de ses plateformes pour avoir enfreint ses conditions d’utilisation. YouTube a fait de même.
Le président ukrainien a publié une vidéo filmée à l’aide d’un téléphone intelligent dans laquelle il réfute ce que la fausse version de lui-même affirmait dans la vidéo truquée, c’est-à-dire que l’Ukraine n’est pas sur le point de capituler.

Le président ukrainien a publié une vidéo où il réfute ce que la fausse version de lui-même affirmait dans la vidéo truquée.
Photo : Compte officiel du président Zelensky sur Facebook
Les autorités ukrainiennes avertissent depuis plusieurs semaines ses citoyens et citoyennes du fort risque que le pouvoir russe utilise des hypertrucages pour semer la confusion.
Nina Schick, journaliste d’enquête et autrice de Deepfakes, un livre sur les hypertrucages, a affirmé à l’agence Reuters que la vidéo ressemblait à un très mauvais exemple d’échange de visages
. Elle prévient cependant qu’on pourrait en voir des exemples bien plus sophistiqués, alors que la technologie pour produire des hypertrucages devient de plus en plus accessible.
À lire aussi :
Avec les informations de Reuters et CNN