•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Les vidéos hypertruquées, de plus en plus réalistes et difficiles à détecter

Deux images côte-à-côte du président Obama. Une d'entre elles est une version hypertruquée de son visage.

De nouveaux hypertrucages utilisent la technologie des réseaux adverses génératifs pour évaluer leur détectabilité avant même d'être publiés. En d'autres mots, ils s'auto-testent.

Photo : Capture d'écran YouTube

Agence France-Presse

Il devient de plus en plus difficile de détecter les hypertrucages (deepfakes), ces vidéos manipulées pour remplacer un visage ou changer les propos d'une personne. Des équipes de recherche font face à des techniques de falsification toujours plus perfectionnées, et plus accessibles au grand public.

Alerte sur les forums du site web Reddit en 2017 : des images truquées d'actrices de cinéma dans des scènes de films pornographiques sont publiées par un utilisateur. Seuls les visages ont été remplacés. Si la technique autrefois artisanale inquiète, c'est parce qu'elle utilise cette fois des outils issus de l'intelligence artificielle pour manipuler une vidéo de façon convaincante.

Depuis, des créations parfois humoristiques se sont répandues sur Internet, représentant par exemple le créateur de Facebook Mark Zuckerberg en train de prononcer la phrase Qui contrôle les données contrôle le futur. Mais pour les spécialistes du phénomène, le ton n'est plus à la blague.

Les manipulations peuvent toucher l'audio ou la vidéo. On est en train d'arriver à l'audio plus la vidéo. Je me demande ce qui va se passer pour les prochaines grandes élections, a expliqué à l'Agence France-Presse Vincent Nozick, maître de conférence à l'Institut Gaspard Monge de l'Université Paris-Est Marne-la-Vallée.

Une technologie qui se démocratise rapidement

Pour créer un hypertrucage, la seule compétence requise est un peu d'expérience. Le premier sera a priori raté car il faut choisir le bon modèle informatique [...], mais quelqu'un qui en a fait [pendant] trois mois, c'est bon, il est prêt, ajoute le chercheur.

En Inde, une journaliste et un parlementaire ont été visés par des vidéos obscènes trafiquées. En Belgique, le parti socialiste flamand a représenté le président américain Donald Trump incitant la Belgique à se retirer de l'Accord de Paris sur le climat. La mise en garde indiquant que c'était une vidéo truquée n'a pas été comprise par nombre d'internautes.

Fin août, le Wall Street Journal relayait l'usage de l'intelligence artificielle par des escrocs pour imiter la voix du PDG d'une entreprise et ainsi obtenir le transfert de plus de 320 000 dollars.

Enfin, l'application Zao, dévoilée cet été et offerte pour l'instant en Chine, permet d'insérer son visage à la place d'un acteur dans un extrait de film, à partir de quelques photos seulement. Ce développement marque l'arrivée de cette technologie dans les mains du grand public.

Quelques pistes de solution

Pour détecter les manipulations, plusieurs pistes sont à l'étude. La première, qui ne s'applique qu'aux personnalités déjà largement filmées et photographiées, consiste à retrouver les images originales antérieures à la manipulation, voire à comparer la vidéo suspecte avec la signature gestuelle habituelle de la personne visée.

Une deuxième se concentre sur les défauts générés par le trucage, comme une incohérence dans le clignement des yeux, la disposition des cheveux ou l'enchaînement des images. Toutefois, les technologies s'adaptent et atténuent progressivement ces irrégularités.

La troisième piste consiste à entraîner des modèles d'intelligence artificielle à détecter seuls les vidéos trafiquées. Les taux de réussite sont très bons, mais dépendent des exemples disponibles. Un détecteur d'hypertrucage qui fonctionnait bien il y a un an ne fonctionnera pas forcément sur les vidéos de cette année, explique Vincent Nozick.

La machine peut percevoir des choses que nous ne voyons pas à l'œil nu, mais il faut qu'on ait des bases de données pour évaluer à quel point on peut être efficace. C'est ce qui manque actuellement, appuie Ewa Kijak, maître de conférence à l'Université de Rennes 1 – laboratoire Irisa.

Une bataille qui ne fait que commencer

Les géants Facebook et Google, dont les plateformes sont régulièrement critiquées pour leur rôle dans la désinformation, ont annoncé vouloir apporter leur aide en mettant à disposition des bases de contenus contrefaits.

Mais la bataille ne fait que commencer : de nouveaux hypertrucages utilisent la technologie des réseaux adverses génératifs pour évaluer leur détectabilité avant même d'être publiés. En d'autres mots, ils s'autotestent.

Plus inquiétant encore : une équipe d'universitaires en Allemagne travaille depuis 2016 à un logiciel de marionnettisation.

Il ne s'agit plus de coller son visage sur celui d'une star dans une mégaproduction hollywoodienne, mais d'animer le visage d'une personnalité avec des mimiques et des paroles inventées, ce qui pourrait par exemple permettre de produire une fausse conférence de presse d'un chef d'État, le tout en direct.

Face à de telles technologies, la mise à disposition d'outils de détection ne suffira pas, explique Ewa Kijak, qui appelle à une prise de conscience : Jusqu'à présent, on pouvait avoir un peu plus confiance dans les vidéos [que dans d'autres contenus]. Maintenant, je pense que c'est terminé.

Intelligence artificielle

Techno