•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

AnalyseIntelligence artificielle grand public : quand un jouet devient une arme

L’hypertrucage humoristique est l’une des tendances du moment sur TikTok, mais derrière ces vidéos comiques se cache un puissant outil de désinformation.

Joe Rogan, à gauche, et Justin Trudeau, à droite.

Une conversation générée par intelligence artificielle (IA) entre l'animateur de balado Joe Rogan et le premier ministre Justin Trudeau a mis les dangers de l'IA sous les projecteurs au Canada cette semaine.

Photo : Capture d'écran YouTube / Abandoned Films

Une fausse conversation (Nouvelle fenêtre) entre Justin Trudeau et l’animateur de balado Joe Rogan, créée de toutes pièces par des outils d’intelligence artificielle (IA), a semé tout un émoi (Nouvelle fenêtre) dans les médias ces derniers jours. Aussi impressionnante soit-elle, cette vidéo n’est qu’une goutte dans l’océan de contenu généré par IA qui inonde les réseaux sociaux depuis des semaines, nous offrant du même coup un avant-goût de l’avenir de la désinformation et de la tromperie.

La qualité de l’hypertrucage (deepfake) du premier ministre et de Joe Rogan est à s’y méprendre : les voix des deux hommes sont parfaitement clonées, et on y entend même des tics de langage et des bégaiements fidèles à leur véritable style de discours.

La vidéo a été vue quelque 178 000 fois en moins d’une semaine sur YouTube.

Du divertissement pour l’instant

Sur TikTok, les fausses conversations générées par IA sont l’une des tendances de l’heure. Des vidéos identifiées par les mot-clics #aivoice ou #aivoices (voix IA) ont cumulé à ce jour plus de 250 millions de visionnements… et ces statistiques ne tiennent pas compte des tonnes de vidéos du genre qui ne contiennent pas ces mots-clics!

Il y a tellement de vidéos de voix IA sur TikTok qu’elles pourraient être divisées en plusieurs sous-catégories. L’une d’entre elles est d’ailleurs constituée de fausses entrevues de Joe Rogan (Nouvelle fenêtre) avec une panoplie de célébrités.

Mais la catégorie la plus populaire ces temps-ci est sans doute présidents IA qui jouent aux jeux vidéo, tel que le décrit KnowYourMeme (Nouvelle fenêtre), un site spécialisé qui répertorie les mèmes Internet et leurs origines. Les vidéos mettent en scène les voix artificielles de Joe Biden, Donald Trump et Barack Obama – et parfois d’autres anciens présidents – pendant que ceux-ci jouent ensemble à des jeux vidéo multijoueurs comme Minecraft ou Call of Duty.

Le ton est tantôt toxique, tantôt amical, mais les visées sont presque toujours humoristiques. Le rendu est souvent impressionnant, et il y a quelque chose de particulièrement amusant à entendre les présidents interagir en disant des obscénités et en employant du jargon propre à l’univers des jeux vidéo.

Dans les sections commentaires des vidéos, les internautes partagent autant leur appréciation pour la créativité des gens derrière les vidéos que leur stupéfaction face à la qualité des voix clonées. Mais en séchant leurs larmes de rire, d’autres expriment de l’inquiétude face à l’avenir de cette technologie.

Cet article a initialement été publié dans l'édition du 25 février de l'infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci, ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

L’hypertrucage à la portée de tous

Cela fait des années que les technologies d’hypertrucage de voix existent. Ce qui a changé dans les dernières semaines, c’est que celles-ci ont été mises à la disposition du grand public moyennant des frais de quelques dollars.

L’outil de clonage de voix utilisé pour créer des vidéos est celui d’ElevenLabs, une jeune entreprise d’intelligence artificielle basée à New York. Il permet de cloner n’importe quelle voix à partir d’un extrait audio d’une minute, donc il est tout à fait possible de reproduire la voix d’autrui sans son consentement. Les voix artificielles sont ensuite générées à partir de textes écrits, et différents paramètres permettent également de jouer avec les intonations.

L’outil est actuellement surtout utilisé comme un jouet, mais nul besoin d'une imagination débordante pour redouter sa puissance – et celle des ses versions à venir – entre les mains d’un acteur malveillant. L’usurpation d’identité et la manipulation politique ne sont que deux des multiples cas d’usage possibles de ces technologies.

Certains exemples d’utilisations malveillantes d’outils de génération de voix ont déjà commencé à faire les manchettes.

Le journaliste de VICE Joseph Cox est parvenu à effectuer des opérations sur son compte bancaire (Nouvelle fenêtre) au téléphone, contournant la vérification vocale grâce à une version artificielle de sa voix. Ce système de vérification d’identité est d’ailleurs offert chez plusieurs grandes banques canadiennes.

Sur TikTok, une publicité pour un amplificateur de libido pour hommes s’est servie d’une conversation artificielle entre Joe Rogan et le neuroscientifique Andrew Huberman pour faire la promotion de son produit. La publicité a été retirée quelques jours plus tard. (Nouvelle fenêtre)

Ce n’est qu’un début pour les utilisations divertissantes et malveillantes de technologies d’intelligence artificielle grand public. Et celles-ci ne font que s’améliorer à une vitesse alarmante.

La section Commentaires est fermée

Les commentaires sont modérés et publiés du lundi au vendredi entre 6 h et 23 h 30 (heure de l’est).

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.