Mise en garde de Meta contre des programmes malveillants se faisant passer pour de l’IA

Les logiciels malveillants se faisant passer pour une intelligence artificielle pullulent en ligne, d'après Meta.
Photo : Getty Images / KIRILL KUDRYAVTSEV
Des pirates surfent sur la vague de l'intelligence artificielle (IA) générative en encourageant l'utilisation de programmes qui ressemblent à des outils d'IA, mais qui servent en réalité à piéger les internautes, d’après Meta, maison mère de Facebook, Instagram et WhatsApp.
Depuis le mois de mars, nos analyses ont repéré 10 groupes de maliciels qui se font passer pour ChatGPT et d'autres interfaces similaires pour compromettre des comptes sur Internet
, a indiqué Guy Rosen, responsable de la sécurité des systèmes d'information du groupe californien, lors d'une conférence de presse.
Il a rappelé que les malfrats sont toujours à l'affût des dernières tendances, celles qui capturent l'imagination
du public. On n’a qu’à penser aux cryptomonnaies, avant leur chute.
Les aptitudes conversationnelles remarquables du modèle de langage d'OpenAI, ChatGPT, suscitent un engouement massif depuis son lancement au grand public, en novembre dernier.
De faux navigateurs
Les équipes de sécurité de Meta ont détecté de fausses extensions de navigateurs Internet assurant contenir des outils d'IA générative. Certaines en comportaient d'ailleurs vraiment
, a souligné Guy Rosen, probablement pour avoir l'air crédibles aux yeux des plateformes de téléchargement ou des utilisateurs et utilisatrices.
Cependant, une fois installées sur un appareil, elles permettent aux pirates de s’emparer de données personnelles, par exemple.
Guy Rosen a précisé que Meta a déjà détecté et bloqué plus d'une centaine de liens malveillants comportant des références à ChatGPT ou à d'autres programmes semblables. L’entreprise dit avoir empêché notamment la mise en ligne de publicités ou d'autres contenus sur Facebook et Instagram contenant ces logiciels pirates.
Concurrence féroce
Le géant des réseaux sociaux investit massivement dans l'IA, dont le potentiel semble dépasser même les spécialistes du secteur.
Néanmoins, la nouvelle coqueluche de la technologie présente aussi de nombreux risques, notamment si elle est utilisée à des fins de désinformation sur les grandes plateformes.
Nous nous y préparons, a souligné Nathaniel Gleicher, responsable des pratiques en matière de sécurité à Meta. Nous avons des équipes qui réfléchissent à la façon dont [l'IA générative] pourrait servir à des abus et se demandent quelles défenses doivent être mises en place pour les empêcher.