Salut,
Il y a des dossiers qu’on aurait préféré ne jamais voir apparaître sur notre radar.
C’est ce qui s’est produit avec un des sujets dont on vous parle cette semaine à l’émission.
Tout a commencé l’été dernier quand Jeff et Nicholas ont noté la présence grandissante de sites web qui permettent de dénuder des individus sans consentement à l’aide d’une simple photo. Un procédé clés en main rendu possible par le biais de l’intelligence artificielle. Quelques clics et le tour est joué.
Un des aspects les plus dérangeants est le fait que ces sites web bénéficient d’une grande visibilité sur des plateformes accessibles à quiconque. Résultat : une popularité sidérante. Selon notre recension, les cinq sites les plus visités du lot ont cumulé 18,5 millions de visites uniques et 145 millions de pages vues au cours du dernier mois.
Comme dans l’article que nous avons publié vendredi matin à ce sujet, Jeff Yates explique à l’émission la mécanique qui permet à ces sites de dénuder des gens de façon totalement non consensuelle.
Une telle « offre de services » viole des lois, tant sur le plan criminel que civil, comme nous le précise en entrevue l’avocate Éloïse Gratton.
Mais ce qui nous a profondément troublés a été de constater à quel point le recours à l’IA aggrave les fléaux de la pornographie juvénile et de la sextorsion.
René Morin, porte-parole du Centre canadien de protection de l'enfance, nous a fait part des multiples dommages causés par ce phénomène.
Plus bas dans cette infolettre, vous pourrez lire l’intégralité des entrevues accordées par nos deux invités dans le cadre de l’émission.
Une photo créée par le générateur d'images par IA Midjourney, que nous avons utilisée pour tester un site de pornographie non consensuelle. Photo : Radio-Canada/Midjourney
Palmarès de la désinformation
Nicholas De Rosa lève le voile sur la nouvelle mouture d’une arnaque bien connue : celle des fraudes à l’héritage. De fausses lettres d’avocats, de faux sites web, mais des fraudes bien réelles!
À la mi-octobre, nous nous sommes attardés à la guerre de propagande que se livraient Israël et le Hamas dans la foulée d’une explosion meurtrière survenue aux abords de l’hôpital Al-Hilal, situé dans la bande de Gaza. Cette semaine, Marie-Pier Élie nous présente les résultats d’une vaste enquête de l’ONG Human Rights Watch portant sur les circonstances de cette attaque. Publiée dimanche dernier, elle apporte un nouvel éclairage sur cet incident sanglant, longtemps resté nébuleux.
ChatGPT a un an cette semaine. Pour souligner cet anniversaire, Jeff Yates nous explique comment ce robot conversationnel est parvenu à polluer le web au point d’affecter la fiabilité des moteurs de recherche Google et Bing.
L'émission Décrypteurs est diffusée le samedi à 11 h 30 et rediffusée le dimanche à 13 h sur ICI RDI. Vous pouvez aussi voir l’ensemble de nos émissions sur ICI TOU.TV, avec ou sans abonnement à l’Extra.
Décrypteurs : le balado
Mine de rien, nous voilà déjà arrivés au 10e épisode de notre balado!
Nous tenons à remercier les milliers de personnes qui prennent le temps d’écouter ce balado qui nous tient particulièrement à cœur.
Voici les grandes lignes des thèmes abordés cette semaine (oui, encore beaucoup d’IA!) :
- Marie-Pier a inspiré plusieurs réflexions après nous avoir présenté le cas d’Anna Indiana, une « auteure-compositrice-interprète » entièrement générée par IA.
- Dans la même veine, d’autres discussions animées ont suivi la présentation par Nicholas du cas d’Aitana, une mannequin et influenceuse… entièrement générée par IA.
- Jeff approfondit sa réflexion sur le fait que l’IA pourrait « détruire » d’ici peu les moteurs de recherche tels que Google.
L'équipe des Décrypteurs lors de l'enregistrement du 10e épisode de leur balado. Photo : Radio-Canada
Décrypteurs : le balado est disponible en format audio sur l’application Radio-Canada OHdio. Le format vidéo est rendu disponible le samedi en milieu de journée dans la section Vidéos de Radio-Canada.ca et de l’application Radio-Canada Info ainsi que sur la chaîne YouTube de Radio-Canada Info.
Production d’images non consensuelles explicites : nos entrevues
Voici l’entrevue intégrale que nous a accordée René Morin, porte-parole du Centre canadien de la protection de l’enfance :
Notre enquête a démontré que les cinq sites les plus populaires ont généré 18,5 millions de visites uniques et 150 millions de pages vues par mois. Est-ce que l'ampleur de ce phénomène vous surprend?
Ça ne nous surprend pas, mais ça nous inquiète. Vous savez, lorsqu'on parle d'intelligence artificielle, on peut faire un parallèle avec un cas qu'on a vu ici même, au Québec, ce printemps : la cause d'un dénommé Steven Larouche, qui a été traitée par un tribunal de la région de l'Estrie. L'individu avait été trouvé en possession de ce qui a été considéré comme une des plus grandes collections de pornographie juvénile jamais saisie dans l'histoire du Canada. Et à l'intérieur de cette collection, vous aviez 86 000 images qui avaient été produites à l'aide d'outils d'intelligence artificielle. Un seul individu avec 86 000 images! Alors, imaginez ce que toute la communauté des amateurs de matériel pédopornographique peut arriver à produire.
Ça nous inquiète parce qu’en ce moment, avec notre projet Arachnide, on a des moyens technologiques qui nous permettent, jusqu'à un certain point, de « nettoyer » Internet de ces contenus-là. Ça a mené à quelque chose comme 40 millions de demandes de suppression d'images envoyées aux opérateurs de plateformes numériques un peu partout sur Internet.
Mais avec l'intelligence artificielle, on craint un afflux de matériel neuf qui aura potentiellement pour effet de surcharger tous les services de première ligne, qu'il s'agisse des tribunaux, des autorités policières ou d'organisations comme la nôtre, qui luttent contre l'exploitation sexuelle des enfants. Tout ce monde-là va se retrouver potentiellement débordé par cet afflux de matériel à traiter. Et ça pose toutes sortes de problèmes, notamment du point de vue de l'identification des victimes. Les autorités policières vous diront facilement à quel point elles sont débordées rien qu'avec l'arriéré de dossiers qu'elles ont à traiter en ce moment. Alors, imaginez si ces intervenants doivent perdre leur temps à tenter d’identifier des enfants qui n'existent pas. Au bout du compte, c'est du temps perdu qui aurait pu être consacré à secourir de vrais enfants.
Il faut bien savoir aussi que les modèles d'intelligence artificielle sont entraînés avec des images qui existent déjà. Pour entraîner des modèles d'intelligence artificielle à produire du matériel pédopornographique, il faut utiliser des quantités d'images soit d'enfants de nos voisinages, de nos communautés, soit du matériel illégal qui existe déjà, qui a été retrouvé sur Internet.
Donc, ça, en soi, c’est problématique : le fait qu'on utilise du matériel déjà illégal à la base pour produire encore plus de matériel illégal. L'autre problème, c'est que parmi les modèles d'intelligence artificielle, vous en avez à code source fermé et d'autres à code source ouvert.
Si on remonte jusqu'à la fin de 2022, lorsque nos analystes voyaient des images générées par ordinateur, c'était souvent des images qui avaient été produites à l'aide d'outils de retouche photo comme Photoshop, etc. Et c'était facile jusqu'à un certain point de constater que telle ou telle image était en fait une fausse image. Mais ça, c'était il y a quelques mois à peine. Maintenant, c'est de plus en plus difficile de distinguer le vrai du faux. La qualité des images qui sont produites laisse pantois.
Et une partie du problème, c'est que les modèles d'intelligence artificielle à code source ouvert peuvent être téléchargés et utilisés « en local » par les délinquants. Ça veut dire que le risque pour eux de se faire prendre devient pratiquement nul, puisqu'ils vont produire ce matériel-là à l'intérieur même de leur foyer, sur un ordinateur qui pourrait ne pas être connecté à Internet. Donc, ça aussi, c'est une considération à ne pas oublier.
Le porte-parole du Centre canadien de protection de l’enfance, René Morin, en entrevue avec les Décrypteurs. Photo : Radio-Canada
Certains tenteront peut-être de minimiser la dangerosité des photos d'enfants générées en totalité ou en partie par l'intelligence artificielle en disant que ce ne sont pas de vrais enfants et que c’est donc moins grave. Que répondriez-vous à ces personnes?
Bien évidemment, il faut bien comprendre ici qu’une représentation d'un enfant nu dans un contexte sexualisé, au sens du Code criminel, c'est illégal, c'est du matériel illégal. Il a beau s'agir d'un enfant qui n'existe pas, d'un enfant fictif créé de toutes pièces par l'intelligence artificielle, ça reste une représentation sexualisée d'un enfant.
Le simple fait qu'on puisse produire de telles images sous la forme de photos, sous la forme de vidéos, pour permettre à des individus avec des déviances pédophiles de nourrir leurs fantasmes, ça devient inquiétant parce que plusieurs études ont démontré que consommer ce genre de matériel a souvent mené à des passages à l'acte. Vous avez des tragédies qui sont survenues et des auteurs de ces tragédies qui, devant les tribunaux, ont avoué avoir consommé du matériel pédopornographique juste avant de passer à l'acte. Donc, tout ça, c'est extrêmement inquiétant.
Ce type d’images peut aussi servir à des fins de sextorsion. Que pensez-vous de l'apport de l'intelligence artificielle à ce chapitre?
On a déjà vu des cas où des sextorqueurs ont utilisé des images générées par l'intelligence artificielle pour tenter de faire chanter des victimes. Donc, vous avez des sextorqueurs qui sont en contact depuis un certain temps avec une cible potentielle, qui cherchent par exemple à amener des enfants à se dénuder à la caméra et qui se retrouvent en présence d'enfants qui ont les bons réflexes et qui refusent de céder à la pression des demandes des sextorqueurs. Et vous avez les extorqués qui optent pour un plan B et se replient vers des images de ces enfants-là qui ont été trafiquées avec l'aide de l'intelligence artificielle pour ensuite les menacer de mettre ces images-là en circulation, si les enfants à qui ils s’en prennent refusent de faire ce qu'on leur demande. Donc, ça s'est déjà vu et ça va se reproduire encore, malheureusement.
En terminant, étant donné l'accessibilité ahurissante de ces outils sur des plateformes à la portée des personnes d'âge mineur, qu'est-ce que ça nous dit sur les lacunes de l'encadrement de l'intelligence artificielle?
Si on recule d'une trentaine d'années, aux débuts de l'Internet grand public, on a beaucoup compté sur les entreprises de technologie pour s'autoréglementer, pour mettre en place des garde-fous, afin de prévenir les dérives. On ne serait pas là aujourd'hui, à parler de ce dont on parle, si ces garde-fous-là avaient été mis en place dès le début.
La réalité actuelle, c'est que sur les plateformes que les enfants et les adolescents utilisent tous les jours, plusieurs heures par jour, il y a des abus pédosexuels qui sont commis en quantité absolument phénoménale. Et tout ça parce que ça se passe dans un environnement qui n'est pas réglementé.
J'aime bien faire un parallèle avec l'industrie du jouet. Si vous êtes un fabricant de jouets et que vous voulez mettre un nouveau jouet sur le marché, vous allez devoir vous conformer à une douzaine de règlements différents. Mais si vous êtes un développeur de plateforme numérique et que vous allez mettre dans l'espace numérique une plateforme où des adultes mal intentionnés pourraient côtoyer de jeunes enfants, il n'y a pas de garde-fou, il y n’y pas d’encadrement réglementaire. Il n’y a aucun règlement auquel vous allez devoir vous conformer, alors qu'on sait très bien à quel point ces plateformes-là peuvent présenter des dangers pour les enfants.
Poursuivons sur le même thème, mais cette fois-ci d’un point de vue légal. Voici l’intégralité de l’entrevue que nous a accordée Me Éloïse Gratton, chef nationale, respect de la vie privée et protection des renseignements personnels, chez BLG :
Quand l’intelligence artificielle permet de faire de telles choses, sur le plan légal, qu'est-ce que ça soulève comme problème?
C'est sûr que la personne qui soumet une photo au site devrait avoir le consentement de l'individu qui est sur la photo. Donc, le site devrait à tout le moins s'assurer qu'un tel consentement.
Mais c'est certain que, de par la nature du site, ce n'est pas du tout dans leur intérêt d'aller mettre des barrières. Donc, si jamais ce dossier-là était devant les commissaires à la vie privée, c'est certain qu'ils poseraient des questions telles que : Avez-vous mis des mises en garde? Avez-vous obtenu un consentement clair? Est-ce qu’il y a des garanties? Juste le fait de soumettre la photo de quelqu'un d'autre sans le consentement, c’est une infraction.
C'est clair que c'est un outil qui œuvre potentiellement pour être utilisé à des fins illégales, à des fins criminelles.
Ce n'est pas parce que la photo est modifiée que les lois ne s'appliquent plus : toutes les lois en matière de vie privée s'appliquent, les enjeux de réputation s'appliquent, les infractions de nature criminelle s'appliquent également. Donc, ce n'est pas parce que la photo est modifiée par l'intelligence artificielle que nos lois ne s'appliquent pas.
L'avocate Éloïse Gratton en entrevue avec l'équipe des Décrypteurs Photo : Radio-Canada
Mais est-ce que nos lois sont suffisamment adaptées à cette nouvelle réalité? Parce que, de toute évidence, il y a quelque chose qui manque.
Il y a quelque chose qui manque, mais pas au niveau de nos lois, dans le sens où les lois en matière de vie privée encadrent encore très bien les entreprises qui gèrent les renseignements.
Au Québec, la loi est mise à jour. Il y a des grandes pénalités pour une entreprise qui va avoir un modèle d'affaires illégal qui n'obtiendrait pas de consentement.
C'est sûr que si les commissaires de la vie privée réalisent que c'est un modèle d'affaires qui, à la base, est problématique, c'est certain qu'ils pourraient dire que c'est un site qui aide à commettre des actes criminels ou des actes illégaux.
Donc, de par sa nature, il est illégal, à moins qu'il mette en place des mesures additionnelles de consentement confirmé et des mesures pour empêcher la publication par la suite. Mais, alors, on sera en train de dénaturer le modèle d'affaires de ces sites-là. Clairement.
Plus largement, au-delà des cas précis dont on parle, dans quelle mesure notre société est-elle assez préparée, assez mûre, pour suffisamment bien encadrer l'intelligence artificielle?
En fait, on n'est pas mûr. Ces discussions-là se font en ce moment au fédéral avec la mise à jour de la Loi sur la protection de renseignements personnels, puis dans le nouveau projet de loi C-27. Une section entière concerne l'intelligence artificielle. C'est critiqué. Plusieurs disent que c'est trop tôt. Certains disent que c'est trop tard. Mais le problème, c'est que ça évolue tellement rapidement et c'est tellement nouveau qu'on ne peut pas avoir des lois trop précises dès maintenant parce qu'elles vont devenir désuètes trop rapidement.
Alors, la façon dont ils ont procédé est de proposer des lois qui encadrent les systèmes d'intelligence artificielle ayant des impacts sur la vie des individus. Ils ont gardé ça en termes assez généraux pour que les règlements soient faciles à mettre à jour et à modifier. Certains critiquent le projet de loi en disant qu’on n'a pas assez consulté les experts en intelligence artificielle. Mais, au Canada, on avance dans la bonne direction et c'est certain que ça ne sera pas réglé demain matin.
Donc, d'ici là, qu'est-ce qu'on fait? On applique les lois qui existent et on dénonce ces sites-là.