•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Un algorithme capable d'identifier des actrices pornos anonymes crée la controverse

Photo floue d'une série de photos sur l'écran d'un ordinateur.

L'algorithme pourrait servir à harceler des femmes désirant garder leur carrière en pornographie secrète.

Photo : Radio-Canada

Radio-Canada

Un programmeur anonyme a menacé, la semaine dernière, de mettre en ligne un outil capable d'identifier les actrices pornographiques sur les réseaux sociaux à l'aide de la reconnaissance faciale, et ce, même si elles utilisent un nom d'actrice. En raison de la controverse suscitée par son projet et la menace de poursuites, il fait maintenant volte-face.

D’après ce que le programmeur anonyme affirmait, son équipe et lui avaient réussi à identifier 100 000 actrices pornos en utilisant la reconnaissance faciale pour comparer leur visage dans les vidéos à des photos récupérées sur Facebook, Instagram, TikTok, Weibo et d’autres réseaux sociaux.

Ce programmeur chinois établi en Allemagne avait indiqué, le 27 mai dernier sur le réseau social Weibo, qu’il comptait donner l'accès au public à son outil sous peu, selon ce qu’a rapporté le chercheur d’origine chinoise Yiqin Fu sur Twitter (Nouvelle fenêtre).

Selon la traduction de Yiqin Fu, le programmeur disait que l’objectif était « d’aider les gens à vérifier si leur petite amie était déjà apparue dans ces films [pornographiques] ».

Une journée après la publication, la majorité des 1000 commentaires sous celle-ci contenaient des encouragements d’internautes désireux de l’essayer, selon ce qu'a indiqué Yiqin Fu.

Le commentaire le plus populaire demandait à l’auteur du programme s’il comptait faire la même chose pour les acteurs masculins, ce à quoi il a répondu qu’il était ouvert à cette idée.

Des conséquences importantes

En dehors de ce groupe de discussion sur Weibo, malgré quelques commentaires montrant de l’intérêt sur Twitter, le projet a suscité de nombreuses critiques.

Kristen DiAngelo, la directrice générale du groupe de défense des travailleuses du sexe Sex Workers Outreach Project, a notamment indiqué au magazine Rolling Stone que ce genre d’outil pouvait avoir des conséquences importantes sur la vie des personnes qu'on voyait dans les vidéos. Certaines d’entre elles pourraient, par exemple, se voir refuser des emplois après avoir quitté le domaine de la pornographie en raison des préjugés contre ces travailleuses.

« Les travailleuses du sexe ne font pas toutes carrière dans ce domaine, a expliqué Mme DiAngelo au Rolling Stone. [De nombreuses d’entre elles sont] des étudiantes universitaires, ou elles ont un autre emploi qui ne leur permet pas de joindre les deux bouts. Elles ont des vies. Si cela se savait, ça pourrait détruire leur vie. »

« Ça va finir par tuer des gens »

Même son de cloche du côté de Carrie A. Goldberg, une autrice et avocate spécialisée dans les cas de violation de la vie privée en lien avec des questions sexuelles. « Ça va finir par tuer des gens, a-t-elle expliqué à MIT Technology Review. Certains de mes clients les plus vicieusement harcelés avaient fait de la pornographie, souvent une seule fois dans leur vie et parfois sans leur consentement, parce qu’ils s’étaient fait duper. »

D’après Mme Goldberg, des groupes d’« incels » (des internautes misogynes prétendant qu’ils sont « célibataires involontaires » et que les femmes refusent de coucher avec eux) tentent constamment d’identifier les actrices pornographiques en ligne afin de leur causer du tort.

Illégal dans l’Union européenne

Le projet du programmeur anonyme serait par ailleurs illégal dans l’Union européenne (UE).

Le Règlement général sur la protection des données adopté l’an dernier par l’UE proscrit en effet la collecte de données sans le consentement des personnes à qui elles appartiennent. Il était donc interdit au programmeur de récolter des photos sur les réseaux sociaux et des vidéos sur les sites pornographiques.

D’après le magazine MIT Technology Review, l’auteur de l’outil s’est finalement rétracté. Il aurait affirmé s’être débarrassé de son programme informatique et de toutes les données qu’il avait accumulées.

Yiqin Fu, l’internaute qui avait traduit le message du programmeur sur Twitter, a précisé qu’il n’avait pas tenté de vérifier l’identité de l’auteur ni la véracité de ses propos.

Comme l’outil n’a pas été mis en ligne, il est impossible de savoir s’il existe bel et bien, mais il serait théoriquement possible d’en créer un.

Pornhub, l’un des plus importants sites pornographiques au monde, a d’ailleurs mis au point un système similaire en 2017. Ce programme utilise la reconnaissance faciale pour identifier les actrices dans les vidéos dans le but de recommander des contenus aux utilisateurs du site.

Avec les informations de MIT Technology Review, Rolling Stone, et The Next Web

Intelligence artificielle

Techno