•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

De Cambridge Analytica au prochain Black Mirror

Des caméras de vidéosurveillance
La Chine expérimente avec des techniques rappelant celles évoquées dans 1984, de George Orwell. Photo: Pixabay
Matthieu Dugal

CHRONIQUE – Le journal Los Angeles Times rapportait récemment qu'au début janvier à San Francisco, un homme s'en était pris à... une voiture. Il s'agissait d'un véhicule autonome de la division d'intelligence artificielle de General Motors, GM Cruise. À la fin janvier, c'est un chauffeur de taxi qui a cette fois frappé un véhicule autonome, toujours à San Francisco. Les derniers développements technologiques sont-ils en train de redonner du souffle au luddisme, un mouvement antitechnologique né en Angleterre au début du 19e siècle?

Au début des années 1800, des groupes de travailleurs se réclamant d’un certain Ned Ludd – les historiens ne sont toutefois pas sûrs qu'il ait vraiment existé – saccagent des usines britanniques où l’on retrouve des appareils jusque-là inconnus, soit des métiers à tisser.

Ces machines alimentées par une source d’énergie nouvelle à l’époque, la vapeur, permettent d’augmenter considérablement la cadence de travail et remplacent souvent plusieurs travailleurs.

Le terme « luddite » en est venu à désigner par extension toute personne qui s’insurge, à tort ou à raison, contre les développements technologiques. Sommes-nous à l’aube d’un nouveau mouvement luddite?

La Chine, à la fine pointe de la répression

Lors du dernier festival South by Southwest, à Austin au Texas, j’ai assisté à une conférence qui pourrait servir de canevas pour un épisode de la prochaine saison de Black Mirror. On pouvait notamment y entendre la chercheuse Clare Garvie, qui travaille pour le Georgetown Center on Privacy and Technology, à Washington.

Garvie est une spécialiste des technologies de reconnaissance faciale utilisées un peu partout dans le monde. Lors de cette conférence, elle a notamment expliqué comment l’intelligence artificielle permet à la Chine de contrôler ses citoyens comme s’il s’agissait de bétail.

Dans la province du Xinjiang, dans l’extrême-ouest de la Chine, le gouvernement est aux prises depuis des décennies avec une rébellion plus ou moins larvée provenant de la minorité ouïghoure, une population de 10 millions d’habitants turcophones et musulmans. De nombreux actes terroristes y ont été commis depuis longtemps et la répression y est pratiquée avec une égale brutalité.

Dernière trouvaille en date : la traque généralisée. À l’aide de puissants algorithmes développés par l'entreprise chinoise Megvii – un des leaders dans le monde de l'informatique, aux côtés de Microsoft, Facebook et IBM – et généreusement alimentés par la base de données de l’État chinois – 700 millions de personnes de plus de 16 ans ont des photos officielles répertoriées dans ses fichiers –, on observe tout le monde. La capitale ouïghoure, Urumqi, serait devenue selon plusieurs spécialistes, dont Garvie, le laboratoire à ciel ouvert du Big Brother du 21e siècle.

Si vous êtes un Ouïghour à Urumqi, les caméras de surveillance vous suivent pas à pas grâce à l’algorithme Face++, développé par Megvii. Vous déviez de quelques centaines de mètres dans le trajet de votre travail à votre maison? Une alarme résonne au poste de police de quartier. Big Brother n’aime pas les flâneurs.

Clare Garvie s'est montrée formelle, même si les États-Unis sont encore loin d’envoyer les forces de l’ordre arrêter un simple marcheur qui aurait le goût de découvrir sa ville, le profilage racial auquel les autorités se livrent depuis des années a maintenant une alliée de taille, l’intelligence artificielle.

La chercheuse soulignait d’ailleurs le vide juridique le plus total grâce auquel les forces de l’ordre se servent de logiciels de reconnaissance faciale actuellement aux États-Unis. La plupart du temps, selon elle, les corps de police font ce qu’ils veulent, un peu comme Mark Zuckerberg avant que Christopher Wylie ne décide de faire sa sortie.

« Moi, je n’ai rien à cacher »

Un argument que l’on entend régulièrement lorsqu’il est question des brèches béantes que les nouvelles plateformes, et nos États, ouvrent dans ce qu’il nous reste d’intimité est le fameux « Moi, je m’en fous, je n’ai rien à cacher ».

S’il faut s’en tenir aux algorithmes de reconnaissance faciale, force est d’admettre que même si vous n’avez rien à cacher, on pourrait vous prendre pour une autre personne qui, elle, aurait des choses à cacher.

Une chercheuse du MIT, Joy Buolamwini, a récemment fait une expérience troublante : elle s’est rendue compte qu’un logiciel de reconnaissance faciale n’arrivait pas à bien identifier son visage, alors qu’il parvenait très bien à reconnaître celui de ses amis.

Joy Buolamwini étant noire, elle a tenté de soumettre son visage à une nouvelle séance d’identification en portant un masque blanc et, surprise, le logiciel a alors reconnu son visage.

Elle a présenté une conférence à ce sujet en février lors de la conférence Fairness, Accountability, and Transparency à l’Université de New York. Les recherches sont d’ailleurs formelles : pour le moment, le fait d’appartenir à un groupe marginalisé – comme être une femme noire – fait augmenter le taux d’erreurs des algorithmes de reconnaissance faciale.

Pourquoi? Parce que les algorithmes s’entraînent sur des banques d’images et que, plus il y a des images correspondant à votre type – il y a plus d’hommes blancs que de femmes noires, par exemple –, plus le taux d’erreurs diminue. Cela dit, dans une ère où l’automatisation dans le domaine de la sécurité sera de plus en plus répandue, quel citoyen voudrait risquer de faire partie du pourcentage d’erreurs des algorithmes employés par les forces de l’ordre?

On se souvient que, dans l’après 11 Septembre, des gens avaient été inscrits sur des listes d’interdiction de vol pour la seule raison qu’ils avaient le même nom que d’autres personnes soupçonnées de terrorisme. Un taux d’erreur de 1 % sur 1 million de personnes, cela fait quand même 10 000 individus.

Une solution : le néo-luddisme?

En 2012, Blake Snow, l’auteur de l’essai Log Off, un plaidoyer pour une plus grande hygiène numérique, proposait une nouvelle définition du mot « luddite ». Au lieu de tout jeter, de briser des voitures autonomes ou encore de couper tous nos liens avec l’appareillage technologique, pourquoi ne pas exiger que la technologie soit mise au service d’une plus grande autonomie de la personne? Le « luddisme réformé », comme il l’appelle, est cette philosophie qui ne voit pas l’outil comme intrinsèquement mauvais, mais qui voudrait bien qu’il se plie à des notions de bien commun.

À propos des excès de Facebook dans le scandale Cambridge Analytica, le très libéral (au sens économique du terme) magazine britannique The Economist y allait d’ailleurs la semaine dernière d’un éditorial résolument néo-luddite, au sens où l’entend Blake Snow.

Écrit sur un ton cinglant, le billet appelait la création d’un ombudsman qui pourrait vérifier comment la plateforme gère les données de ses utilisateurs et comment elle vend celles-ci, comment on y diffuse des messages politiques grâce au microciblage et comment ses logiciels de reconnaissance faciale induisent des biais. Bref, il serait souhaitable que l'entreprise donne accès à son algorithme à des autorités compétentes qui jugeront s'il contrevient aux droits fondamentaux.

L’autre solution, selon de The Economist? Que l'entreprise soit dorénavant soumise à des règlements, comme tout service public, ce qui ferait fondre ses revenus de 80 %, selon le magazine. L’éditorial prend fin sur une remarque sarcastique : « Est-ce ce que vous voulez, Monsieur Zuckerberg? » Rappelons qu’il ne s’agit pas de L’aut'journal, mais bien de la revue The Economist.

Est-ce qu’un épisode de Black Mirror peut finir bien?

Intelligence artificielle

Techno