•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Cambridge Analytica : la fin de l’innocence sur Facebook et en ligne?

Le fondateur de Facebook, Mark Zuckerberg, donne une conférence devant un grand écran où projeté le logo de Facebook.

Le fondateur de Facebook, Mark Zuckerberg, a fait acte de contrition à la suite des révélations sur l'affaire Cambridge Analytica

Photo : Reuters / Robert Galbraith

Matthieu Dugal

CHRONIQUE - C'est officiel : nous sommes des souris de laboratoire pour les Cambridge Analytica de ce monde. Pendant que les souris dansaient, les chats ne dormaient pas vraiment; ils nous épiaient et analysaient nos moindres faits et « j'aime ».

Michal Kosinski est psychologue, scientifique de données et auteur d’une étude publiée par l’Université de Cambridge il y a 25 ans en âge web, c’est-à-dire en 2014. Dans cette étude, il affirmait déjà que Facebook pouvait vous connaître plus intimement que vos propres collègues de bureau en analysant simplement une dizaine de « j'aime ». Avec 70 « j’aime »? Mieux que vos amis. Avec 150, mieux que vos parents. À partir de 300, il vous connaît mieux que votre douce moitié. Au-delà, mieux que ce que vous voulez bien admettre.

À partir d’un test de personnalité classique de 100 questions, son équipe de chercheurs avait comparé les résultats des participants avec ce que leurs collègues, des membres de leur famille, des amis et leurs conjoints pensaient de ce que les participants auraient répondu. Un échantillon de 14 000 personnes a pu ainsi être étudié.

On a ensuite demandé aux algorithmes de traiter différentes quantités de « j’aime » laissés en ligne par les participants pour voir si la nébuleuse de ces petites traces pouvait servir à dresser un portrait relativement fidèle à celui laissé par les participants avec leur test. Les résultats ont été assez probants pour que d’autres groupes de chercheurs et de gens en marketing décident de s’y attarder.

La face cachée de la grossesse dévoilée

Nos traces en ligne nous définissent, nous trahissent. Deux ans avant cette étude, en 2012, une histoire avait fait la manchette : les algorithmes de la chaîne à grande surface Target avaient pu inférer qu’une adolescente était enceinte par une simple analyse de ses achats au début de sa grossesse : de la lotion nettoyante pour les mains et des vitamines. La compagnie avait d’ailleurs commencé à envoyer des coupons d’achats pour du matériel pour bébé à la maison qu’elle habitait avec son père. Le père s’était plaint à la compagnie pour ces envois selon lui offensants (son adolescente de fille lui avait caché qu’elle était enceinte).

Ça, c’était la préhistoire du ciblage. Des pinottes analogiques à côté de l’affaire Cambridge Analytica.

Un « moteur de recherche d’êtres humains »

Le magazine suisse Das Magazin, qui a enquêté il y deux ans sur Cambridge Analytica, a admirablement bien résumé ce que la science des données jumelée à des algorithmes prédictifs a réussi à créer en quelques années, démontré avec fracas cette semaine par l’outil développé par Christopher Wylie.

Le magazine écrivait alors que Wylie et sa firme avaient développé un « moteur de recherche d’êtres humains ». Paraphrasons donc l'argument de vente de Cambridge à la campagne de Ted Cruz, puis à celle de Donald Trump :

« Vous cherchez un type d’électeur particulier qui pourrait faire la différence lors d’un vote crucial? Nous l’avons. Vous cherchez une femme célibataire sans enfants, sportive, adepte de yoga, dans la trentaine, rurale, écologiste? Voici où ces femmes se trouvent. Voici aussi le genre de contenu qui fait frénétiquement cliquer ces gens, même si ils ne le diront jamais à personne. Vous cherchez des pères divorcés, blancs, peu scolarisés, colériques, riches, urbains et qui aiment le hockey? Il y en a là, là, là. Et ils réagissent généralement très fortement à ce genre de contenu. On l’a déjà testé et ça marche. »

Conséquences électorales

Hugo Cyr, le doyen de la faculté de science politique et de droit de l’Université du Québec à Montréal (UQAM), résumait très bien les conséquences électorales d’un tel changement dans la manière dont les électeurs sont maintenant épiés, et possiblement manipulés, par les appareils politiques avec l’appui de plateformes comme Facebook (j’ai copié-collé des gazouillis qu’il a publiés cette semaine) :

« L’électeur ne peut pas savoir l’info que possèdent les partis sur lui, ne peut pas les faire corriger ou effacer et est visé par des campagnes de micro-ciblage par "dark posts" [publications ciblées qui paraissent dans le fil d'actualité de certaines personnes seulement] qui visent à le manipuler en fonction de ses peurs et désirs. [C’est la] dissolution de l’espace public commun. Ceci accentue ce que Susan Delacourt a démontré dans son [essai] Shopping for Votes : la fin du « big tent politics » (politique en gros) pour le « retail politics » (politique au détail). On passe maintenant à du sur mesure pour viser précisément les quelques votes nécessaires à chaque bureau de scrutin! »

Pire, Hugo Cyr soulignait également que les partis politiques fédéraux s’étaient opposés à la recommandation d’Élection Canada visant à les soumettre aux dispositions d’une loi à laquelle ils ne veulent pas se soumettre. « Alors que les entreprises et organismes gouvernementaux sont soumis aux lois sur la protection des renseignements personnels, les partis fédéraux, eux, ne le sont pas. Les politiciens fédéraux devraient commencer par revoir leur position contre la recommandation d’Élection Canada visant à mieux garantir la protection des renseignements perso des électeurs. »

Capitalisme de surveillance

Dans un rapport fascinant publié cette semaine et intitulé « Ungoverned space: how surveillance capitalism and artificial intelligence undermine democracy », le Centre for international Governance Innovation écrivait fort à propos que les techniques développées il y a peu pour optimiser le commerce en ligne en étudiant les désirs les plus secrets des consommateurs sont en train de pervertir les fondements mêmes de la démocratie.

« La manière dont on collecte et monétise la donnée (le capitalisme de surveillance) et la manière dont la réalité est déterminée algorithmiquement [par la personnalisation extrême des messages politiques] sont deux problèmes structurels qui menacent la démocratie en attaquant le fondement même de l’information nécessaire à l’exercice démocratique. » (traduction libre)

En novembre dernier, le Forum sur le développement socialement responsable de l’intelligence artificielle (IA), organisé par l’Université de Montréal, s’est terminé par le dévoilement du préambule de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Le forum regroupait, pendant 2 jours, 400 participants évoluant dans des champs aussi divers que la cybersécurité, la philosophie, la ville intelligente, la psychologie algorithmique, etc., des gens provenant autant de l’industrie que des chercheurs et des organismes issus de la société civile désireux de voir l’IA utilisée de manière raisonnable.

Dans le préambule de la déclaration, toujours en période de cocréation, on peut lire sous la rubrique « démocratie » le principe suivant : « Le développement de l’IA devrait favoriser la participation éclairée à la vie publique, la coopération et le débat démocratique. » Juste en haut de l’énoncé de ce principe, cette question : « Faudrait-il développer un ou des labels "éthiques" pour les IA, les site web ou les entreprises qui respectent certains standards? »

Il est urgent de répondre à ces questions. On a vu il y a quelques jours un Mark Zuckerberg repentant faire un acte de contrition devant la planète. Devant les caméras d’un média qu’il ne contrôle pas.

Que ferons-nous maintenant que nous savons? Plusieurs s’en doutaient. Beaucoup ont préféré regarder ailleurs. Mais maintenant que Christopher Wylie l’a dit, l’a crié, qu’il a exhibé le méchant loup qui se cachait sous l’habillement de grand-mère, que ferons-nous? Un algorithme, quelque part dans le monde, le sait peut-être.

Intelligence artificielle

Techno