Jeux olympiques de Paris : attention, on vous surveille

Une caméra de vidéosurveillance
Photo : getty images/istockphoto / pixinoo
Le Sénat français a adopté à la fin janvier un projet de loi controversé sur la mise en place d’un système de vidéoprotection traité par l’intelligence artificielle. Il sera expérimenté durant les prochains Jeux olympiques en 2024.
Les spécialistes appellent cela la vidéosurveillance algorithmique (VSA). Ce système automatisé de caméras permettra de capter en temps réel tout comportement qui pourrait paraître suspect sur la place publique. Il assure ainsi la sécurité des manifestations sportives.
Les organisateurs des JO justifient la mise en place d’un tel système parce qu'ils s’attendent à recevoir plus d’une dizaine de millions de visiteurs.
Pour surveiller les mouvements de foule, l’œil humain ne suffirait pas à suivre toutes les caméras de surveillance. C’est pour cela que l’on fait appel à l’intelligence artificielle.
Noémie Levain, juriste pour la Quadrature du net, une association qui défend les libertés fondamentales dans l’environnement numérique et qui lutte contre la censure et la surveillance, est une des voix qui s'élèvent contre l'utilisation du VSA, notamment pour des questions de libertés publiques.
« C’est une technologie très intrusive sur le plan de nos données personnelles, car cela analyse nos comportements, nos déplacements en permanence. »
Lors d'un entretien avec Radio-Canada Sports, elle a expliqué que ces vidéosurveillances algorithmiques permettront une surveillance constante des personnes.
On va les classer, les catégoriser comme normales ou pas normales, suspects ou pas suspects. Mais comment un algorithme peut-il reconnaître ce qui est suspect ou non, normal ou non? La police qui utilise déjà ces vidéos de surveillance sait déjà reconnaître qui est suspect ou non. Ce qui est dangereux, c’est que ces algorithmes vont renforcer des pratiques déjà discriminatoires, déjà stigmatisantes des personnes qui sont déjà dans l’espace public
, dit la juriste.
Imaginons une personne qui court. Eh bien, on va créer un algorithme de toutes les personnes qui courent dans l’espace public. Mais comment distinguer un joggeur d’un voleur ou d’un terroriste? Si vous êtes en avance à un rendez-vous et que vous faites trois fois le tour d'un pâté de maisons et que vous passez trois fois devant la même porte, l'algorithme va considérer que vous êtes une personne suspecte
, ajoute-t-elle.
La juriste s’inquiète pour les libertés individuelles qui vont se restreindre avec cette expérimentation et qui risquent de perdurer une fois les Jeux olympiques terminés.
La France va devenir le premier pays européen à utiliser ces algorithmes de surveillance. Un leader en Europe! On s’éloigne donc des principes démocratiques, du respect de l’anonymat et des libertés qui sont les bases d’une société démocrate.
« On se rapproche de manière dangereuse des États autoritaires qui placent la surveillance de la population comme un postulat de base de leur politique de sécurité. »
L'efficacité des caméras de surveillance remise en question
Guillaume Gormand est docteur en administration publique et chercheur associé à l’Université de Grenoble. Il a publié en 2021 une étude exclusive et inédite sur l’efficacité des systèmes de vidéosurveillance. Ses résultats sont on ne peut plus clairs.
On savait déjà que l'installation de caméras de surveillance dans les rues n'a pas d’effets dissuasifs. Et aujourd’hui, on donne trop de place à une technologie dont l’efficacité est fantasmée
, explique le chercheur français.
Cela fait plus de 10 ans que Guillaume Gormand travaille sur les questions de vidéosurveillance. Il en a d'ailleurs fait son sujet de thèse de doctorat. Selon le chercheur, ces algorithmes devraient accompagner les opérateurs de vidéosurveillance pour les aider à établir ce qui pourrait sembler problématique.
L'inquiétude pour lui, c'est que bientôt l'on va tout automatiser et remplacer l'humain. Là, toutes les dérives sont possibles, car l’intelligence artificielle a ses limites.
Le premier problème c'est que l'on ne sait pas comment un algorithme va pouvoir distinguer un comportement anormal ou normal, soulève le chercheur. Un opérateur va pouvoir distinguer si ce sont deux personnes qui s'étreignent, ou bien une rixe ou encore un pickpocket en action. Je n’ai pas la garantie à l’heure actuelle que l’intelligence artificielle pourra analyser ces différents comportements. C’est ce fantasme que l’on essaie de nous vendre.
« Si l'homme n'est plus là pour distinguer les choses les conséquences risquent d'être nuisibles. »
Regardez, avant, on avait des gardiens d'immeuble. Aujourd'hui, on a des digicodes pour les remplacer. Je ne suis pas certain que l'on soit gagnants
, ajoute le chercheur.
Guillaume Gormand est inquiet et parle même de risques pour la tenue des Jeux olympiques, car on veut appliquer une nouvelle technologie sans avoir étudié au préalable comment fonctionnait l’ancienne
.
Ce n'est rien de bien rassurant pour les millions de visiteurs qui seront sur place l’été prochain.