La liste de clients de Clearview AI a été volée

La technologie de reconnaissance faciale de Clearview est utilisée par plus de 600 services policiers, dont certains sont canadiens.
Photo : getty images/istockphoto / AndreyPopov
Prenez note que cet article publié en 2020 pourrait contenir des informations qui ne sont plus à jour.
L’entreprise américaine derrière une controversée application de reconnaissance faciale utilisée par les forces de l’ordre Clearview AI a été victime d’un vol de données, a confirmé son avocat mercredi. Sa liste de clients et la quantité de recherches effectuées par chacun d’entre eux figurent parmi les données obtenues.
La sécurité est la plus grande priorité de Clearview. Malheureusement, les brèches de données font partie de la vie au 21e siècle
, a déclaré l’avocat de l’entreprise, Tor Ekeland, dans un communiqué, confirmant du même coup que les pirates n’ont pas eu accès aux serveurs de Clearview et que la faille de sécurité à l’origine du vol est maintenant réglée.
L’entreprise soutient qu’une personne a obtenu un accès non autorisé
à sa liste de clients.
Une application controversée
C’est en puisant des milliards de photos sur le web que Clearview AI a développé une application de reconnaissance faciale qui peut identifier les gens à partir d’une seule photo de leur visage.
Il suffit de téléverser une photo de la personne que vous désirez identifier, et l’application vous montre toutes les images publiques de la personne en question, en plus des sources de chacun des clichés. Selon l’entreprise, l’application a un taux d’efficacité de 75 %, et fonctionne même si le visage est obstrué ou capté sous un angle qui n'est pas optimal.
L’application de Clearview est utilisée par plus de 600 services policiers, dont certains canadiens. La police de Toronto a par exemple avoué il y a quelques semaines que certains de ses agents et agentes avaient testé la technologie. Le Service de police de la Ville de Montréal (SPVM) dit pour sa part ne pas pouvoir confirmer ou infirmer
qu’il utilise une technologie de reconnaissance faciale.
À lire aussi :
- Les autorités canadiennes se penchent sur Clearview et sa reconnaissance faciale
- Une application utilisée par la police peut identifier les gens à partir d’une seule photo
- La police de Toronto a utilisé une technologie d’intelligence artificielle controversée
- Google, Facebook et Twitter mettent en demeure Clearview AI
- La police d’Edmonton répond aux inquiétudes sur l'adoption de la reconnaissance faciale
Enquête canadienne
La semaine dernière, le commissaire à la protection de la vie privée du Canada et trois de ses homologues provinciaux, dont la Commission d'accès à l'information du Québec, ont annoncé qu’ils enquêtaient conjointement sur l'utilisation de la technologie de Clearview.
C’est surtout le fait que Clearview recueille et utilise des informations personnelles de la population sans consentement qui a mené à cette enquête, qui vise à déterminer si l’entreprise respecte les lois canadiennes sur la protection des renseignements personnels.
Le Commissariat à la protection de la vie privée du Canada avait également indiqué que les agences de protection de la vie privée de toutes les provinces et de tous les territoires élaboreraient ensemble des orientations à l'intention des organisations, y compris les corps policiers, sur l'utilisation de la technologie biométrique, dont la reconnaissance faciale.
Clearview affirme avoir aidé les autorités à identifier des prédateurs sexuels, des gens impliqués dans des histoires de vol d’identité et même une personne trouvée morte sur un trottoir.
Même si sa technologie de reconnaissance faciale existe depuis la fin de 2017, Clearview est restée invisible au public jusqu’en décembre 2019, quand la police floridienne a révélé s’être servie de cette application pour identifier une voleuse à l’étalage.
Le New York Times a levé le voile sur les pratiques de Clearview dans une enquête publiée en janvier. L’entreprise a ensuite été mise en demeure par Google, Facebook et Twitter, qui lui ont demandé de ne plus puiser d’images de leurs plateformes pour alimenter ses algorithmes.
Avec les informations de The Daily Beast et CNN