Clearview AI sous la loupe : la fin de la vie privée ?

Une nouvelle controverse tombe sur Clearview AI, la technologie de reconnaissance faciale qui pourrait mettre fin à notre vie privée.

Le débat sur l’accès aux données personnelles dans un monde de plus en plus informatisé continue. En 2018, Facebook a fait l’objet de fortes critiques et d’enquêtes judiciaires lors du scandale Cambridge Analytica. Dans ce moment, le monde eut connaissance que la plateforme avait mis une très grande quantité d’informations personnelles de ses utilisateurs à disposition de la firme américaine sans permission directe de ses clients. Telles données avaient à la suite servi pour guider les mouvements politiques de campagnes d’élections aux États-Unis.

Désormais, une nouvelle controverse est tombée su Clearview AI, une technologie de reconnaissance faciale qui pourrait bien mettre fin à nos idées conçues sur la vie privée.

Crée par le développeur australien, Hoan Ton-That, Clearview AI est une application qui analyse et compare les photographies du visage humain avec une base de données gigantesque, pour en ressortir des informations qui vont du plus général au plus spécifique sur la personne en question.

L’enquête sur Clearview AI a été publiée dans un premier moment par le périodique The New York Times, 18 janvier dernier. Très rapidement, l’application a été mise en question par les analystes, qui ont averti du risque que le mauvais usage de ses images et informations personnelles pourrait signifier.

Il fut établi que près de 600 services gouvernementaux aux États-Unis et le Canada auraient utilisé le service numérique à un moment ou un autre.

Au Canada, la Gendarmerie royale a reporté que ses investigateurs avaient pu sauver deux enfants à travers l’application. L’agence interne de cette Gendarmerie dédiée à ces cas, le National Child Exploitation Coordination Centre (NCECC) se serait servi de l’application de manière « limitée » pour 4 mois, au moins.

D’après l’écrit, la base de données de Clearview AI se compose d’environ 3 milliards de photographies, dont une grande partie a été extraite, sans notification aucune, de réseaux sociaux comme Facebook ou Instagram.

Tout justement, les premières voix qui se sont fait écouter contre Clearview AI ont été les compagnies affectées, qui ont protesté pour la mauvaise utilisation des images versées sur ses plateformes. Quelques jours après le rapport du Times, Twitter s’est adressé à Clearview AI par moyen d’une lettre de cessation et d’abstention qui argumentait que ses politiques avaient été contrevenues. La missive du mardi 21 exigeait également la suppression de toutes les données recueillies par l’application.

Au même moment, le sénateur américain Ron Wyden communiquait que ses concitoyens avaient « le droit de savoir si leurs photos personnelles sont secrètement versées dans une base de données privée de reconnaissance faciale ». Un deuxième fonctionnaire, Edward J Markey, signalait que ce type de technologie pourrait faciliter « les comportements dangereux » en plus d’empêcher aux individus « à mener leur vie de manière anonyme ». Les forces de l’ordre de l’état de New Jersey ont depuis interdit l’utilisation de l’application.

En réponse à l’agitation généralisée, Clearview AI a fait appel à son Code de conduite dans un écrit où la compagnie assurait que son outil était « uniquement disponible pour les organismes chargés de l’application de la loi et certains professionnels de la sécurité qui l’utilisent comme outil d’investigation ». « L’application Clearview est dotée de mécanismes qui assurent que ces professionnels ne l’utilisent que dans le but prévu : aider à identifier les auteurs et les victimes de crimes », continuait la déclaration de la compagnie.

Hélas, un nouvel rapport du New York Times publié le 5 mars informait qu’un groupe de grands investisseurs (sans aucun rapport aux « professionnels » cités par Clearview) avaient eu accès exclusif à ses services pour au moins une année avant que l’application eut été dévoilée au grand public. L’agence illustrait l’exemple du milliardaire John Catsimatidis, qui s’était servi de la technologie de reconnaissance pour identifier le nouvel chéri de sa fille dans un restaurant au quartier de SoHo.

Le Times faisait le point sur les « démonstrations de pouvoir » que les clients de Clearview AI attestaient aux grandes réunions entre ses paires. D’après le périodique, même les enfants de David Scalzo (fondateur de la société d’investissement Kirenaga Partners) aimaient jouer avec l’application et l’utilisaient « sur elles-mêmes et sur leurs amis ». « C’est assez amusant », continuait-il.

Ton-That se justifiait au retour, avouant que « des comptes d’essai aux investisseurs potentiels et actuels, ainsi qu’à d’autres partenaires stratégiques » avaient été fournies pour tester cette technologie. Après sa création en 2017, l’application a reçu un investissement initial d’environ 1 million de dollars en juillet 2018 de la part de Peter Thiel, un entrepreneur relié à la politique républicaine.

Néanmoins, la liste d’utilisateurs privés n’était pas réservée qu’à quelques individus, mais aussi des organisations. De même forme que le Times, Buzzfeed reportait qu’au moins un syndicat, une entreprise immobilière, la National Basketball Association ainsi que les sociétés Best Buy, Kohl’s, Macy’s et près de 2 000 autres groupes, se trouvaient parmi les utilisateurs de Clearview AI.

Juste un jour avant que les enquêtes du New York Times aient été publiées, la Commission européenne communiquait sa volonté d’interdire l’utilisation des technologies de reconnaissance faciale dans les espaces publics pour une période de 5 ans. Si ces mesures sont introduites sur le continent, les restrictions pourraient s’appliquer aux gouvernements et aux clients de cette technologie, ainsi qu’à ses développeurs.

La proposition est arrivée après que plusieurs politiciens britanniques portèrent plainte contre le service métropolitain de la police de Londres, qui aurait fourni des images capturées par son système de surveillance à une base de données du domaine de King’s Cross.

D’après un sondage entre la population chinoise distribué par le Financial Times, 74% des enquêtés préféreraient pouvoir s’identifier à travers les moyens « traditionnels » en revanche des options numériques. Une grande partie d’entre eux assurait aussi que sa crainte la plus forte était la possibilité que ses données personnelles furent piratées.

À dire de la firme de cyber sécurité Comparitech, la Chine occupe désormais le premier poste dans la liste des 5 pays qui recueillent le plus grande quantité d’informations biométriques de ses citoyens. D’après le rapport, les systèmes de vidéosurveillance (CCTV) seraient utilisés de manière « invasive », visant à identifier et contrôler les activités des groupes minoritaires d’origine musulmane, comme les Ouïghours.

La reconnaissance faciale dans ce pays est appliquée dans les transports en commun et même au moment de l’achat d’une nouvelle ligne de téléphone portable. Des informations fournies par Comparitech assurent aussi que les données biométriques des touristes visitant la Chine sont aussi enregistrées par ce gouvernement.

Les technologies de reconnaissance sont souvent utilisées pour l’authentification identitaire, pour des applications si communes comme le déverrouillage des appareils portables.

En France, la plateforme Alicem permet d’accéder de manière sécurisée aux services de la sécurité sociale à travers les informations biométriques du citoyen. Néanmoins, l’application développée par le ministère de l’Intérieur et l’Agence nationale des titres sécurisés (ANTS) spécifie qu’un des grands objectifs de sa création est de protéger ces données « contre l’usurpation d’identité en ligne, et de façon plus générale, contre la cybercriminalité ».

Au compter du 11 mars, l’état de Vermont, à travers son procureur général, a commencé un procès légal contre Clearview AI, demandant à la société de cesser l’enregistrement des images et données des citoyens de cette région.

Source de l’image : somagnews.com