La police espagnole va déployer la reconnaissance faciale automatisée


Une base de données de citoyens.

La police espagnole sera bientôt autorisée à utiliser un outil de reconnaissance faciale automatique, baptisé ABIS (automatic biometric identification system). ABIS utilise l’intelligence artificielle pour identifier les suspects à partir d’une base de données en cours de développement.

ABIS utilise un algorithme appelé Cogent, qui est développé par la société française de technologie militaire Thales. Le programme compare les images introduites par la police, comme une image obtenue par une caméra de sécurité, aux images stockées dans une base de données, qui contiendra plus de cinq millions d’images de suspects et de détenus déjà enregistrées. Les personnes arrêtées après le lancement du système seront ajoutées à la base de données.

La base de données n’utilisera pas d’images provenant de dossiers civils, comme la base de données contenant les photos utilisées pour les documents d’identité nationaux.

Le ministère de l’intérieur a déclaré qu’il travaillait sur ce système depuis trois ans. Le ministère a déclaré qu’ABIS sera utilisé pour enquêter sur les crimes graves et insiste sur le fait qu’il ne sera pas utilisé pour la surveillance.

En Espagne, la police dispose de deux moyens pour identifier les suspects lorsqu’il n’y en a pas : l’analyse des empreintes digitales et de l’ADN. Désormais, elle disposera d’une troisième option, rapporte le Morning Express. Sans reconnaissance faciale automatique, il est impossible de lancer une recherche d’un suspect dans des séquences sans avoir quelque chose qui permette d’affiner la recherche.

La base de données contenant les images faciales sera la même que celle qui contient les échantillons d’ADN et d’empreintes digitales. Ces données sont partagées avec les autres États membres de l’UE dans le cadre du système d’information Schengen (SIS).

“Le système ABIS espagnol peut se connecter aux bases de données européennes, telles qu’Eurodac, EU-Lisa ou VIS, puisque les liens correspondants sont conçus. Il ne s’agit pas d’un système isolé, mais plutôt d’un système interconnecté avec les pays de l’Union européenne”, ont expliqué des sources au sein de Thales.

EL PAÍS a rapporté que l’Agence espagnole de protection des données (AEPD) a contacté le ministère de l’intérieur “pour aborder différents projets du ministère qui pourraient avoir un impact sur la protection des données”. L’agence de protection des données n’avait pas connaissance d’ABIS avant juillet. Elle veut déterminer les risques que le système fait peser sur les droits et libertés des citoyens. Elle veut également savoir combien de temps la police conservera les images des suspects, qui devrait avoir accès aux données, etc.

Le plus gros problème est peut-être que les algorithmes font des erreurs, et dans ce cas, il ne s’agit pas de quelque chose d’aussi anodin qu’une mauvaise recommandation musicale. Aux États-Unis, Robert Williams a été arrêté et mis en prison par erreur parce qu’un système de reconnaissance faciale l’a confondu avec quelqu’un d’autre. La technologie de reconnaissance faciale est très imprécise dans la reconnaissance des personnes de couleur.

Bruxelles a classé la technologie de reconnaissance faciale dans la catégorie des “risques élevés” et travaille à l’élaboration d’une réglementation visant à adopter des approches qui tiennent compte du risque potentiel que représentent les systèmes d’intelligence artificielle. Toutefois, elle a donné son feu vert à l’utilisation de la reconnaissance faciale “à des fins de prévention, d’arrestation ou d’enquête sur des crimes graves ou sur le terrorisme”. La technologie ne peut pas être utilisée à des fins de surveillance.

Cogent a été approuvé par le NIST, un organisme américain indépendant. Mais certains experts estiment que ce n’est pas suffisant.

“Le NIST ne dit pas que les algorithmes sont bons ou mauvais. En outre, l’organisme propose plusieurs évaluations avec des objectifs différents, et nous ne savons pas à quelles évaluations il se réfère”, déclare Carmela Troncoso, professeur à l’École polytechnique fédérale de Lausanne en Suisse.

Eticas Consulting, une société spécialisée dans l’audit des algorithmes, partage le même sentiment : “Conformément à la réglementation européenne, il faut justifier la proportionnalité des technologies à haut risque et établir ce que l’on attend d’elles. Il faut aussi savoir quelles précautions ont été prises pour éviter les biais algorithmiques : il est prouvé que ces systèmes identifient mieux les Blancs que les autres, il faut donc prouver qu’ils ne font pas d’erreurs avec les Noirs.”

Lire aussi : L’Espagne poursuit et condamne sa première affaire au titre de la loi sur les « fake news » en ligne

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *