Selon un rapport, 81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Grand Londres sont innocents

Dans les pays comme la Grande-Bretagne ou les États-Unis, intégrer l’intelligence artificielle dans les zones stratégiques telles que les tribunaux et la police est un exercice auquel les autorités se livrent depuis quelques années maintenant.

En Grande-Bretagne par exemple, la police utilise depuis trois années environ une technologie de reconnaissance faciale pour retrouver les suspects. Cependant, la technologie est vivement contestée. Selon un rapport indépendant révélé exclusivement au média britannique Sky News, environ 81 % des suspects signalés par la technologie de reconnaissance faciale de la police du Met seraient en effet innocents.

Depuis que la police de ces pays a commencé à faire appel à la technologie de reconnaissance faciale, les avis qui sont contre cela sont les plus nombreux. Cette technologie est-elle sans biais ? Certainement pas, concluent certains. À Londres, la police métropolitaine (Metropolitan Police Service ou The Met) soutient depuis l’intégration de sa technologie de reconnaissance faciale que sa marge d’erreur est quasiment négligeable. Autrement dit, selon le Met, la technologie ne commet qu’une seule erreur sur 1000 cas. Le Met utilise cependant une métrique assez particulière pour arriver à cette conclusion.

Par contre, selon un rapport indépendant fourni par des chercheurs à Sky News, la technologie de reconnaissance faciale de la police se trompe presque tout le temps. Ils estiment que dans 81 % des cas, la technologie identifie des personnes innocentes comme étant des suspects alors qu’ils ne figurent sur aucune liste de personnes recherchées. Le rapport souligne des préoccupations majeures quant à la fiabilité de la technologie. Les chercheurs ont avancé que la technologie utilisée par Scotland Yard (quartier général du Met) souffre d’insuffisances majeures et en appellent à l’arrêt du programme de reconnaissance faciale.

Lorsque les tests ont commencé à Londres l’année passée, les inquiétudes étaient nombreuses et l’une d’elles concernait son imprécision. Dans une publication parue en mai 2018, The Independant faisait état de ce que l’IA utilisée par les forces de police anglaises a rapporté des faux positifs dans 98 % des cas, apostrophant des individus qui n’avaient pas leur profil enregistré dans une base de données criminelle ; de quoi exacerber les craintes des populations déjà accrochées au reproche de la violation de leur vie privée. « S’ils en font usage, nous devons être au courant. Espérons que cela apportera des avantages, car la dernière chose dont on veut entendre parler est un meurtre ou une agression au couteau », a laissé entendre l’un des cobayes des tests.

La police du Met maintient que son outil ne commet qu’une erreur sur mille cas, mais elle utilise une mesure différente pour arriver à cette conclusion. Autrement dit, le Met mesure l’exactitude en comparant les correspondances réussies et non réussies avec le nombre total de visages traités par le système de reconnaissance faciale. Selon cette mesure, le taux d’erreur n’était que de 0,1%. Cependant, dans l’approche du Met, les chercheurs ont souligné plusieurs imperfections. Ils ont cité des problèmes techniques, opérationnels et juridiques.

La première évaluation indépendante du projet a été commandée par Scotland Yard et menée par des universitaires de l’Université d’Essex. Selon une conclusion du rapport, « il est grandement possible que l’utilisation du système de reconnaissance faciale par le Met soit jugée illégale si elle était contestée devant un tribunal ». De plus, les professeurs Pete Fussey et Daragh Murray qui ont procédé à l’évaluation de l’outil ont affirmé que l’utilisation de la reconnaissance faciale par le Met lors de ces procès manquait d’une « base légale explicite » et ne tenait pas compte de la manière dont cette technologie violait les droits fondamentaux de l’homme.

« Notre rapport a mené une analyse juridique académique détaillée de la documentation utilisée par le Met comme base pour les procès de reconnaissance faciale. Il y a quelques lacunes et si le Met était traduit devant un tribunal, il y avait de bonnes chances qu’il soit contesté avec succès », a déclaré le professeur Fussey à Sky News. Contrairement au Met, les professeurs Pete Fussey et Daragh Murray ont tiré des conclusions très préoccupantes. Ils ont évalué la précision de la technologie dans six des dix procès de la police.

Ces derniers ont constaté que sur 42 correspondances, seules huit avaient été vérifiées, soit un taux d’erreur de 81 %. Quatre des 42 personnes étaient des personnes qui n’ont jamais été retrouvées parce qu’elles ont été absorbées par la foule. La question qui brûle les lèvres est de savoir si le Met utilise illégalement la technologie de reconnaissance faciale. D’après le rapport, lorsque la reconnaissance faciale en direct est utilisée dans des lieux publics, toute personne se trouvant à portée de vue des caméras est considérée comme étant sous surveillance apparente. Le Met a indiqué qu’il a informé les passants des essais en affichant des panneaux et en tweetant sur l’événement.

Cela dit, les chercheurs ne trouvent pas cela assez suffisant. De plus, il apparaît que toutes les personnes qui évitent les caméras LFR ou les caméras de reconnaissance faciale sont considérées comme des suspects par la technologie. Selon les coauteurs de l’évaluation, traiter l’évitement des caméras LFR comme un comportement suspect mine la prémisse du consentement éclairé. « L’arrestation d’individus évitant d’être flashés par les caméras LFR pour des infractions plus mineures que celles utilisées pour justifier les déploiements de tests soulève des questions claires en ce qui concerne l’extension des pouvoirs de la police », ont-ils expliqué.

Selon le rapport, les données utilisées pour créer des listes de surveillance n’étaient pas à jour et des personnes ont été arrêtées alors que leur cas avait déjà été traité. Dans d’autres cas, il n’y avait aucune raison claire pour laquelle des personnes ont été mises sur des listes de surveillance, laissant “une ambiguïté significative” sur l’objectif de la reconnaissance faciale. Les contestations visant la technologie de reconnaissance faciale du Met sont de plus en nombreuses. L’utilisation par le Met de la reconnaissance faciale est contestée devant les tribunaux par Big Brother Watch (BBW), un groupe de campagne anti-surveillance.

Le groupe réclame évidemment l’arrêt de l’utilisation du programme par le Met. « La seule question à présent est de savoir quand le Met va enfin s’engager à cesser d’utiliser la reconnaissance faciale », a déclaré la directrice du groupe BBW, Silkie Carlo. Mais dans le même temps, le Met possède également ses défenseurs. Le Home Office a défendu le Met, en affirmant qu’il apporte son aide à la police du Met à mettre à l’essai les nouvelles technologies destinées à protéger le public, y compris la reconnaissance faciale, ce qui peut les aider à identifier les criminels.

« Le gouvernement estime qu’il existe un cadre juridique pour l’utilisation de la technologie de reconnaissance faciale en direct, bien que cela soit contesté devant les tribunaux et nous ne voudrions pas anticiper l’issue de cette affaire », a déclaré le Home Office. À cet effet, un procès est en cours à Cardiff contre l’utilisation de la technologie de reconnaissance faciale. Le groupe de défense des droits de l’homme Liberty a également lancé un recours judiciaire contre la police du Pays de Galles, qui entreprend un programme de reconnaissance faciale en direct dans le Sud du pays financé par le Home Office.

Lire aussi : L’utilisation de la reconnaissance faciale à la place des cartes d’embarquement gagne un peu plus de terrain et s’invite chez Delta Air Lines

Source : Developpez par Bill Fassinou

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *