L’IA pour prédire les crimes à la Minority report est très mauvaise


Le gouvernement britannique a injecté des millions de dollars dans un outil de prédiction des crimes violents qui utilise l’intelligence artificielle.

msv

Aujourd’hui, les responsables sont enfin prêts à admettre que cet outil présente un gros défaut : il est totalement inutilisable. Aussi : de manière prévisible (ironiquement), criblée de problèmes éthiques, comme le rapporte Wired.

La police a déjà cessé de développer le système appelé « Most Serious Violence » (MSV), qui fait partie du projet britannique National Data Analytics Solution (NDAS), et qui n’a heureusement jamais été utilisé – pourtant, de nombreuses questions subsistent à propos du système.

L’outil a fonctionné en attribuant des notes aux personnes en fonction de la probabilité qu’elles commettent un crime avec une arme à feu ou un couteau au cours des deux prochaines années.

Deux bases de données provenant de deux services de police britanniques différents ont été utilisées pour former le système, y compris les dossiers de criminalité et de garde à vue.

Des failles fatales

Heureusement, le système n’a jamais démarré. Selon des documents officiels obtenus par Wired, le système était plein de défauts. « Une erreur de codage a été trouvée dans la définition de l’ensemble des données d’entraînement, ce qui a rendu non viable l’énoncé du problème actuel de MSV », peut-on lire dans un briefing de mars.

« Il s’est avéré impossible, avec les données actuellement disponibles, d’identifier un point d’intervention avant qu’une personne ne commette sa première infraction avec une arme à feu ou un couteau avec un quelconque degré de précision. »

Au lieu de scores de prévisibilité dans les années 70, comme cela a été constaté dans les premiers tests, le système était seulement capable de prédire la violence par arme à feu ou couteau dans moins de 20 % des cas.

Biais

Heureusement, les forces de police ont décidé d’interrompre le développement du système. Cependant, comme le disent les experts de Wired, même avec une précision de 100 %, de nombreux biais subsisteront dans des systèmes similaires à l’avenir, notamment en ce qui concerne l’âge et l’origine ethnique.

Lire aussi : Minority Report – Un logiciel d’IA capable de repérer les voleurs avant qu’ils ne volent

Source : Futurism – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *