L’IA pour prédire les crimes à la Minority report est très mauvaise
Le gouvernement britannique a injecté des millions de dollars dans un outil de prédiction des crimes violents qui utilise l’intelligence artificielle.
Aujourd’hui, les responsables sont enfin prêts à admettre que cet outil présente un gros défaut : il est totalement inutilisable. Aussi : de manière prévisible (ironiquement), criblée de problèmes éthiques, comme le rapporte Wired.
La police a déjà cessé de développer le système appelé « Most Serious Violence » (MSV), qui fait partie du projet britannique National Data Analytics Solution (NDAS), et qui n’a heureusement jamais été utilisé – pourtant, de nombreuses questions subsistent à propos du système.
L’outil a fonctionné en attribuant des notes aux personnes en fonction de la probabilité qu’elles commettent un crime avec une arme à feu ou un couteau au cours des deux prochaines années.
Deux bases de données provenant de deux services de police britanniques différents ont été utilisées pour former le système, y compris les dossiers de criminalité et de garde à vue.
Des failles fatales
Heureusement, le système n’a jamais démarré. Selon des documents officiels obtenus par Wired, le système était plein de défauts. « Une erreur de codage a été trouvée dans la définition de l’ensemble des données d’entraînement, ce qui a rendu non viable l’énoncé du problème actuel de MSV », peut-on lire dans un briefing de mars.
« Il s’est avéré impossible, avec les données actuellement disponibles, d’identifier un point d’intervention avant qu’une personne ne commette sa première infraction avec une arme à feu ou un couteau avec un quelconque degré de précision. »
Au lieu de scores de prévisibilité dans les années 70, comme cela a été constaté dans les premiers tests, le système était seulement capable de prédire la violence par arme à feu ou couteau dans moins de 20 % des cas.
Biais
Heureusement, les forces de police ont décidé d’interrompre le développement du système. Cependant, comme le disent les experts de Wired, même avec une précision de 100 %, de nombreux biais subsisteront dans des systèmes similaires à l’avenir, notamment en ce qui concerne l’âge et l’origine ethnique.
Lire aussi : Minority Report – Un logiciel d’IA capable de repérer les voleurs avant qu’ils ne volent
Source : Futurism – Traduit par Anguille sous roche