Des scientifiques mettent au point un nouvel algorithme capable de prédire où les crimes vont se produire une semaine à l’avance


Avec une précision de 90 %.

Ce ne sera pas le premier algorithme conçu à cette fin : prédire où les crimes vont se produire. D’autres publications dans le même genre, encore plus controversées, ont même fait l’objet de suppression en ligne.

La nouvelle publication d’une équipe de scientifiques de l’université de Chicago, qui ne manque pas de faire penser au film Minority Report, n’échappe pas aux débats en matière de biais qui ont touché à celles qui la précède. En effet, crime est un terme chapeau auxquels l’association d’un pourcentage de précision passe mal au travers de plusieurs gorges. L’équipe de chercheurs se veut d’ailleurs prudente en recommandant d’éviter d’en faire usage pour un ratissage proactif des quartiers. De quoi donner du crédit aux craintes des défenseurs des droits de l’Homme ?

Le nouvel algorithme examine les coordonnées temporelles et spatiales d’événements discrets et en détecte des modèles pour prédire les événements futurs. Il divise la ville en tuiles spatiales d’environ 1000 pieds de côté et prédit la criminalité dans ces zones. Les modèles précédents s’appuyaient davantage sur les frontières politiques ou de voisinage traditionnelles. Les résultats du modèle sont basés sur les données de plusieurs villes américaines : Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco.

Une étude de chercheurs de l’université américaine privée à but non lucratif de Harrisburg restera dans les annales pour sa suppression en ligne après publication. Sa conclusion de façon ramassée était qu’un logiciel peut prédire qu’un tiers sera criminel avec une précision de 80 % et sans biais racial, ce, rien qu’en s’appuyant sur sa photo. Le communiqué, qui avait commencé à être partagé sur Twitter, avait attiré un afflux important de contradicteurs. « L’étude a été retirée du site web à la demande de la faculté impliquée dans la recherche. Elle travaille sur une mise à jour du document afin de répondre aux préoccupations soulevées », avait indiqué le communiqué y relatif. La mise à jour reste attendue.

En 2016, une équipe de recherche de la Jiao Tong University de Shanghai publiait son étude liant criminalité et caractéristiques faciales des individus. Dans les chiffres, l’étude rapporte que le système est capable de détecter avec une précision de 90 % qui est le plus susceptible d’être un criminel, ce, sans biais.

La phase d’entraînement de l’intelligence artificielle de l’université chinoise s’est faite avec plus de mille clichés d’individus tirés de cartes d’identité nationales dont sept cents appartenaient à des criminels reconnus. Il est peut-être là le problème avec ces systèmes. En effet, une étude de chercheurs du MIT montre que la création d’une intelligence artificielle psychopathe tient à une chose essentielle : la nourrir d’images ultras violentes lors du processus d’entraînement. C’est une illustration du problème de biais des données fournies aux intelligences artificielles qui semble être la raison profonde des controverses que l’on observe. Si l’on inverse le regard sur les taux de précision, il faut dire qu’il y a 10 à 20 % de faux positifs en fonction des résultats de l’université auxquels on fait allusion. C’est un problème quand on sait que cela représente un paquet de personnes susceptibles d’être accusées à tort comme l’ont été des membres du Congrès des USA par une intelligence artificielle. C’est la raison pour laquelle les organisations de défense des droits de l’Homme formulent des inquiétudes.

Lire aussi : L’IA du Pentagone peut-elle prédire les événements plusieurs jours à l’avance ?

Sources : DeveloppezEtude


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *