Un homme condamné à une amende de 400 dollars pour s’être gratté la tête au volant à cause d’une erreur de la caméra intelligente


Un Néerlandais a été condamné à une amende de 380 euros (400 dollars) après qu’une caméra dotée d’une intelligence artificielle l’a surpris en train de téléphoner au volant. Mais il affirme qu’il ne faisait que se gratter la tête et que le système s’est trompé.

Photo : Monocam

En novembre de l’année dernière, Tim Hansen a reçu une amende pour avoir prétendument parlé au téléphone portable au volant un mois plus tôt.

Choqué, principalement parce qu’il ne se souvenait pas avoir utilisé son téléphone au volant ce jour-là, il a décidé de vérifier la photo incriminée sur le site de l’Agence centrale de recouvrement judiciaire. À première vue, il semble que Tim soit en train de parler au téléphone, mais en y regardant de plus près, on s’aperçoit qu’il ne tient rien dans la main. Il se grattait simplement le côté de la tête et la caméra a confondu la position de sa main avec celle d’un téléphone. Ce qui est encore plus déconcertant, c’est que l’humain qui a vérifié la photo et validé son exactitude n’a pas non plus repéré le “faux positif”.

Hansen, qui travaille dans le domaine de l’informatique et crée des algorithmes qui éditent et analysent les images, a utilisé son expérience personnelle pour expliquer le fonctionnement du système de caméras de la police, Monocam, et les raisons pour lesquelles il peut faire des erreurs. Même s’il n’a pas pu tester Monocam lui-même, il a expliqué comment le système est conçu pour fonctionner et pourquoi il peut produire des faux positifs.

“Si un modèle doit prédire si quelque chose est ‘oui’ ou ‘non’, il peut bien sûr arriver que le modèle se trompe”, écrit Tim. “Dans le cas de mon billet, le modèle a indiqué que je tenais un téléphone, alors que ce n’est pas le cas. On parle alors de faux positif. Un modèle parfait ne prédit que des vrais positifs et des vrais négatifs, mais il est rare qu’une prédiction soit correcte à 100 %.”

L’informaticien explique que les systèmes comme Monocam doivent être entraînés sur un grand ensemble d’images divisé en deux ou trois groupes : un ensemble d’entraînement, un ensemble de validation et un ensemble de test. Le premier ensemble est utilisé pour apprendre à l’algorithme quels objets se trouvent sur quelles images et quelles propriétés (couleurs, lignes, etc.) leur appartiennent, le deuxième pour optimiser un certain nombre d’hyperparamètres de l’algorithme et le troisième pour tester le fonctionnement réel du système.

“L’algorithme que nous avons utilisé, et celui de la police, peut suspecter la présence d’un téléphone parce que l’ensemble de données d’entraînement contient de nombreux exemples de personnes appelant avec un téléphone dans la main à côté de l’oreille”, a déclaré Tim. “Il se peut que l’ensemble de données d’apprentissage ne contienne que peu ou pas de photos de personnes assises avec une main vide sur l’oreille. Dans ce cas, il est moins important pour l’algorithme de savoir si le téléphone est réellement tenu dans la main, mais il suffit que la main soit près de l’oreille. Pour améliorer ce résultat, il faudrait ajouter davantage de photos où la main est vide.”

M. Hansen affirme qu’en raison des nombreuses variables qui peuvent influencer la décision d’un algorithme, un filtre humain est nécessaire pour minimiser le nombre de faux positifs. Dans son cas seulement, l’amende a été confirmée par un humain après analyse de la photo prise par la caméra, ce qui n’est pas non plus une solution infaillible.

Le conducteur néerlandais a contesté l’amende et espère une issue positive, mais il devra maintenant attendre jusqu’à 26 semaines pour connaître le verdict officiel. Son cas est devenu viral aux Pays-Bas et dans les pays voisins comme la Belgique, où certaines institutions demandent l’installation de caméras capables de détecter l’utilisation de téléphones portables au volant, mais l’histoire de Tim prouve qu’elles sont loin d’être fiables à 100 %.

Lire aussi : Le nombre de personnes arrêtées à la suite d’erreurs de reconnaissance faciale augmente

Source : Oddity Central – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *