La Chine introduit un « procureur IA » capable d’inculper automatiquement les citoyens d’un crime


Dystopique.

Alors qu’en Occident, la plupart des discours et des mouvements des personnes sont contrôlés par des systèmes de censure et de surveillance automatisés “IA”, en Chine, les travaux semblent bien avancés pour créer une machine qui agirait comme un procureur alimenté par l’IA.

Le produit, qui a déjà été testé par le bureau du procureur de Shanghai Pudong, très actif, est capable d’atteindre une précision de 97 % dans l’inculpation de personnes soupçonnées de huit actes criminels, selon les chercheurs qui le développent.

Selon le South China Morning Post, les affaires que le “procureur IA” serait capable de traiter avec une grande compétence concernent des délits tels que la fraude à la carte de crédit, la conduite dangereuse, les jeux d’argent, les blessures intentionnelles, l’obstruction aux fonctionnaires, le vol, mais aussi ce que l’on appelle “se quereller et provoquer des problèmes”.

Ce dernier est considéré comme particulièrement “problématique” car sa définition, ou son absence de définition, peut couvrir différentes formes de dissidence politique.

Il est maintenant prévu d’introduire une machine qui aurait le pouvoir de prendre des décisions, notamment sur l’opportunité de porter plainte et sur la peine à demander au cas par cas.

Selon le professeur Shi Yong, qui dirige le laboratoire de gestion des connaissances et du big data de l’Académie des sciences chinoise à l’origine du projet, il s’agit là d’une différence marquée par rapport à d’autres outils d’“IA” déjà utilisés en Chine depuis des années. L’un d’entre eux est le système 206, dont les tâches se limitent à évaluer les preuves, le danger qu’un suspect représente pour le public et les conditions dans lesquelles il peut être appréhendé.

Mais la technologie qui sous-tend le nouveau procureur artificiel semble être à la fois beaucoup plus ambitieuse et avancée. Ce qui a été révélé, c’est qu’il peut être exécuté sur un PC de bureau, traiter 1 000 caractéristiques extraites de la description d’une affaire par des humains et, à partir de là, lancer une accusation.

Il n’est pas certain que la base de données de 17 000 cas sur cinq ans utilisée pour entraîner les algorithmes soit suffisante pour considérer le projet comme une véritable IA – et si le même résultat peut être obtenu par des algorithmes basés sur des règles.

Quoi qu’il en soit, les procureurs humains ne sont pas tous ravis de voir une partie de leur charge de travail remplacée de cette manière, même si c’est précisément ce qui a motivé le développement de cette technologie.

“La précision de 97 % peut être élevée d’un point de vue technologique, mais il y aura toujours un risque d’erreur. Qui assumera la responsabilité lorsque cela se produira ? Le procureur, la machine ou le concepteur de l’algorithme ?”, a fait remarquer un procureur basé à Guangzhou, sous couvert d’anonymat.

Lire aussi : Des scientifiques affirment avoir surpris la Chine en train de modifier la météo

Source : Reclaim The Net – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. BlueMan dit :

    Une machine n’a ni conscience, ni empathie, ni pitié ou miséricorde, c’est la rigueur absolue, c’est-à-dire la tyrannie la plus extrême.

    Toute la difficulté, et cela s’appelle sagesse, c’est de demeurer au centre des deux piliers de la rigueur et de la miséricorde. Et cela ne peut se faire que par un être conscient, éduqué, éveillé, et sage.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *