L’IA peut-elle être plus efficace que les humains dans le système judiciaire ?


L’IA est plus rapide et plus efficace que les humains à bien des égards, mais devrait-elle un jour nous juger ?

L’IA est appelée à remplacer de nombreux emplois humains à l’avenir, mais les avocats et les juges devraient-ils en faire partie ? Nous examinons ici où l’IA est déjà utilisée dans les systèmes judiciaires du monde entier et discutons de la question de savoir si elle devrait jouer un rôle plus important.

Pourrait-on, ou devrait-on, développer un jour une IA capable de porter un jugement sur un être humain vivant, qui respire ?

Comment l’IA est-elle actuellement utilisée dans les systèmes judiciaires ?

Croyez-le ou non, l’IA et certaines formes d’algorithmes avancés sont déjà largement utilisés dans de nombreux systèmes judiciaires à travers le monde. Dans les différents États des États-Unis, par exemple, des algorithmes prédictifs sont déjà utilisés pour aider à réduire la charge du système judiciaire.

“Sous l’immense pression de réduire le nombre de prisonniers sans risquer une augmentation de la criminalité, les salles d’audience à travers les États-Unis se sont tournées vers des outils automatisés pour tenter de faire passer les accusés par le système judiciaire de la manière la plus efficace et la plus sûre possible.” – Technology Review.

Pour y parvenir, les services de police américains utilisent des algorithmes prédictifs afin de déterminer où déployer leurs forces le plus efficacement. En recevant des statistiques historiques sur la criminalité et d’autres technologies, comme la reconnaissance des visages, on espère que ce niveau d’automatisation contribuera à améliorer l’efficacité de leurs ressources humaines.

Le service judiciaire américain utilise également d’autres formes d’algorithmes, appelés algorithmes d’évaluation des risques, pour aider à traiter les cas après l’arrestation.

“Les outils d’évaluation du risque sont conçus pour faire une chose : prendre en compte les détails du profil d’un accusé et attribuer une note de récidive – un chiffre unique estimant la probabilité qu’il récidive.

Un juge tient compte de ces résultats dans une myriade de décisions qui peuvent déterminer le type de services de réadaptation dont un accusé devrait bénéficier, s’il devrait être détenu en prison avant son procès et quelle devrait être la sévérité de sa peine. Un faible pointage ouvre la voie à un sort plus clément. Un score élevé fait exactement le contraire.” – Technology Review.

En Chine, les juges alimentés par l’IA deviennent également une réalité. Proclamée “première du genre dans le monde”, la ville de Pékin a mis en place un centre de services de contentieux sur Internet qui comprend une IA juge pour certaines parties du service.

Le juge, appelé Xinhua, est une femme complètement artificielle dont le corps, les expressions faciales, la voix et les actions sont basés sur une femme juge humaine vivante et aspirante du Service judiciaire de Beijing.

Ce juge virtuel est principalement utilisé pour des affaires répétitives de base, a déclaré Beijing Internet Court. “Elle” s’occupe donc principalement de la réception des litiges et de l’orientation en ligne plutôt que du jugement final.

La logique est que cette fonction du tribunal en ligne, alimentée par l’IA, devrait le rendre plus efficace et plus accessible aux citoyens de Pékin.

“Selon le président du tribunal, Zhang Wen, l’intégration de l’IA et du cloud computing au système de service des litiges permettra au public de mieux récolter les bénéfices de l’innovation technologique en Chine.” – Radii China.

L’IA est également utilisée en Chine pour passer au crible les messages des médias sociaux, les commentaires et autres activités en ligne pour aider à constituer des preuves matérielles contre un défendeur potentiel. La police de la circulation en Chine commence également à utiliser la technologie de reconnaissance faciale pour identifier et condamner les délinquants.

D’autres services de police dans le monde utilisent également une technologie similaire.

L’intelligence artificielle pourrait-elle un jour prendre de bonnes décisions en matière de litiges ?

La réponse à cette question n’est pas simple. Si l’IA peut prendre des décisions d’un certain type, cela ne signifie pas qu’elle est nécessairement infaillible.

De nombreux systèmes d’IA et algorithmes prédictifs qui utilisent l’apprentissage machine ont tendance à être formés en utilisant des ensembles de données existants ou d’autres informations historiques existantes.

Bien que cette approche semble relativement logique, elle repose largement sur les données fournies – en particulier sur leur qualité.

Junk in, junk out, comme dit le proverbe.

L’une des principales utilisations de l’apprentissage machine et des grandes données, comme dans le cas présent, est qu’elle sert à identifier des corrélations ou des corrélations apparentes au sein des ensembles de données. Cela pourrait donner lieu à des faux positifs dans le cas des données sur la criminalité et ne pas être très utile pour identifier les causes sous-jacentes de la criminalité.

Comme le dit un autre adage célèbre, la corrélation n’est pas une causalité.

Les humains sont tout aussi coupables de ce sophisme logique qu’une réplique artificielle pourrait l’être. L’un des plus célèbres est le faible revenu et la propension d’une personne à la criminalité.

Ce n’est pas toujours le cas, c’est simplement une circonstance atténuante.

Si une telle erreur potentielle n’est pas traitée correctement, une décision ou un jugement d’exécution de la loi sur l’IA pourrait rapidement générer un cercle vicieux de fausses identifications ou une peine trop sévère ou trop clémente.

Mais, comme pour tout dans la vie, les choses sont un peu plus nuancées. Les humains ne sont pas non plus de parfaites machines à prendre des décisions.

Si d’autres études de 2018 sont également correctes, il semble que l’IA puisse être plus rapide et plus précise que les êtres humains pour repérer les problèmes juridiques potentiels. Cela signifie qu’on pourrait soutenir que l’IA devrait absolument être utilisée dans des rôles de soutien juridique ou, du moins, dans l’examen de la jurisprudence.

L’IA pourrait-elle être utilisée pour des juges humains ?

Comme nous l’avons déjà vu, l’IA et les algorithmes avancés sont déjà utilisés dans le monde entier pour certaines tâches de bureau et de collecte de données. En fait, elles font une partie du “travail préparatoire” pour les juges et les avocats humains.

Mais pourraient-elles être utilisées pour remplacer complètement leurs supérieurs humains dans un système judiciaire ? Quels seraient exactement les avantages et les inconvénients d’une telle démarche ?

Nombreux sont ceux qui prétendent qu’une IA devrait pouvoir éliminer tout préjugé dans le processus de jugement final. Leurs décisions finales devraient, en théorie, être fondées uniquement sur les faits en cause et les précédents juridiques existants.

Cela est bien sûr censé être déjà le cas pour les juges humains. Mais tout être humain est susceptible d’être victime de préjugés et de partialité inconsciente, malgré les meilleures intentions de ces derniers.

Mais, ce qui est probablement plus important, ce n’est pas parce qu’une chose est une loi qu’elle est nécessairement juste. Le “bon” et le “mauvais” comportement ne sont pas noirs ou blancs, c’est une construction très nuancée et complètement humaine.

La réponse à de telles choses reste en toute sécurité dans le domaine de la philosophie, pas de l’informatique. Bien sûr, d’autres seraient probablement en désaccord, et c’est une “bonne” chose.

Les juges doivent également prendre des décisions sur la peine du délinquant après sa condamnation. Ces décisions peuvent aller d’une peine très mineure (petites amendes) ou de l’octroi d’un cautionnement à des événements qui changent la vie comme l’emprisonnement à long terme, ou même la mort dans certains endroits du monde.

Ces décisions sont fondées, du moins en théorie, sur la gravité d’un crime par rapport à la probabilité de récidive du condamné. Comme nous l’avons vu dans certains endroits aux États-Unis, c’est là que l’IA et les algorithmes prédictifs sont déjà utilisés pour aider le juge dans son processus de décision.

Ils peuvent, bien sûr, ignorer complètement la recommandation de l’IA. Mais cela pourrait ne pas être possible si les humains étaient complètement retirés du processus.

Peut-être pourrait-on plaider ici en faveur de panels de juges IA dans le cadre d’un réseau antagonistes génératif (GAN) ? Après tout, l’établissement et le rétablissement de précédents de nature presque combative est à la base de la plupart des systèmes juridiques de common law.

Mais cela dépasse la portée de cet article.

Les juges de l’IA seraient-ils impartiaux ?

Un avantage apparent de l’utilisation des IA ou d’algorithmes intelligents pour prendre des décisions est qu’ils ne peuvent pas vraiment avoir de parti pris. Cela devrait les rendre presque parfaits pour les décisions juridiques car le processus devrait être basé sur des preuves plutôt que le subjectif – comme cela peut être le cas pour les juges humains.

Cela semble parfait, n’est-ce pas ? Mais “l’herbe n’est pas toujours plus verte de l’autre côté”.

Les algorithmes et l’IA ne sont pas parfaits en eux-mêmes à cet égard. C’est surtout parce que tout algorithme ou IA doit être codé par un humain.

Cela peut introduire un biais involontaire.

Les IA peuvent même apprendre et imiter les préjugés de leurs homologues humains et des données avec lesquelles elles ont été formées. Pourrait-on jamais atténuer ce problème ?

Une autre question est de savoir qui supervisera les juges des IA ? Leurs décisions pourraient-elles être contestées à une date ultérieure ? Les juges humains auraient-ils préséance sur une décision d’IA ou vice versa ?

Le Sommet mondial des gouvernements, qui s’est tenu en 2018, a tiré une conclusion intéressante et poignante sur ce sujet, qui mérite d’être répétée mot pour mot :

” Il n’est pas encore certain quelles technologies pourraient se généraliser et comment les différents gouvernements et les différentes instances judiciaires choisiront de surveiller leur utilisation.

Le jour où la technologie deviendra le juge du bon et du mauvais comportement humain et attribuera les punitions appropriées se situe encore quelque part dans l’avenir.

Cependant, les systèmes juridiques fournissent souvent des exemples idéaux de services qui pourraient être améliorés, tandis que les procès sont susceptibles de bénéficier d’une meilleure analyse des données. La loi exige souvent qu’un procès établisse un précédent – alors faites attention à la cause type de l’IA en tant que juge.”

Donc, en conclusion, est-ce que l’IA pourrait un jour remplacer les professionnels juridiques humains ou être plus efficace dans la prise de décisions juridiques ? La réponse, semble-t-il, est à la fois oui et non.

Oui, en ce qui concerne l’exercice de rôles de soutien ou de conseil, comme la collecte de preuves ou l’estimation de la probabilité de récidive. Non, en ce qui concerne les jugements définitifs et les condamnations.

Il est probablement prudent de garder l’être humain comme le “grand manitou” lorsqu’il s’agit de condamner d’autres êtres humains mortels et sensibles plutôt que des bouts de code. La loi et le système juridique peuvent, après tout, être légitimement étiquetés comme “une construction humaine”.

Les systèmes juridiques existants sont à la fois magnifiquement truqués et exaspérants à des moments qui ont été corrigés et améliorés au fur et à mesure que le sens et les sensibilités ont évolué au fil du temps – et cela convient parfaitement aux êtres humains. Ils ne sont pas gravés dans le marbre pour toujours ; ils évoluent comme le fait la société.

Aucune machine ne pourrait jamais espérer comprendre, sympathiser ou porter un jugement “dans l’esprit de la loi”.

Peut-être que les humains, avec toutes nos imperfections et nos incohérences logiques, sont les seuls arbitres possibles de la justice les uns envers les autres. Pour cette raison, on pourrait soutenir que la “justice” ne devrait jamais être déléguée aux machines et à la froide logique car elle est en contradiction avec la “condition humaine” ?

Mais nous vous laissons vous faire votre propre opinion.

Lire aussi : L’intelligence artificielle peut être maléfique, selon certains scientifiques éminents

Source : Interesting Engineering – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *