Pourquoi l’IA devrait avoir les mêmes protections éthiques que les animaux

Si les IA sont aussi intelligentes que les souris ou les chiens, méritent-elles les mêmes droits ?

Partout dans le monde, des universités mènent d’importantes recherches sur l’intelligence artificielle (IA), tout comme des organisations telles que l’Institut Allen et des entreprises technologiques comme Google et Facebook.

Le résultat probable est que nous aurons bientôt une IA à peu près aussi sophistiquée sur le plan cognitif que les souris ou les chiens. Le moment est venu de commencer à réfléchir à la question de savoir si, et dans quelles conditions, ces IA pourraient mériter les protections éthiques que nous accordons généralement aux animaux.

Jusqu’à présent, les discussions sur les “droits d’IA” ou les “droits des robots” ont été dominées par les questions des obligations éthiques que nous aurions envers une IA d’intelligence humaine ou supérieure – comme l’androïde Data de Star Trek ou Dolores de Westworld. Mais penser ainsi, c’est commencer au mauvais endroit, et cela pourrait avoir de graves conséquences morales. Avant de créer une IA avec une sophistication semblable à celle de l’humain et méritant une considération éthique semblable à celle de l’être humain, nous allons très probablement créer une IA avec une sophistication inférieure à la nôtre, méritant une considération éthique inférieure à celle de l’être humain.

Nous sommes déjà très prudents dans la façon dont nous faisons de la recherche qui utilise certains animaux. Les comités de soins et d’utilisation des animaux évaluent les propositions de recherche pour s’assurer que les animaux vertébrés ne sont pas tués inutilement ou ne souffrent pas indûment. Si des cellules souches humaines ou, surtout, des cellules cérébrales humaines sont en cause, les normes de surveillance sont encore plus rigoureuses. La recherche biomédicale fait l’objet d’un examen minutieux, mais la recherche sur l’IA, qui pourrait comporter certains des mêmes risques éthiques, n’est actuellement pas examinée du tout. Peut-être que ça devrait l’être.

Vous pourriez penser que les IA ne méritent pas ce genre de protection éthique à moins qu’elles ne soient conscientes, c’est à dire si elles ne disposent pas d’un véritable flux d’expérience, de joie et de souffrance réelles. Nous sommes d’accord. Mais maintenant, nous sommes confrontés à une question philosophique délicate : comment saurons-nous quand nous aurons créé quelque chose capable de joie et de souffrance ? Si l’IA est comme Data ou Dolores, elle peut se plaindre et se défendre en initiant une discussion sur ses droits. Mais si l’IA est inarticulée, comme une souris ou un chien, ou si, pour une autre raison, elle est incapable de nous communiquer sa vie intérieure, elle n’a peut-être aucun moyen de signaler qu’elle souffre.

Un casse-tête et une difficulté surgissent ici parce que l’étude scientifique de la conscience n’est pas parvenue à un consensus sur ce qu’est la conscience, et comment nous pouvons dire si elle est présente ou non. Selon certains points de vue – des points de vue “libéraux” -, pour que la conscience existe, il suffit d’un certain type de traitement de l’information bien organisé, tel qu’un modèle informationnel flexible du système par rapport aux objets dans son environnement, avec des capacités d’attention guidée et une planification d’action à long terme. Nous sommes peut-être déjà sur le point de créer de tels systèmes. Sur d’autres points de vue – des points de vue “conservateurs” – la conscience peut nécessiter des caractéristiques biologiques très spécifiques, telles qu’un cerveau très semblable à celui d’un mammifère dans ses détails structurels de bas niveau : dans ce cas, nous sommes loin de créer une conscience artificielle.

Il est difficile de savoir quel type de vue est correct ou si une autre explication prévaudra à la fin. Cependant, si une vision libérale est correcte, nous pourrions bientôt créer de nombreuses IA sous-humaines qui mériteront une protection éthique. C’est là que réside le risque moral.

Nous proposons la création de comités de surveillance qui évaluent la recherche de pointe en IA en tenant compte de ces questions. Ces comités, tout comme les comités de protection des animaux et les comités de surveillance des cellules souches, devraient être composés d’un mélange de scientifiques et de non-scientifiques – concepteurs d’IA, scientifiques de conscience, éthiciens et membres intéressés de la communauté. Ces comités seront chargés d’identifier et d’évaluer les risques éthiques des nouvelles formes de conception d’IA, armés d’une compréhension sophistiquée des questions scientifiques et éthiques, en pesant les risques et les bénéfices de la recherche.

Il est probable que de tels comités jugeront toutes les recherches actuelles sur l’IA admissibles. Dans la plupart des théories courantes de la conscience, nous ne créons pas encore d’IA avec des expériences conscientes méritant une considération éthique. Mais nous pourrions – peut-être bientôt – franchir cette ligne éthique cruciale. Nous devrions nous préparer à cela.

Lire aussi : Les algorithmes prennent déjà des décisions pour les humains, et ça devient bizarre

Source : Big Think – Traduit par Anguille sous roche

1 réponse

  1. BlueMan dit :

    Ce sont des machines, pas des êtres vivants.
    Une machine à laver avec des droits ?
    Ridicule.
    Un peu de discernement et de bon sens !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *