Pourquoi les Trois lois de la robotique ne fonctionneraient-elles pas ?

Avez-vous déjà entendu parler des Trois Lois de la Robotique ?

trois-lois-robotique

Les règles de base d’Isaac Asimov pour de saines relations homme-robot sont destinées à faire en sorte que nous ne soyons jamais blessés ou trahis par nos créations robotiques. Les voilà :

  1. Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé.
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
  3. Un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la Première et/ou la Deuxième Loi.

On dirait que ça couvre à peu près tout, non ? En fait, non… et Asimov le savait (il a écrit tout un recueil de nouvelles sur l’exploitation des failles). De plus, les roboticiens modernes ont tendance à penser que les règles ne sont pas seulement erronées, elles sont fondamentalement erronées.

Fabriquer une machine morale

Nous sommes beaucoup plus près de faire une véritable intelligence artificielle que lorsque Asimov a écrit I, Robot. Mais nous sommes probablement encore plus près de créer une intelligence exponentiellement supérieure à la nôtre. Et que cette intelligence soit consciente ou non, nous voudrons être absolument sûrs qu’elle ne tournera pas son gros cerveau binaire contre nous.

Pour ce faire, les lois d’Asimov sont lamentablement inadéquates, affirment Ben Goertzel et Louie Helm, experts en intelligence artificielle. Ce n’est pas qu’elles ne sont pas aussi complètes qu’Asimov le pensait, c’est qu’elles sont basées sur un fondement moral intrinsèquement défectueux. De l’avis de Helm, un système fondé sur des règles comme celui d’Asimov ne peut pas fonctionner, parce qu’il essaie essentiellement de restreindre un être dont le pouvoir est (à toutes fins pratiques) illimité. Ce ne serait qu’une question de temps avant qu’une IA ne trouve une solution de contournement pour les règles que nous avons mises en place.

De plus, les règles d’Asimov créent une hiérarchie inhérente dans laquelle les humains se voient accorder plus de droits que les robots. Pour Helm, le simple fait de créer une intelligence assez puissante pour soulever la question des droits qu’elle devrait avoir est un oubli éthique impardonnable. Au lieu de cela, il espère que “la plupart des développeurs d’intelligence artificielle sont des gens éthiques, afin qu’ils évitent de créer ce que les philosophes appellent des ‘êtres d’importance morale’. Surtout quand ils pourraient tout aussi bien créer des machines à penser avancées qui n’ont pas cette responsabilité éthique inhérente.” En d’autres termes, un superordinateur n’a pas besoin d’avoir des espoirs et des rêves pour faire son super calcul.

Donner de l’éthique

Les règles fonctionnent donc bien pour les êtres humains, mais elles seraient pratiquement inapplicables dans les intelligences artificielles avancées. Comment s’assurer que nos robots ne se retournent pas contre nous si nous ne pouvons pas simplement y programmer “ne pas tuer des humains” ? Certains experts pensent que la réponse est de donner aux I.A. leur propre boussole morale – un nébuleux sens du bien et du mal qui permet aux robots de juger par eux-mêmes. Les chercheurs de l’Université du Hertfordshire appellent cette approche le style Empowerment de la programmation éthique.

Au lieu que certaines actions soient prescrites et d’autres interdites, ces I.A. sont faites pour valoriser l’empowerment : la capacité à faire des choix. Les décisions qu’elles prennent sont celles qui leur permettent de faire plus de choix, et elles valorisent cette même habilitation chez les autres. En gros, elles ne vous tueront pas, parce que s’elles vous tuent, vos options seraient sérieusement limitées. C’est… un peu rassurant. Mais si l’autonomisation donne aux robots un sens intuitif de la valeur de la vie humaine, elle peut être le plan directeur pour des relations robot-homme pacifiques dans le futur.

Lire aussi : Pourquoi l’IA devrait avoir les mêmes protections éthiques que les animaux

Source : Curiosity – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *