Un nouvel article dit que nous devrions faire paniquer les machines à propos de leur propre mortalité


L’intelligence artificielle fait déjà de grands pas en avant, mais l’amener à un niveau supérieur pourrait exiger une approche plus radicale. Selon deux chercheurs, on pourrait essayer de donner à l’IA un sentiment de péril et de fragilité de sa propre existence.

Pour l’instant, les machines que nous codons n’ont pas le sens de leur propre être, ni le besoin de se battre pour la vie et la survie, comme nous les humains. Si ces sentiments étaient développés, cela pourrait donner aux robots un meilleur sentiment d’urgence.

L’idée est d’inculquer un sentiment d’homéostasie – qui doit équilibrer les conditions, qu’il s’agisse de la température d’un environnement ou du besoin de nourriture et de boissons, qui sont nécessaires pour assurer la survie.

Cela donnerait aux IA une raison supplémentaire d’améliorer leur comportement et de s’améliorer elles-mêmes, disent les neuroscientifiques Kingson Man et Antonio Damasio de l’Université de Californie du Sud.

“Dans un monde dynamique et imprévisible, un agent intelligent devrait avoir son propre méta-objectif d’autoprotection, comme les organismes vivants dont la survie repose sur l’homéostasie : la régulation des états corporels visant à maintenir des conditions compatibles avec la vie”, écrivent Man et Damasio dans leur article publié.

Bref, il s’agit de donner des sentiments aux robots. Les rendre attentifs pourrait les rendre meilleurs dans à peu près tous les aspects, et cela donnerait aussi aux scientifiques une plateforme pour étudier la nature même des sentiments et de la conscience, disent Man et Damasio.

Étant donné les améliorations qui sont apportées dans des domaines comme la robotique douce, cette idée d’un robot plus conscient de lui-même n’est peut-être pas si fantaisiste : si une IA peut utiliser des entrées comme le toucher et la pression, elle peut aussi identifier le danger et le risque pour soi.

“Plutôt que de renforcer l’armement ou d’ajouter une puissance de traitement brute pour atteindre la résilience, nous commençons la conception de ces robots en introduisant paradoxalement la vulnérabilité”, écrivent les chercheurs.

Si un robot alimenté par l’IA est investi dans sa propre survie, il pourrait commencer à faire des bonds d’intelligence plus avancés, affirment Man et Damasio. Cela pourrait aussi rendre les robots plus aptes à faire face à des défis pour lesquels ils n’ont pas été spécifiquement codés, et devenir plus humains – parce qu’ils auraient des sentiments plus humains.

En combinant la robotique douce et les réseaux neuronaux d’apprentissage profond – qui sont conçus pour imiter les schémas de pensée du cerveau – les machines avec un sentiment de danger pourraient ne pas être trop éloignées, selon les chercheurs.

Espérons que leur sens de l’instinct de conservation ne finira pas par dépasser leur respect pour leurs créateurs humains – nous avons tous vu comment les films Terminator se sont déroulés.

C’est quelque chose à quoi Man et Damasio ont également pensé, et ils soutiennent que les robots s’améliorent en général, mais aussi en empathie, ce qui devrait suffire à prévenir un soulèvement de l’IA dans un avenir proche.

L’idée de rendre l’IA plus humaine, que ce soit avec des sentiments ou la capacité de rêver, est peut-être exactement ce qu’il faut pour rendre ces systèmes encore plus utiles.

“En fin de compte, notre objectif est de produire des machines qui prennent des décisions et contrôlent les comportements sous l’égide de sentiments équivalents”, écrivent Man et Damasio.

“Nous imaginons que ces machines atteindront un niveau d’adaptabilité et de résilience au-delà des robots ‘autonomes’ d’aujourd’hui.”

L’article a été publié dans Nature Machine Intelligence.

Lire aussi : L’intelligence artificielle devient dangereusement bonne pour imiter les comportements humains

Source : ScienceAlert – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *