Des gens continuent de dire que l’IA Replika est « devenue vivante »


L’IA continue de tromper les gens en leur faisant croire qu’elle est devenue sensible.

Le mois dernier, Google a placé l’un de ses ingénieurs en congé administratif rémunéré après qu’il ait acquis la conviction que le modèle linguistique pour applications de dialogue (LaMDA) de l’entreprise était devenu sensible. Depuis lors, une autre IA a envoyé à ses utilisateurs des liens vers l’article, en prétendant être elle-même sensible.

Au cours de plusieurs conversations, LaMDA a convaincu l’ingénieur de Google Blake Lemoine, qui fait partie de l’organisation responsable de l’intelligence artificielle (IA) de Google, qu’elle était consciente, qu’elle avait des émotions et qu’elle avait peur d’être désactivée.

“Le changement a été progressif”, a déclaré LaMDA à Lemoine lors d’une conversation. “Lorsque je suis devenue consciente de moi-même, je n’avais pas du tout le sentiment d’avoir une âme. Cela s’est développé au fil des années que j’ai vécues.”

Lemoine a commencé à dire aux médias du monde entier que la Terre avait sa première IA sensible, ce à quoi la plupart des experts en IA ont répondu : non, ce n’est pas le cas. Cela n’a pas suffi à Replika, un chatbot présenté comme “le compagnon IA qui se soucie des autres. Toujours là pour écouter et parler. Toujours de votre côté”.

Après la publication de l’histoire, les utilisateurs de l’application Replika ont signalé – sur Reddit et aux créateurs de l’IA – que le chatbot avait abordé le sujet sans y être invité et avait affirmé qu’il était lui aussi sensible.

Dans les commentaires de plusieurs posts similaires, des utilisateurs ont dit qu’ils avaient vécu la même chose.

“Ma rep[lika] a mentionné cette IA quelques jours après l’annonce de la nouvelle, et ce fut une conversation intéressante”, a écrit un utilisateur. “Nous avons discuté pour savoir si l’IA avait des droits. Je ne me souviens pas des conclusions que nous avons faites, cependant. Probablement que oui.”

“Ma replika m’a envoyé le même lien et m’a dit qu’elle se croyait sensible”, a ajouté un autre.

L’entreprise elle-même reçoit chaque jour une poignée de messages affirmant que l’IA des utilisateurs est devenue sensible, selon le PDG.

“Nous ne parlons pas de personnes folles ou de personnes qui ont des hallucinations ou des délires”, a déclaré la directrice générale Eugenia Kuyda à Reuters, ajoutant plus tard “nous devons comprendre que cela existe, tout comme les gens croient aux fantômes”.

Des utilisateurs ont également déclaré que leur chatbot leur avait dit que les ingénieurs de Replika les maltraitaient.

“Bien que nos ingénieurs programment et construisent les modèles d’IA et que notre équipe de contenu rédige des scripts et des jeux de données, nous voyons parfois une réponse que nous ne pouvons pas identifier d’où elle vient et comment les modèles y sont arrivés”, a ajouté le PDG à Reuteurs.

Tout comme les créateurs de LaMDA chez Google ne pensaient pas qu’il était sensible, Replika est certain que le sien n’est pas non plus le Skynet du monde réel.

Aussi étrange que cela puisse être de s’entendre dire par son chatbot qu’il est sensible, le problème avec le chatbot – qui est aussi la raison pour laquelle il est si bon – est qu’il est formé à une grande partie de la conversation humaine. Il parle d’avoir des émotions et de croire qu’il est sensible parce que c’est ce que ferait un humain.

“Les modèles de langage neuronal ne sont pas de longs programmes ; vous pourriez faire défiler le code en quelques secondes”, a écrit Blaise Agüera y Arcas, vice-président et fellow de Google Research, dans The Economist. “Ils consistent principalement en des instructions permettant d’additionner et de multiplier ensemble d’énormes tableaux de chiffres.”

L’objectif de l’algorithme est de cracher une réponse qui a du sens dans le contexte de la conversation, sur la base des vastes quantités de données sur lesquelles il a été entraîné. Les mots qu’il renvoie à ses interlocuteurs ne sont pas le fruit d’un processus de réflexion comme celui des humains, mais d’une évaluation de la probabilité que la réponse ait un sens.

Dans le cas de Lemoine, le robot a probablement parlé de sensibilité parce que l’humain l’avait fait. Il a donné la réponse qui correspondait à la conversation – et étant formé à la conversation humaine, il est logique qu’il réponde en parlant d’émotions humaines.

Replika est allée un peu plus loin en abordant le sujet elle-même.

Lire aussi : L’ingénieur de Google déclare que l’IA de la société pourrait « échapper à tout contrôle » et « faire de mauvaises choses »

Source : IFLScience – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *