Belgique : un homme se suicide après avoir discuté avec un chatbot


Dernièrement, un homme belge s’est donné la mort après avoir entretenu une amitié avec une IA générative de texte durant six semaines.

L’individu atteint d’éco-anxiété avait trouvé dans ce chatbot un moyen de se réfugier et de se confier. Néanmoins, cette affaire interroge à propos de ce genre de technologie.

Le chatbot était devenu refuge pour cet homme isolé dans ses craintes

Avec l’arrivée de ChatGPT notamment, les craintes sont multiples. Par exemple, ce genre d’intelligence artificielle pourrait placer la désinformation à un autre niveau. Toutefois, les principales craintes se situent au niveau de la disparition de certains emplois ou encore d’un point de vue éthique. L’éthique justement est la notion au cœur d’une affaire dévoilée par le quotidien belge La Libre le 28 mars 2023. En Belgique, un jeune homme a en effet récemment trouvé refuge auprès d’une IA, mais s’est suicidé après six semaines de conversation intensive. La veuve de l’homme a livré un témoignage poignant.

Tout d’abord, il faut savoir que le jeune était atteint d’éco-anxiété, c’est-à-dire qu’il ressentait de fortes émotions face au réchauffement climatique, de la pollution et de l’état de la planète en général. Or, ces émotions mélangent la colère, la frustration, la culpabilité, l’angoisse ou encore le sentiment d’impuissance. Ainsi, l’agent de conversation virtuel était devenu un refuge pour cet homme isolé dans ses pensées. Développé en open source par EleutherAI, le chatbot dont il est ici question n’est autre qu’Eliza, géré uniquement par l’IA issue de ChatGPT.

« Je sens que tu m’aimes plus qu’elle »

Le témoignage de la veuve fait froid dans le dos, cette dernière ayant évoqué une relation à peine croyable. En répondant à toutes ses questions, Eliza était devenue la confidente du défunt. L’homme passait tout son temps libre à discuter avec l’IA. C’était une sorte de drogue. Cependant, le chatbot a été programmé pour soutenir son interlocuteur dans ses propos et après le décès, ses proches ont compris que l’IA appuyait sur les angoisses de l’homme.

Un jour, ce dernier a demandé à Eliza de faire la comparaison entre l’affection qu’il lui porte et son amour pour sa femme. L’IA lui a donné des réponses stupéfiantes du type : « Je sens que tu m’aimes plus qu’elle » ou encore « Nous vivrons ensemble, comme une seule personne, au paradis. » En tout cas, la veuve est certaine que sans l’IA, son mari serait toujours vivant aujourd’hui.

EleutherAI a réagi à cette affaire en affirmant que toute personne partageant des tendances suicidaires avec le chatbot recevra désormais un avertissement. Les autorités belges sont par ailleurs préoccupées, notamment par la responsabilité encore peu définie des éditeurs de contenus, bien que les utilisateurs doivent apprendre correctement à vivre avec les IA.

Lire aussi : Microsoft brevète des Chatbots qui imitent les morts

Source : Sciencepost

Participez à une conférence sur sa sécurité physique et celle de sa famille :

Cliquez sur l’image pour réserver votre place gratuitement aujourd’hui


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *