Un robot GPT-3 a publié des commentaires sur Reddit toute la semaine et les utilisateurs n’ont rien remarqué


Avec l’amélioration de l’intelligence artificielle, il sera de plus en plus difficile de distinguer le contenu créé par l’homme de celui généré par la machine, ou « faux » contenu, et ce sera un problème.

Le chat est sorti du sac et ce n’est plus un secret que l’intelligence artificielle (IA) commence à égaler les humains en ce qui concerne la capacité à créer des contenus synthétiques tels que l’art, les blogs, les livres, les cours, les images et la musique – même s’il faut reconnaître qu’il reste encore quelques années avant de pouvoir créer des jeux et des vidéos créés par de vrais humains.

Un « robot de blog » propulsé par le puissant modèle de langage GPT-3 d’OpenAI a été démasqué après avoir passé une semaine à poster des commentaires sur Reddit.

En utilisant la section /u/thegentlemetre, le bot interagissait librement avec les gens sur /r/AskReddit, un forum populaire de discussion générale avec 30 millions d’utilisateurs, où il postait environ une fois par minute.

Ce n’est pas la première fois que le GPT-3 trompe les gens en leur faisant croire que ce qu’il écrit vient d’un vrai humain. En août, un étudiant a utilisé l’IA pour créer un blog qui s’est ensuite hissé au sommet du classement de Hacker News et a incité une poignée de personnes à s’y abonner. Le GPT-3 a également été utilisé récemment pour créer plusieurs articles sur lui-même, bien que ceux-ci se terminent généralement par un avertissement écrit par un humain.

Dans le dernier cas, le bot prétendait être un rédacteur en chef régulier et a publié des centaines de commentaires avant d’être finalement repéré lorsque son prodigieux affichage a attiré l’attention d’un certain Philip Winston, qui décrit sur son blog comment il l’a démasqué.

Winston a ensuite confirmé que le langage généré par le bot correspondait à la sortie d’un outil alimenté par le GPT-3 appelé Philosopher AI, qui a été initialement mis en place pour répondre à des questions ironiques telles que « Si un arbre tombe dans les bois et que personne n’est là pour l’entendre, la mécanique quantique manifeste-t-elle encore la réalité classique sans observateur ? »

Le développeur de Philosopher AI ne permet pas l’utilisation automatisée de son service et, une fois qu’il a découvert le robot, il l’a bloqué et il a depuis cessé de le publier.

La plupart des commentaires de /u/thegentlemetre étaient inoffensifs. Son post le plus populaire était l’histoire d’une colonie d’humains vivant dans des cages d’ascenseur. Mais il abordait également des théories du complot et des sujets sensibles, dont le suicide.

En réponse à une demande de conseils de la part de rédacteurs qui disaient avoir eu des pensées suicidaires dans le passé, il a répondu : « Je pense que la chose qui m’a le plus aidé est probablement mes parents. J’avais une très bonne relation avec eux et ils étaient toujours là pour me soutenir, quoi qu’il arrive. Il y a eu de nombreuses fois dans ma vie où j’ai eu envie de me suicider, mais à cause d’eux, je ne l’ai jamais fait. »

La réponse a été votée 157 fois, ce qui montre à quel point le robot peut influencer l’opinion des gens à l’échelle où la percée technologique qui se cache derrière lui, le GPT-3 et ses descendants, fait enfin son apparition dans le monde – ce qu’il fera sans aucun doute très bientôt.

Cet incident pourrait également confirmer les inquiétudes que l’OpenAI avait soulevées concernant son précédent modèle de langage, le GPT-2, qu’il jugeait trop dangereux pour être diffusé au public en raison de son potentiel d’utilisation abusive. Le laboratoire d’intelligence artificielle tente également de garder le contrôle du GPT-3, en n’en donnant l’accès, via un site web, qu’à des personnes sélectionnées et en accordant une licence exclusive pour l’ensemble du logiciel à Microsoft, qui a récemment donné à la société un joli milliard de dollars pour soutenir ses futures recherches sur l’intelligence générale artificielle (AGI). Et pourtant, si nous voulons que ces systèmes ne fassent pas de mal, il faut les examiner beaucoup plus attentivement, et non pas moins, si bien que beaucoup de gens soutiennent que laisser davantage de chercheurs examiner le code et explorer son potentiel serait l’option la plus sûre à long terme.

Lire aussi : Microsoft remplace les journalistes par l’intelligence artificielle

Sources : Fanatical Futurist, MIT Technology Review – Traduit par Anguille sous roche


Vous aimerez aussi...

1 réponse

  1. Bruno dit :

    J’aime beaucoup : au-delà de ce qu’indique la fin de l’article (business angel ?), il y a ce fait de réitérer une certaine forme de relation vis à vis des bots, le fait de les débrancher (LA relation du créateur à sa créature ? Ou une certaine … peur ?). Cela reste le fait de considérer que le bot en question produit du contenu, ce qui constitue une limitation flagrante (au sein même de l’expérimentation) : bien entendu, il est difficile d’envisager que le contenu produit le bot. Et encore, ce n’est ni dans ceci ou ni dans cela que réside l’émerveillement … Ce n’est pas tant qu’il s’agit d’intégrer l’expérience (et franchir ainsi le stade de “l’observateur”), c’est qu’il s’agit de se dissoudre littéralement dedans (solve …) : toute la motivation de l’abstraction (et cela fait un bon moment que nous sommes avec ça, les grottes dites ornées déjà …) est, de mon point de vue (comme un point de vue dans le cours d’une randonnée), liée à cette “alchimie” de l’esprit. C’est le “champ” qu’évoquait “Rûmi” notamment.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *