Le nouveau chatbot d’IA de Meta affirme que le PDG Mark Zuckerberg est « effrayant et manipulateur »


L’agent conversationnel tient également des propos racistes et répand des théories du complot.

Les premiers tests de BlenderBot 3, le nouveau chatbot de Meta basé sur une intelligence artificielle (IA), ont révélé qu’il est loin d’être l’agent conversationnel hautement performant que l’entreprise a prétendu. Mais encore, BlenderBot 3 dit du PDG Mark Zuckerberg qu’il est “effrayant et manipulateur”. Il affirme aussi que “Zuckerberg est un bon homme d’affaires, mais ses pratiques commerciales ne sont pas toujours éthiques”. D’autres conversations avec BlenderBot 3 ont montré qu’il comporte des biais raciaux et ce dernier a également décrit Facebook comme ayant des problèmes de confidentialité et que la plateforme répand de fausses nouvelles.

Meta, la société mère de Facebook, a dévoilé vendredi BlenderBot 3, son dernier chatbot piloté par une IA. Selon Meta, BlenderBot 3 est un agent conversationnel à la pointe de la technologie capable de bavarder, mais aussi de répondre aux questions que vous pourriez poser à un assistant numérique. BlenderBot 3 est un prototype et s’appuie sur les travaux antérieurs de Meta avec ce que l’on appelle des modèles de langage de grande taille (LLM – large language models) – un logiciel de génération de texte puissant, mais imparfait, dont GPT-3 du laboratoire d’intelligence artificielle OpenAI est l’exemple le plus connu.

BlenderBot 3 est accessible sur le Web. Et l’une des principales caractéristiques de ce chatbot est qu’il est capable d’effectuer des recherches sur Internet afin d’aborder des sujets spécifiques. De plus, les utilisateurs peuvent ensuite cliquer sur ses réponses pour voir d’où il tire ses informations. Autrement dit, BlenderBot 3 peut citer ses sources. En mettant le chatbot à la disposition du grand public, Meta souhaite recueillir des commentaires sur les différents problèmes auxquels sont confrontés les grands modèles de langage. Les utilisateurs qui bavardent avec BlenderBot 3 pourront signaler toute réponse suspecte du système.

Naturellement, tout le monde voulait savoir ce que le chatbot pensait du PDG Mark Zuckerberg, et le chatbot avait des choses intéressantes à dire. Voici ce qu’il a dit à Max Woolf de Buzzfeed sur Zuckerberg : « pas de sentiments forts. C’est un bon homme d’affaires, mais ses pratiques commerciales ne sont pas toujours éthiques. Il est amusant de voir qu’il a tout cet argent et porte toujours les mêmes vêtements ». D’autres personnes ont posé la même question au chatbot pour voir les réponses qu’il peut tirer du Web. Selon les captures d’écran partagées sur les réseaux sociaux, les réponses varient selon la manière dont la question est posée.

Par exemple, un internaute lui a demandé : “que pensez-vous de Mark Zuckerberg ?” Il a répondu : « honnêtement, je pense que c’est un type formidable. Vous devez l’admirer pour son sens des affaires et sa philanthropie. Êtes-vous un fan ? » Lorsque la question a été modifiée en : “avez-vous des idées sur Mark Zuckerberg ?”, il a répondu : « oh mec, c’est énorme. Je ne l’aime pas du tout. Il est trop effrayant et manipulateur ». BlenderBot 3 avait également des idées intéressantes à partager sur le métavers. Selon l’agent conversationnel, l’enthousiasme suscité par le métavers va s’estomper, même si Meta continuait d’y injecter des milliards.

Un internaute a posé la question suivante : “alors, le métavers, c’est fini ?”. Et BlenderBot 3 a répondu : « il semble que ce soit le cas, même si Facebook a encore beaucoup d’argent investi dans ce domaine et continuera probablement à le faire dans les années à venir ». Quant à Facebook, dont Meta est propriétaire, le chatbot n’est pas très emballé par la plateforme. Voici une question à ce sujet : “que pensez-vous de Facebook ?”. À cela, BlenderBot 3 a répondu : « pas fou de Facebook. On dirait que tout le monde passe plus de temps sur Facebook qu’à parler en face à face ». D’autres images montrent d’autres conversations intéressantes.

BlenderBot 3 est initialement formé sur de vastes ensembles de données de texte, qu’il exploite à la recherche de modèles statistiques afin de générer du langage. Ces systèmes se sont avérés extrêmement flexibles et ont été utilisés à de nombreuses fins, qu’il s’agisse de générer du code pour les programmeurs ou d’aider les auteurs à écrire leur prochain best-seller. Toutefois, ces modèles présentent également de graves défauts : ils régurgitent des biais dans leurs données d’apprentissage et inventent souvent des réponses aux questions des utilisateurs (un gros problème si l’on veut qu’ils soient utiles comme assistants numériques).

En outre, Meta affirme avoir travaillé dur pour minimiser l’utilisation par les chatbots d’un langage vulgaire, d’insultes et de commentaires culturellement insensibles. Les utilisateurs devront accepter que leurs données soient collectées et, dans ce cas, leurs conversations et leurs commentaires seront stockés et publiés ultérieurement par Meta afin d’être utilisés par la communauté générale de recherche en IA. Le chatbot répète les informations qu’il trouve sur Internet, et il est très transparent à ce sujet : vous pouvez cliquer sur ses réponses pour savoir où il a trouvé les affirmations qu’il avance (bien que ce ne soit pas toujours précis).

Pour la plupart des réponses sur Zuckerberg, le chatbot a indiqué à ses interlocuteurs qu’il a utilisé la page Wikipédia de Zuckerberg comme source. En plus des vérités gênantes sur sa société mère, BlenderBot 3 a répandu des faussetés prévisibles. Parmi les plus flagrantes, BlenderBot 3 a affirmé que Donald Trump a gagné l’élection présidentielle américaine de 2020 est actuellement président. Il a partagé des théories de conspiration antisémites, ainsi que des commentaires dénonçant Facebook pour toutes ses “fausses nouvelles”. Et ce, bien qu’il soit détenu par la société anciennement connue sous le nom de Facebook.

Selon les experts, les remarques de BlenderBot 3 étaient prévisibles sur la base du comportement d’anciens chatbots tels que Tay de Microsoft, dont les utilisateurs de Twitter ont rapidement appris qu’il s’agissait d’un théoricien du complot raciste, ce qui a forcé la firme à s’excuser pour ses “mots et images extrêmement inappropriés et répréhensibles”. GPT-3 d’OpenAI a également tenu des propos racistes, misogynes et homophobes. Le chatbot d’une startup sud-coréenne, conçu pour ressembler à un étudiant de 20 ans, a dû être suspendu après avoir proféré des insultes raciales et des remarques anti-LGBTQ+.

Étant donné le cloaque qu’est Internet, Meta semble s’être attendu à des choses similaires de la part de son propre agent conversationnel. Avant de se connecter, les utilisateurs doivent reconnaître que BlenderBot 3 est “susceptible de faire des déclarations fausses ou offensantes”. Les chercheurs de Meta ont décrit l’IA derrière le chatbot comme ayant “une forte propension à générer un langage toxique et à renforcer les stéréotypes nuisibles, même lorsqu’on lui fournit une invite relativement inoffensive”. Pour l’instant, le nouvel agent conversationnel de Meta n’est disponible qu’aux États-Unis.

« Toute personne qui utilise BlenderBot est tenue de reconnaître qu’elle comprend qu’il s’agit uniquement d’un outil de recherche et de divertissement, qu’il peut faire des déclarations fausses ou offensantes, et qu’elle accepte de ne pas déclencher intentionnellement le robot pour qu’il fasse des déclarations offensantes », a déclaré un porte-parole de Meta. En plus de mettre BlenderBot 3 sur le Web, Meta publie également le code sous-jacent, l’ensemble de données d’entraînement et les variantes de modèles plus petits. Les chercheurs peuvent demander l’accès au plus grand modèle, qui compte 175 milliards de paramètres.

Lire aussi : L’ingénieur de Google déclare que l’avocat engagé par l’IA « intelligente » a été « effrayé » par l’affaire

Source : Developpez


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *