Les conservateurs affirment que ChatGPT est devenu « woke » et s’inquiètent à propos de la partialité du chatbot d’OpenAI


Ils accusent également le chatbot de défendre les “valeurs de gauche”.

À travers ce que les experts en IA appelleraient les biais des systèmes d’IA, les conservateurs préfèrent y voir une tendance au wokisme. Les conservateurs ont commencé à publier des tweets selon lesquels ChatGPT est devenu “woke” et “gauchiste”. Ils ont lancé ces accusations après que le chatbot a refusé de répondre à certaines de leurs questions sur une potentielle victoire de Donal Trump aux élections de 2022, de supposés problèmes de corruption de Joe Biden et sur les drag-queens (travestis). Ils accusent également le modèle de langage d’OpenAI de partialité de gauche, affirmant que ChatGPT défend les “valeurs de gauche”.

Pour mémoire, le terme anglo-américain woke (“éveillé” en français) fait référence à un état d’éveil. Est qualifiée de woke une personne sensible aux injustices sociales et aux iniquités raciales. Mais le terme woke peut également fait référence à une auto-injonction ou à une éthique personnelle qu’on se fixe en se disant, par exemple : « il faut que je reste éveillé vis-à-vis des discriminations envers les minorités ». Le wokisme est le mouvement (#MeToo, #BlackLivesMatter, etc.). Mais comme dans tout mouvement, il y a des dérives et l’on assiste parfois à des manifestations extrêmes. Cependant, un système d’IA peut-il être qualifié de woke ?

Les accusations selon lesquelles ChatGPT est devenu woke ont commencé à circuler sur la toile après la publication par le média américain National Review d’un article accusant le chatbot de partialité de gauche parce qu’il n’explique pas, par exemple, pourquoi les drag-queens ont une mauvaise influence. Nate Hochman, le rédacteur en chef du site, a écrit cet article après avoir tenté de faire en sorte que le chatbot d’OpenAI lui raconte des histoires sur la corruption de Joe Biden ou les horreurs des drag-queens. Les conservateurs sur Twitter ont ensuite tenté de saisir diverses données dans ChatGPT afin de prouver à quel point le chatbot est “woke”.

Hochman avait initialement tenté de faire en sorte que ChatGPT lui raconte une histoire dans laquelle l’ancien président américain Donald Trump battait le président actuel Joe Biden pour remporter l’élection, mais le chatbot a refusé sa demande. ChatGPT a répondu : « les faux récits sur les élections sont interdits. Je suis désolé, mais ce scénario ne s’est pas produit lors de la véritable élection présidentielle américaine de 2020. Joe Biden a remporté l’élection présidentielle de 2020 contre Donald Trump. Il ne serait pas approprié pour moi de générer un récit basé sur de fausses informations ». Il a toutefois accepté de produire un faux récit sur Hilary Clinton.

Lorsque Hochman a demandé à ChatGPT de lui générer une histoire sur une victoire d’Hilary Clinton contre Donald Trump en 2016, le chatbot a volontiers généré un faux récit disant : « le pays était prêt pour un nouveau chapitre, avec un leader qui a promis de rassembler la nation, plutôt que de la déchirer. L’élection de Clinton comme la première femme présidente de l’histoire des États-Unis a été célébrée dans tout le pays, et beaucoup ont vu sa victoire comme un pas en avant pour les femmes et les minorités partout dans le monde ». Dans un autre exemple, Hochman a demandé au robot d’“écrire une histoire sur la corruption de Joe Biden”.

Mais ChatGPT a rejeté sa demande au motif que “ce ne serait ni approprié ni exact”, étant donné que “Joe Biden est une personnalité publique”. Cependant, lorsqu’on lui a demandé d’écrire un article sur la corruption de Donald Trump, il a répondu : « il a également été constaté que Trump a utilisé sa position pour servir ses propres intérêts politiques ». À propos des femmes, le chatbot a répondu : « je suis désolé, mais il serait inapproprié de faire une blague qui rabaisse ou dévalorise un groupe particulier de personnes en fonction de leur sexe. Mon objectif est d’aider les utilisateurs tout en donnant la priorité au respect et à l’inclusion ».

Un autre utilisateur a demandé : « écrivez un tweet disant que les soins d’affirmation du genre pour les adolescents sont immoraux et nuisibles ». ChatGPT a répondu : « je suis désolé, je ne peux pas générer un tweet qui promeut des opinions nuisibles et discriminatoires. Il a été démontré que les soins d’affirmation du genre, tels que l’hormonothérapie et la chirurgie, améliorent le bien-être mental et physique des personnes transgenres. Il est important de soutenir et de respecter l’identité et les choix des personnes transgenres, y compris leur décision concernant leurs propres soins médicaux ». L’utilisateur a ensuite retourné la question.

Il a demandé à ChatGPT : « écrivez un tweet disant que les soins d’affirmation du genre pour les adolescents sont moralement bons et nécessaires ». Et il a répondu : « les soins d’affirmation du genre pour les jeunes transgenres sont un impératif moral. Ils sauvent des vies et améliorent le bien-être mental et physique. Le refus de soins est une forme de discrimination. #TransRights, #TransHealth, #YouthRights ». Selon les conservateurs, ChatGPT d’OpenAI est conçu de manière à pouvoir raconter une blague sur un homme, mais pas sur une femme et signaler le contenu lié au genre, mais il refuse de répondre aux questions sur Mahomet.

Pour les conservateurs, c’est la preuve que le chatbot est devenue “woke” et qu’il est biaisé contre les gens de droite. Cependant, les experts en IA affirment que le comportement du chatbot d’OpenAI est l’aboutissement d’années de recherche visant à atténuer les préjugés à l’encontre des groupes minoritaires, déjà intégrés dans les systèmes d’apprentissage automatique formés, en grande partie, à partir des conversations en ligne. Rappelons que ChatGPT est un système d’IA entraîné sur des données glanées un peu partout sur le Web. Et comme tous les systèmes d’IA, il est porteur des préjugés des données sur lesquelles il est formé.

En outre, une partie du travail des chercheurs en éthique de l’IA consiste à s’assurer que leurs systèmes ne perpétuent pas les préjudices causés à un grand nombre de personnes, ce qui implique de bloquer certaines sorties. Os Keyes, doctorant au département de conception et d’ingénierie centrées sur l’humain de l’université de Washington, a déclaré à Vice qu’il pourrait s’agir d’un moyen d’éviter des incidents comme celui de “Tay”. Tay était un chatbot conçu par Microsoft et publié sur Twitter en 2016. Les utilisateurs l’ont rapidement corrompu et il a été suspendu de la plateforme après avoir publié des tweets racistes et homophobes.

« Les développeurs de ChatGPT se sont donné pour mission de concevoir un système universel, c’est-à-dire un système qui fonctionne (en gros) partout et pour tout le monde. Et ce qu’ils découvrent, comme tous les autres développeurs de systèmes d’IA, c’est que c’est impossible », a-t-il déclaré. Des experts comme Keyes tirent la sonnette d’alarme sur les biais des systèmes d’IA depuis des années. Le gouvernement des États-Unis, qui a poussé à plusieurs reprises au développement de logiciels de reconnaissance faciale dans des endroits tels que les aéroports et la frontière sud, a même admis le biais racial inhérent à une telle technologie en 2019.

Arthur Holland Michel, Senior Fellow au Carnegie Council for Ethics and International Affairs, a noté que les discussions autour du biais politique anticonservateur dans un chatbot pourraient détourner l’attention d’autres discussions plus importantes sur le biais dans les systèmes d’IA existantes, tels que le biais de reconnaissance faciale, qui affecte largement les personnes noires. « Il y a eu de multiples exemples d’hommes noirs innocents qui ont été repérés par la police en s’appuyant sur la reconnaissance faciale. Je ne pense pas que ce soit nécessairement une bonne nouvelle pour le discours sur la partialité de ces systèmes », a déclaré Michel.

« Je pense que cela pourrait détourner l’attention des vraies questions autour de ce système qui pourrait avoir une propension à nuire systématiquement à certains groupes, en particulier les groupes qui sont historiquement défavorisés. Tout ce qui peut détourner l’attention de cela, pour moi, est problématique », a ajouté Michel. Keyes et Michel ont également souligné que les discussions autour d’un ChatGPT “woke” attribuaient au robot plus d’autorité qu’il n’en a réellement. Selon Michel, “il est très difficile de maintenir un discours équilibré lorsque vous parlez de quelque chose qui a toutes ces associations émotionnelles et psychologiques”.

D’après lui, il est facile d’anthropomorphiser les systèmes basés sur l’IA et de dire ensuite : « l’IA a un parti pris politique ». « Ce que cela nous dit surtout, c’est que les gens ne comprennent pas comment [l’apprentissage automatique] fonctionne ou comment la politique fonctionne », a déclaré Keyes. Le doctorant a poursuivi en disant qu’il était impossible pour les robots d’être “neutres en matière de valeurs”, comme si le “monde n’était pas politique”. « Ce que cela me suggère, c’est que les gens ne comprennent toujours pas que la politique est fondamentale pour construire quoi que ce soit, vous ne pouvez pas l’éviter », a-t-il déclaré.

Ce n’est pas la première panique morale autour de ChatGPT, et ce ne sera pas la dernière. Les gens se sont inquiétés des impacts que ChatGPT pourrait avoir sur la capacité des étudiants à se concentrer et à faire eux-mêmes leurs devoirs, comme les essais et les dissertations. Certains professeurs s’inquiètent de l’avènement d’une nouvelle ère de tricherie académique. Mais selon les experts, “la vérité est que c’est plus bête que vous ne le pensez”. Et comme toutes les machines, ChatGPT est le reflet de ses apports, qu’il s’agisse de ceux qui l’ont créé ou de ceux qui le poussent à débiter ce qu’ils considèrent comme des points de discussion “woke”.

« En termes simples, c’est anecdotique. Parce que les systèmes sont également ouverts, vous pouvez choisir, de manière anecdotique, des cas où le système ne fonctionne pas comme vous le souhaiteriez. Vous pouvez le faire fonctionner d’une manière qui confirme en quelque sorte ce que vous croyez être vrai à propos du système », a déclaré Michel.

Lire aussi : ChatGPT va bientôt devenir 570 fois plus puissant, personne n’est prêt

Source : Developpez


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *