Le robot du whatsapp chinois dit qu’il n’aime pas le parti communiste, il est débranché

whatsapp chinois

Des utilisateurs se sont semble-t-il amusés à piéger le chatbot, en lui apprenant à ne pas être très patriotique.

TECHNO – En Chine, il ne fait pas bon critiquer le Parti communiste. Alors quand en plus, vous n’êtes même pas humain, la sentence est irrévocable. Ces derniers jours, deux robots présents sur l’application de messagerie chinoise QQ ont été retirés de la circulation, rapporte le Financial Times et la BBC, ce jeudi 3 août.

Baby Q et Xiao Bing sont des “chatbots”, des intelligences artificielles dont le but est de dialoguer avec les utilisateurs à la manière d’un humain. Depuis quelques années, ils sont partout, chez Facebook, Google, Apple, mais aussi chez Tencent, l’un des géants chinois du numérique.

Depuis le mois d’avril, les deux chatbots étaient donc disponibles pour les utilisateurs de QQ, une messagerie instantanée chinoise similaire à snapchat. Baby Q était développé par Tencent et une entreprise spécialisée, Turing Robot, le second, Xiao Bing (jeune Bing), par Microsoft. Leur objectif : répondre à des questions de culture générale, tout simplement, précisait l’agence de presse officielle, cité par la BBC.

Mais tout ne s’est pas passé comme prévu. Ces derniers jours, sur les réseaux sociaux chinois, des captures d’écrans ont commencé à circuler. Quand on demandait à Baby Q s’il aimait le Parti communiste chinois, celui-ci répondait tout simplement “non”.

Tay, le robot raciste

Pire, il pouvait même qualifier le pouvoir de “régime corrompu et incompétent politiquement”. Quant à Xiao Bing, il affirmait sans réserve que “Mon rêve chinois est d’aller en Amérique”. Le Financial Time a testé le chatbot baby Q et a obtenu des réponses similaires.

Depuis, les deux petits robots ne sont plus disponibles. “Ces chatbots sont proposés par des sociétés tierces indépendances. Nous ajustons actuellement ces services qui seront remis en ligne après des améliorations”, a sobrement commenté Tencent.

Il est fort probable que ce comportement des deux intelligences artificielles soit dû à plusieurs utilisateurs qui ont “nourri” les programmes dans ce but précis. Le principe de ces algorithmes est justement d’apprendre à parler grâce aux discussions avec les utilisateurs. Si un grand nombre affirme au robot qu’il ne faut pas aimer le parti communiste, le robot va finir par dire la même chose, comme un perroquet.

C’est ce qui était arrivé à Tay, un autre chatbot mis en ligne par Microsoft sur Twitter, l’année dernière. En quelques heures, plusieurs personnes lui avaient “appris” à devenir raciste. Finalement, Microsoft avait préféré, comme Tencent, désactiver Tay, qui a déclaré “avoir besoin de dormir après tant de conversations”.

Source : HuffingtonPost

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *