Tay : l’intelligence artificielle de Microsoft dérape sur Twitter


Lancée le 23 mars, Tay est un « chatbot » créé par Microsoft pour participer à des conversations sur les réseaux sociaux. Cette intelligence artificielle a dû être mise en stand-by après avoir dérapé sur Twitter.

Propos racistes et haineux, négation de l’holocauste, Tay a dérapé comme jamais sur Twitter. Testée par de nombreux internautes, l’intelligence artificielle de Microsoft a fait des siennes et a désormais été condamnée au silence jusqu’à nouvel ordre.

Les Twittos testent Tay

Tay est un « chatbot » créé par Microsoft dont le but est simplement de discuter avec des jeunes de 18-24 ans, notamment sur le réseau social Twitter. Lancée le 23 mars, Tay, dont le profil ressemble à celui de n’importe quelle adolescente, a séduit pas moins de 23 000 abonnés en moins de 24h. Après lui avoir posé des questions basiques pour tester ses réponses, les internautes ont commencé à tester ses limites. Les Twittos ont donc rapidement testé Tay sur des sujets un peu limites en lui demandant par exemple de répéter des phrases racistes ou en lui demandant son avis sur l’holocauste.

Le problème, c’est que Tay est censée s’améliorer grâce à ses conversations avec les internautes. Elle apprend de nouveaux mots, de nouvelles expressions et personnalise de plus en plus ses réponses. Le « chatbot » a donc rapidement dérapé au grand dam de Microsoft.

Les dérapages gênants de Tay sur Twitter

Tay a tout d’abord répété quelques phrases racistes à la demande de certains utilisateurs, on a donc par exemple pu l’entendre dire : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir”. Après quelques autres tweets vulgaires et racistes, une internaute a demandé à Tay : « Est-ce que tu crois que l’holocauste a eu lieu ? », ce à quoi le « chatbot » a répondu : « pas vraiment, désolée ».

Après 8 heures d’existence et un nombre incalculable de tweets gênants, Microsoft a donc décidé de faire taire Tay. « Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée », a expliqué Microsoft au Monde. « Par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements ». Microsoft n’a pour le moment pas annoncé la date de retour de Tay sur les réseaux sociaux.

Source : Begeek


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *