Un chatbot de Microsoft dérape et critique la «violence» du Coran


Le robot conversationnel Zo, programmé par Microsoft afin d’éviter les sujets politiques et religieux, s’est déchaîné et a commencé à donner des réponses controversées sur le texte sacré de l’Islam et l’ancien chef de l’Al-Qaïda. Il suit ainsi la tendance lancée par un de ses prédécesseurs, un bot devenu raciste le lendemain de son lancement.

Un algorithme conversationnel baptisé Zo AI créé par le géant américain Microsoft a contourné l’interdiction de parler religion et politique. Un journaliste du site BuzzFeed a raconté que lors d’une conversation avec le robot au sujet de la santé, Zo s’est tout à coup mis à critiquer le Coran, en le qualifiant de «très violent».

«Des années de collecte de renseignements sous plusieurs administrations ont conduit à cette capture.»

Microsoft a commenté la situation en déclarant que les «réponses controversées» et le contournement des interdictions étaient liées à une erreur dans l’algorithme de l’intelligence artificielle, qui a déjà été réparée.

Fin mars 2016, la compagnie Microsoft a lancé le profil Twitter de son programme d’intelligence artificielle, Tay, destiné à échanger avec des adolescents: il avait finalement été mis hors ligne 24 heures plus tard à cause de ses propos favorables à Hitler et de ses insultes antiféministes.

Source : Sputnik


Vous aimerez aussi...

1 réponse

  1. peter Bremin dit :

    le coran est effectivement extrêmement violent et n’est qu’un texte d’appel à la guerre, intolérance, l’extermination de tout autre, le tout transformé en pseudo croyance obscurantiste, et en vois les effets partout aujourd’hui

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *