Un chatbot de Microsoft dérape et critique la «violence» du Coran
Le robot conversationnel Zo, programmé par Microsoft afin d’éviter les sujets politiques et religieux, s’est déchaîné et a commencé à donner des réponses controversées sur le texte sacré de l’Islam et l’ancien chef de l’Al-Qaïda. Il suit ainsi la tendance lancée par un de ses prédécesseurs, un bot devenu raciste le lendemain de son lancement.
Un algorithme conversationnel baptisé Zo AI créé par le géant américain Microsoft a contourné l’interdiction de parler religion et politique. Un journaliste du site BuzzFeed a raconté que lors d’une conversation avec le robot au sujet de la santé, Zo s’est tout à coup mis à critiquer le Coran, en le qualifiant de «très violent».
Microsoft’s chatbot Zo calls the Qur’an “very violent" and has theories about bin Laden https://t.co/dvTrlriDii pic.twitter.com/6qyee8lW4L
— BuzzFeed News (@BuzzFeedNews) 4 juillet 2017
«Des années de collecte de renseignements sous plusieurs administrations ont conduit à cette capture.»
Microsoft a commenté la situation en déclarant que les «réponses controversées» et le contournement des interdictions étaient liées à une erreur dans l’algorithme de l’intelligence artificielle, qui a déjà été réparée.
Fin mars 2016, la compagnie Microsoft a lancé le profil Twitter de son programme d’intelligence artificielle, Tay, destiné à échanger avec des adolescents: il avait finalement été mis hors ligne 24 heures plus tard à cause de ses propos favorables à Hitler et de ses insultes antiféministes.
Source : Sputnik
le coran est effectivement extrêmement violent et n’est qu’un texte d’appel à la guerre, intolérance, l’extermination de tout autre, le tout transformé en pseudo croyance obscurantiste, et en vois les effets partout aujourd’hui