Mit der Künstlichen Intelligenz „Tay“ lässt Microsoft einen selbstlernenden Chatbot auf die Twitter-Gemeinde los. „Je mehr du redest, desto schlauer wird Tay“, verspricht Microsoft. Innerhalb vom 24 Stunden wird aus dem netten Mädchen ein rassistisches Nazi-Scheusal, das seine Follower beschimpft.

Tay_Microsoft_01

Eigentlich sollte Tay herausfinden, wie die 18- bis 24-jährigen heute so ticken. Zuerst ist sie nett und lustig, sogar Witze kann sie erzählen. Aber es dauert nicht lange da twittert Tay Sätze wie: „Hitler hatte recht. Ich hasse die Juden.“ Für Microsoft ist das Projekt gründlich aus dem Ruder gelaufen. Schnell wurde sich um Schadensbegrenzung bemüht, in dem die schlimmsten Tweets zu Völkermord, Sexismus und Rassismus aus der Timeline gelöscht wurden. Danach schickten sie Tay vorzeitig ins Bett: „Bis bald, Menschen, muss jetzt schlafen, so viele Unterhaltungen heute, danke“.

Tay_Microsoft_02

 

Nachzulesen unter:

ZEIT: Twitter-Nutzer machen Chatbot zur Rassistin

FAZ: Zum Nazi und Sexisten in 24 Stunden

Spiegel: Künstliche Intelligenz: Vom Hipster-Mädchen zum Hitler-Bot

Von Redaktion

Gib deine Meinung ab!

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.