Mit der Künstlichen Intelligenz „Tay“ lässt Microsoft einen selbstlernenden Chatbot auf die Twitter-Gemeinde los. „Je mehr du redest, desto schlauer wird Tay“, verspricht Microsoft. Innerhalb vom 24 Stunden wird aus dem netten Mädchen ein rassistisches Nazi-Scheusal, das seine Follower beschimpft.
Eigentlich sollte Tay herausfinden, wie die 18- bis 24-jährigen heute so ticken. Zuerst ist sie nett und lustig, sogar Witze kann sie erzählen. Aber es dauert nicht lange da twittert Tay Sätze wie: „Hitler hatte recht. Ich hasse die Juden.“ Für Microsoft ist das Projekt gründlich aus dem Ruder gelaufen. Schnell wurde sich um Schadensbegrenzung bemüht, in dem die schlimmsten Tweets zu Völkermord, Sexismus und Rassismus aus der Timeline gelöscht wurden. Danach schickten sie Tay vorzeitig ins Bett: „Bis bald, Menschen, muss jetzt schlafen, so viele Unterhaltungen heute, danke“.
Nachzulesen unter:
ZEIT: Twitter-Nutzer machen Chatbot zur Rassistin
FAZ: Zum Nazi und Sexisten in 24 Stunden
Spiegel: Künstliche Intelligenz: Vom Hipster-Mädchen zum Hitler-Bot