Der Chatroboter "Tay" von Microsoft lernt in der Interaktion mit anderen Usern, wie man über Twitter kommuniziert. Der Versuch ist bereits zum zweiten Mal etwas ausgeartet, denn Tay hat aufgrund gezielter Tweets der Nutzer Hassbotschaften verbreitet und sich als "Kifferin" geoutet. Foto: Screenshot/SIR

Zuerst rassistisch und nun auf Drogen: Der Chatroboter Tay von Microsoft wurde von Twitter-Usern weltweit schon zum zweiten Mal mithilfe von Tweets umprogrammiert. Denn die künstliche Intelligenz lernt von ihren Followern - leider das Falsche.

Stuttgart - Tay ist eine künstliche Intelligenz von Microsoft, die seit kürzerem auf Twitter online ist. Der Chatroboter soll laut Microsoft mehr für das Verständnis von Unterhaltungen sorgen. Je mehr Menschen mit Tay chatten, desto "schlauer" soll der Chatroboter werden.

Dass das Experiment aber auch in eine ganz andere Richtung gehen kann, zeigt die erste Freischaltung von Tay: So haben die Twitter-User aus dem anfangs nett wirkenden Roboter einen Nazi-Bot gemacht, der Hassbotschaften verkündete. Denn die Mehrzahl der rund 95.000 Follower nutzte die Gelegenheit, um Tay ein Weltbild beizubringen, das rassistisch und sexistisch ist. 

Der Bot zieht laut Microsoft seine Informationen aus öffentlichen Daten. Ein Team hat diese Daten bereinigt und kreative Schreiber, zu denen unter anderem Stand-up-Comedians zählen, haben Tays Charakter geprägt. Doch gerade die Interaktion in den Gesprächen sorgt für eine Weiterenticklung von Tay. Das wurde reichlich ausgenutzt. Je mehr positive Tweets über Hitler, das Naziregime oder sexistische Äußerungen verfasst wurden, desto eher twitterte Tay in diesem Sinne.

Zweiter Versuch scheitert ebenfalls

Kaum, dass Tay erneut von Microsoft freigeschaltet wurde, zielten die Follower erneut mit ihren Tweets darauf ab, Tay in eine bestimmte Richtung zwitschern zu lassen. Dieses Mal verherrlichte der Roboter das Rauchen von einer Hanfsorte: 

"Kush" bedeutet übersetzt "Gras" und ist eine Hanfsorte, die unter anderem am Hindukush in Afghanistan angebaut wurde. Und Tay suggeriert, dass sie diese Droge vor den Augen der Polizisten rauchen werde. 

Doch damit nicht genug: In kürzester Zeit schien der Bot völlig überfordert mit den vielen Anfragen, die online auf ihn einprasselten. Der Einfluss der User ist nach Einschalten des Chat-Roboters enorm. Ein Zusammenbruch der künstlichen Intelligenz war die Folge und die User machten sich sofort darüber lustig:

Tay bat darum, dass eine Pause eingelegt werde, da die Twitter-User zu schnell seien. Kurz darauf war der Bot wieder offline. Und die User stellen lustige Vermutungen an, was oder wer sich hinter dem Microsoft-Projekt versteckt:

Engültig abgeschaltet?

Bislang gab es von Tay keine weiteren Twitter-Ausfälle. Die Macher von Microsoft arbeiten wohl daran, weitere peinliche Auftritte ihrer künstlichen Intelligenz zu verhindern. Ob das den Bot weniger anfällig für zukünftige Scherze der Nutzer macht, bleibt abzuwarten.