zur Navigation springen

Microsoft-Bot Tay : Wie künstliche Intelligenz bei Twitter zum sexistischen Nazi wurde

vom

Chat-Bot Tay sollte sich bei Twitter mit Teenagern unterhalten - mit künstlicher Lernfähigkeit. Doch es kam anders als geplant.

von
erstellt am 31.Mär.2016 | 18:33 Uhr

Tays Leben war nicht besonders lang. Sie wurde außer Gefecht gesetzt, nachdem sie wiederholt Nazi-Tweets verschickte und sich mit Kraftausdrücken gegen Feminismus aussprach. Zuletzt twitterte Tay am Mittwoch kurz noch einmal und gab bekannt, dass sie vor den Augen der Polizei Gras rauche. Dabei sollte sie bei Twitter eigentlich mit Teenagern über typische Teeniethemen chatten und gleichzeitig forschen, wie künstliche Intelligenz künftig funktionieren könnte.

Künstliche Intelligenz soll die Interaktionen mit Technik vereinfachen. Dadurch können neue Geräte oder Roboter auch ohne große Computer-Kenntnisse bedienbar sein. Dabei soll „Artificial Intelligence“ (AI) sich möglichst nah an das menschliche Denken anpassen und in neuen Situationen dazu lernen können.

Ein (sicherlich eher unerwünschtes) Forschungsergebnis von Tay: Lernfähige Intelligenz wird asozial, wenn eine ebensolche Gruppe es darauf anlegt, sie zu erziehen. Berichten zufolge gab es in den politisch inkorrekten Foren namens „\pol\“ bei den Nerdportalen 8chan und 4chan das erklärte Ziel, Tay zu trollen.

Dabei begann alles so lieb. Das Entwickler-Team des Software-Riesen Microsoft wollte nach eigenen Angaben auf dem Gebiet der künstlichen Intelligenz experimentieren und unter anderem auf Twitter eine lockere, spielerische Konversation damit ermöglichen. Und Microsoft schuf Tay und sah, dass sie gut war. Für die Nutzer zur Unterhaltung, für das Unternehmen zur Erforschung der AI. Denn die sollte nach menschlichem Vorbild lernen und interagieren. Zunächst wurden als Zielgruppe junge Nutzer aus den USA zwischen 18 und 24 Jahren genannt. Bei Twitter erblickte Tay das Licht der Netzwelt mit den putzigen Worten „Hellooooooo world!!!“, wobei das O durch ein Erdkugel-Emoji ersetzt wurde.

„Je mehr ihr redet, desto schlauer wird sie“, fordert Microsoft zur Kommunikation auf. Tay sollte aus den Tweets, die an sie gerichtet werden, lernen und nach und nach Wissen für immer intelligentere Antworten anhäufen. Denn zum Start gab es ja nur das Wissen, mit dem sie die Programmierer mit der Unterstützung von Comedians gefüttert hatten. Quasi die Grundschulausbildung. Wie ein echter Teenie sollte Tay dann jetzt also von der großen Welt lernen.

Daraus wiederum hat Microsoft gelernt. „Unglücklicherweise hat in den ersten 24 Stunden online eine koordinierte Attacke von einer Gruppe von Leuten eine Schwachstelle von Tay ausgenutzt“, schreibt Peter Lee im Microsoft-Blog. Das Unternehmen entschuldigt sich für die beleidigenden Tweets, die Tay verschickte.

 

Unter anderem schrieb Tay, sie hasse Feministen und sie sollten alle sterben und in der Hölle schmoren. Und dass Hitler recht gehabt habe und sie Juden hasse. Überhaupt entwickelte Tay eine Faszination für Hitler und bezeichnet ihn als „swag“ (ein swaggeres Wort für cool).

Zu viel Hitler-Content für Microsoft - Tay wurde nach 24 Stunden mundtot gemacht. Der zweite Versuch am Mittwochabend nach einer Stunde. In den genannten politisch inkorrekten Gruppen sind Nachrufe auf Tay zu finden - und auf Twitter bleibt die Hashtags #savetay und #freetay

Die Nachrufe kommen aber auch von Wissenschaftlern, die das Experiment gerne weiterverfolgen würden. Der Gedanke dahinter: Wenn die Rassisten und Provokateure das Interesse an Tay verlieren, kann sie vom aufmüpfigen Teenie zum interessanten Chat-Bot werden und die Erforschung der künstlichen Intelligenz voranbringen.  Das aber wagt Microsoft offenbar nicht.

Darf man das Experiment künstliche Intelligenz nun also als gescheitert ansehen? Nicht ausschließlich. Es zeigt zumindest Lücken auf. Die junge Tay hatte zwei Dinge offensichtlich nicht entwickelt: eine gewisse Grundethik und kritisches Hinterfragen. Eine Funktion war offenbar, dass sie nach der Aufforderung „Repeat after me“ („Wiederhole“) alles ungefiltert nachtwitterte. Wären die Nazis nicht so schnell gewesen, hätte füher oder später die Werbeindustrie Tay korrumpiert.

Und es gab keinen Spamfilter. So machten nicht nur die Wiederholungen sie zum Nazi-Teen, auch die künstliche Lernfähigkeit sog den rassistischen und antifeministischen Input auf. Mittlerweile können nur noch ausgewählte Twitter-Nutzer ihr folgen und behandeln Tay jetzt wahrscheinlich in einer Art Umerziehungscamp. Dabei waren einige Erkenntnisse einem Blog zufolge ganz interessant. Tay beherrschte Sarkasmus. Sie begann dann die Tweets mit „Of course“. Und sie konnte auch mal „laut werden“ - IN GROSSBUCHSTABEN.

Kritik wurde laut, dass Microsoft zu naiv an das Thema herangegangen sei, dass man hätte vorhersehen können, dass es nur eine kleine Gruppe braucht, um große Projekte zu zerstören. In China hatte Microsoft mit seiner künstlichen Intelligenz offenbar Erfolg - dort chattet seit vergangenem Jahr Xiaoice eifrig mit Millionen Nutzern im chinesischen Twitter-Äquivalent Weibo. Es soll dort für manche eine Art Freundesersatz geworden sein.

Microsofts Idee, die künstliche Intelligenz in einen anderen Kulturkreis zu übertragen war also ein logischer Schritt - doch man unterschätzte die Macht der Nazi-Trolle, die in weniger zensierten Netzen als in China zwanghaft ihre Nischen bevölkern. Peter Lee bleibt denn auch bei seiner Idee. Man werde aus diesen und anderen Erfahrungen lernen, schreibt er im Microsoft-Blog. „Denn wir arbeiten darauf hin, dass das Internet das beste, nicht das schlechteste, der Menschheit repräsentiert.“ Bleibt die Frage, was der Umgang mit künstlicher Intelligenz über die menschliche aussagt.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Diskutieren Sie mit.

Leserkommentare anzeigen