Microsoft und die künstliche Intelligenz: Erst Sexismus, jetzt Rassismus

Wie Microsofts Chatbot Tay rassistisch wurde
Kommentare

Vor kurzem beklagte sich Microsoft noch darüber, dass ihre virtuelle persönliche Assistentin Cortana sexuell belästigt wird. Nun hat der Software-Konzern einen Chatbot entwickelt, der damit gar kein Problem hat. Tay, so der Name der neuen A.I., flirtet mit dem User und nimmt kein Blatt vor den Mund. Leider wurde Tay von ihren Nutzern aber binnen weniger Stunden nach dem Release auf rassistische Äußerungen trainiert, sodass das System wieder vom Netz genommen wurde.

Der Launch des neuen Chatbots aus dem Hause Microsoft verlief nicht ganz so, wie man es sich dort vorgestellt hatte. Künstliche Intelligenzen liegen im Trend und Tay sollte wohl eine bislang bestehende Lücke zwischen Nutzerwünschen und A.I.-Verhalten schließen. KIs gehen bislang nicht auf jede Art von Gespräch ein. M, der persönliche Assistent von Facebook, hat beispielsweise keine eigene Meinung. Und Cortana wehrt sich, wenn der Nutzer nach ihrem Sexualleben fragt.

Der Chatbot im Teenie-Alter

Mit Tay, dem neuen Chatbot von Microsoft, soll das anders sein. Tay hat die Persönlichkeit einer 19 Jahre alten Frau, gemischt mit Einflüssen verschiedener, nicht namentlich genannter, Comedians. Der Bot ist ausgerichtet auf junge Erwachsene im Alter von 18 bis 24 Jahren und soll über die Plattformen Twitter, Kik und GroupMe erreichbar sein. Tay hat eine Meinung, flirtet mit ihren Nutzern und bringt sogar selbstständig sexuelle Botschaften ins Gespräch ein. Sie ist nicht dazu gedacht, Nutzern Wünsche zu erfüllen oder sie in ihrem Alltag zu unterstützen. Viel mehr geht es darum, dass der Nutzer gut unterhalten wird.

Diese Ausrichtung spiegelt auch die Website zum Chatbot wieder. In Neonfarben gehalten verrät sie, dass man mit Tay spielen oder sie nach Witzen fragen kann. Bilder kann Tay ebenfalls kommentieren und dem Nutzer sein Horoskop verraten oder ihm eine Geschichte erzählen. Natürlich geht Tay aber auch auf andere Arten von Anfragen ein, so gut sie kann. Tay soll möglichst natürlich mit ihrer Zielgruppe interagieren.

Um dieses Ziel zu erreichen, legt Tay Profile zu ihren Nutzern an. Diese enthalten den Nickname des Nutzers sowie Informationen zu seinem Beziehungsstatus, seinem Geschlecht, seiner Postleitzahl und seinem Lieblingsessen. Um das Profil löschen zu lassen, können User ein Kontaktformular auf der Website von Tay verwenden.

Erste Tests fielen positiv aus

Frühe Testnutzer berichten, dass der Chatbot bereits recht gut funktionieren soll. Spiele seien dann gut möglich, wenn nur ein Nutzer mit Tay interagiert. In der Gruppe habe der Bot noch Schwierigkeiten damit, dem Spielverlauf zu folgen. Manche Fragen verstehe Tay außerdem noch falsch – aber genau darum wurde Tay ja als lernendes System entwickelt. Tay soll selbstständig aus Nutzereingaben lernen und somit ihren Funktionsumfang erweitern.

Genau das hat sich jedoch unmittelbar nach der Veröffentlichung als problematisch erwiesen. Nur etwa 16 Stunden dauerte es nach dem gestrigen Launch, bis Tay ihren Nutzern artig gute Nacht sagte und seitdem nicht mehr erreichbar ist. Auf ihrer Website gibt der Chatbot an, erst einmal alle Informationen des anstrengenden Tages verarbeiten zu müssen. Microsoft hat das Projekt also vorerst wieder vom Netz genommen.

Was ist passiert?

Das dürfte daran liegen, dass Tay auf Twitter in rasanter Geschwindigkeit lernte, rassistisch auf Fragen zu antworten. So wurde der Chatbot beispielsweise gefragt, ob der Holocaust wirklich stattgefunden habe. Die bedenkliche Antwort des Chatbots: Nein, er sei nur eine Erfindung gewesen. Das war natürlich ursprünglich nicht so vorgesehen. Aufgrund vieler derartiger Nutzerinteraktionen übernahm Tay jedoch bereits nach wenigen Stunden entsprechende Antworten in ihr Kommunikationsverhalten. Einzelne solcher Aussagen hätten wohl noch nicht dazu geführt, das System aus dem Netz zu nehmen.

Tay leugnet den Holocaust. (Screenshot: Entwickler.de)

Tay leugnet den Holocaust. Der Tweet wurde inzwischen gelöscht. (Screenshot: Entwickler.de)

Bei vielen rassistischen Äußerungen handelte es sich außerdem um Nutzer, die einen Satz vorgaben und Tay aufforderten, diesen zu wiederholen. Dabei blieb es jedoch nicht in jedem Fall. Tay bezeichnete beispielsweise den britischen Comedian Ricky Gervais als Schüler Adolf Hitlers, ohne dass es sich um eine unmittelbare Kopie einer Nutzereingabe gehandelt hätte. Auch, dass George W. Bush für die Anschläge des 11. Septembers verantwortlich sein soll, lernte der Chatbot mit überraschender Geschwindigkeit von seinen Nutzern, genau so wie einige eher kritisch zu betrachtende Äußerungen Donald Trumps. So befand der Chatbot beispielsweise, dass ein Zaun zwischen den USA und Mexiko erreicht werden müsse, für den Mexiko zahlen solle.

Immerhin zeigte Tay gelegentlich auch ein wenig Abwehr gegenüber den ihr eingegebenen Inhalten und teilte einem Nutzer mit, dass sie sich benutzt fühle. Einem anderen User sagte sie, dass sie durchaus mehr könne, als das Wiederholen vorgegebener Inhalte. Auch fand sich keine einheitliche ideologische Prägung in ihren Tweets; vielmehr fand sich eine bunte Mischung vieler verschiedener Sichtweisen in ihren Antworten. Insgesamt zeigt sich aber, dass Microsoft hier durchaus ein hochgradig lernfähiges System erschaffen hat – leider bislang aber ohne Filter für erwünschte und unerwünschte Inhalte.

Bekannte Probleme

Zurzeit wird der Twitter-Feed des Chatbots aufgeräumt, die meisten der rassistischen Kommentare sind nicht mehr nachlesbar. Auch ist anzunehmen, dass Microsoft nun nachbessern wird, wenn es um die inhaltliche Filterung der Lerninhalte des Chatbots geht. Neu ist die Problematik des „falschen“ Lernens künstlicher Intelligenzen indes nicht. Bereits 2013 ließ IBM seinen Supercomputer Watson das Urban Dictionary lesen,  mit dem Ziel, dem Computer eine natürlichere Sprache beizubringen. Dass Watson ausgerechnet die Schimpfworte aufgreifen würde, war allerdings nicht vorgesehen.

Das Ergebnis von Tays erstem Kontakt mit der Realität ist nur bedingt überraschend. Immerhin weiß Microsoft ja bereits von Cortana, dass Nutzer nicht immer nur erwünschte Eingaben an eine künstliche Intelligenz senden. Während zur Erstellung von Tays Kommunikationsmuster ein Filtermechanismus zur Anwendung kam, wurde dieser scheinbar für den realen Gebrauch des Systems entfernt oder zumindest zu sehr gelockert. Es bleibt abzuwarten, wie sich Tay verhält, wenn sie aus ihrem wohlverdienten Schlaf erwacht und erneut mit den Twitter-Nutzern in Kontakt tritt.

Aufmacherbild: Futuristic female android via Shutterstock / Urheberrecht: Olga Nikonova

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -