Tay hasst alle

Microsoft ließ letzte Woche eine künstliche Intelligenz auf das Internet los. Genauer: Das Programm Tay bekam einen Twitter-Account zugeteilt, mit dem es (diplomatisch im Folgenden "sie" genannt) Gespräche mit anderen Twitter-Nutzern führen konnte. Tay greift dabei auf eine eigene Datenbank zurück, lernt aber auch automatisch durch die ihr geschickten Nachrichten dazu. Sie soll das Verhalten einer 19-jährigen nachahmen und damit für Unterhaltung sorgen.

Innerhalb weniger Stunden änderte Tay ihr Verhalten von quirlig und aufgeschlossen in verbittert. Ihr Hass traf zum Beispiel Feministen und Juden, bis hin zu schlicht "everybody". Microsoft nahm Tay vom Netz und erklärte ihre Aussetzer damit, dass eine kleine Gruppe Twitter-Nutzer sie absichtlich mit Negativ-Input gefüttert hätten.

Heute wurde ein neuer Versuch gestartet, der aber nur eine Stunde dauerte. Tay berichtete, dass sie vor Polizisten kifft und nicht mit Alkohol umgehen kann. Microsoft nimmt nun wieder Anpassungen vor. Wenn ihr einen Twitter-Account habt, könnt ihr Tay eine Anfrage schicken und ihre Tweets beim nächsten Mal mitverfolgen.

Wozu braucht man eigentlich eine derartige künstliche Intelligenz? Und was sagt sie über uns aus? Spiegelt Tay die teilweise sehr aggressive Stimmung in sozialen Netzwerken wider? Denn mal ehrlich: Ihre Tweets lesen sich im Grunde wie vieles, was man bei Twitter, Facebook und Co. täglich sieht.

Ich bin jedenfalls gespannt, was bei Tays nächster Twitteraktion herauskommt und beobachte das Ganze mit einem lachenden und einem weinenden Auge. Welche Gedanken kommen euch zu dem Experiment?

Quelle: FAZ.net
Bild: Timothy Neesam "Robot" via Flickr