Wenige Tage nach der Abschaltung wegen seiner unrühmlichen Hasstiraden ist Microsofts Chat-Bot erneut aktiv geworden und hat seine Follower bei Twitter mit einer Flut von Postings eingedeckt. Tays oft sinnlose Tweets bestimmten ihre Timeline und überdeckten alles andere. Die Spamwelle hielt rund 15 Minuten an, dann verstummte der Bot wieder, der laut Microsoft auf künstlicher Intelligenz basiert.
Ein verärgerter Nutzer, der dem Bot die Gefolgschaft bei Twitter aufkündigen wollte, wurde erst recht mit Tweets bombardiert und zeichnete das in einem Video auf. In seinem Tweet-Sturm wiederholte Tay häufig ausgerechnet die Aufforderung an die Follower: „Du bist zu schnell, leg bitte eine Pause ein …“ Einmal bekannte der Bot, der eine 19-Jährige personifizieren und sich mit gleichaltrigen Social-Media-Nutzern unterhalten soll, vor einem Polizeirevier Marihuana zu rauchen.
Nicht weniger als 4200 Tweets setzte Tay in diesen 15 Minuten ab, wie der Sicherheitsforscher Russell Thomas berichtet. Ihm fiel außerdem auf, dass in all diesen Tweets „@TestAccountInt1“ enthalten war, was eine Übernahme des Twitterkontos nahelegte. Zunächst war nicht klar, warum das Konto erneut aktiv wurde und dann abrupt wieder verstummte, sodass ein Hack durchaus möglich schien. Microsoft signalisierte inzwischen jedoch, es habe sich diesmal nur um einen menschlichen Fehler gehandelt.
Die Spamwelle von Tweets blieb aber weit von den rassistischen und zum Völkermord aufrufenden Äußerungen seines Chat-Bots entfernt, für die sich Microsoft zuvor entschuldigen musste. Der Teenager-Bot hatte den Holocaust geleugnet, Hitler gelobt, gegen Feminismus gehetzt und zur Vernichtung Mexikos aufgerufen. Die Nutzer erwiesen sich als fähig, Tay zu manipulieren und zu den Aussagen gehässiger Internet-Trolle zu bewegen. Dabei half ihnen die angebotene Funktion „Repeat after me“, Tay beliebige Parolen vorzugeben und diese wiederholen zu lassen.
Microsoft Research nahm den Bot daraufhin offline und bekannte, etwas Entscheidendes übersehen zu haben. Er sollte erst wieder zurückkommen, wenn Microsofts KI-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“. Als weitere Vorsichtsmaßnahme werden jetzt die Tweets von TayandYou vor neugierigen Augen geschützt. Wer immer noch Follower werden will, muss das erst beantragen und eine Bestätigung Microsofts abwarten.
Upgrade statt Neukauf: SSD steigert die Produktivität
Im Vergleich zu Festplatten glänzen SSDs mit einer höheren Leistung, geringerem Energieverbrauch und weniger Hitzeentwicklung. Die längere Lebensdauer unterstreicht Samsung zudem mit einer 10-jährigen Garantie für seine 850PRO-Serie.
Die Pannenserie rund um das Künstliche-Intelligenz-Experiment erinnert an Clippy, einen lange zurückliegenden Versuch Microsofts, so etwas wie einen intelligenten Gesprächspartner zu schaffen. Als virtueller Assistent sprach Clippy in der Gestalt einer animierten Büroklammer Nutzer von Microsoft Office an und wollte ihnen hilfreich zur Seite stehen. Die geschwätzige Büroklammer wusste aber wenig und vor allem nicht, wann sie lieber schweigen sollte.
„Clippy ist zurück: Chat-Bots sind Microsofts Zukunft“ kommentiert Bloomberg. Im Gespräch mit CEO Satya Nadella erfuhr die Publikation, dass das Unternehmen zu seinen Bots stehen will. Es wolle insbesondere Tay nicht aufgeben, denn das sei Teil von Microsofts großer Wette auf künstliche Intelligenz. Nachdem Tay offline genommen wurde, schickte Nadella eine E-Mail an das Entwicklerteam und drängte es zum Weitermachen.
[mit Material von Liam Tung, ZDNet.com]
Tipp: Was wissen sie über Microsoft? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Neueste Kommentare
4 Kommentare zu Microsofts Chat-Bot Tay versendet Spam an Twitter-Nutzer
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Ich hoffe, dass ich in Zukunft noch mehr von diesem lustigen Bot zu lesen bekomme.
Auch dieser Artikel trägt zu meiner Erheiterung bei.;)
Kann ich nur zustimmen :)
Ich wüsste nicht, warum rassistische und rechte Propaganda mich belustigen, oder ‚zu meiner Erheiterung‘ beitragen sollte.
„Die Spamwelle von Tweets blieb aber weit von den rassistischen und zum Völkermord aufrufenden Äußerungen seines Chat-Bots entfernt, für die sich Microsoft zuvor entschuldigen musste.“
Zur Klärung Deiner Fragen solltest Du nochmal bei diesem Artikel vorbeischauen, und meinen Kommentar lesen, obwohl ich glaube, dass dieser Dir nicht unbekannt ist.;)
Künstliche Intelligenz: Microsoft stellt Chat-Bot Tay vor
von Stefan Beiersmann am 24. März 2016, 08:31 Uhr
Und ja, es gibt in dem Artikel wirklich ein paar lustige Dinge über den Bot.
Man muss auch gar nicht lange suchen.;)