Microsoft hat sich für rassistische und zum Völkermord aufrufende Äußerungen seines Chat-Bots Tay entschuldigt und ihn offline genommen. Die Anwendung war erst vor wenigen Tagen vorgestellt worden und sollte eine 19-Jährige verkörpern, die Dialoge führte und von ihren Gesprächspartnern lernte. Als auf künstlicher Intelligenz basierender Bot war Tay für 18- bis 24-Jährige gedacht, den laut Microsoft „dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA“.
„Wir bedauern zutiefst die unbeabsichtigt anstößigen und verletztenden Tweets von Tay“, heißt es in einer Stellungnahme Microsofts, nachdem der Teenager-Bot den Holocaust geleugnet, Hitler gelobt, gegen Feminismus gehetzt und zur Vernichtung Mexikos aufgerufen hatte. „Sie repräsentieren weder uns noch das, wofür wir stehen, oder die Entwicklungsziele von Tay.“ Der Bot soll erst wieder zurückkommen, wenn die Microsoft-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“.
Das Unternehmen verweist auf die vorhergehende AI-Anwendung XiaoIce, die in China als Chat-Bot von rund 40 Millionen Menschen angesprochen wurde. Dabei kam es offenbar nicht zu ähnlichen Problemen, wie auch kaum zu erwarten in einem autoritären Staat, der Social Media flächendeckend überwacht und zensiert. Microsoft führt außerdem an, vor dem Tay-Start in den USA umfangreiche Nutzerstudien mit verschiedenen Gruppen durchgeführt und auch Filter implementiert zu haben, um eine positive Nutzererfahrung zu gewährleisten.
Twitter sei der logische Ort für die künstliche Intelligenz gewesen, um durch massenhafte Interaktion mit Nutzern zu lernen und immer besser zu werden. Allerdings erwiesen sich Nutzer als fähig, Tay zu manipulieren und zu den Aussagen gehässiger Internet-Trolle zu bewegen. „Unglücklicherweise nutzten in den ersten 24 Stunden nach dem Online-Start eine begrenzte Zahl von Menschen eine Schwachstelle in Tay aus“, beschreibt Microsoft den Hergang. „Obwohl wir uns auf viele Arten möglichen Missbrauchs des Systems vorbereitet hatten, haben wir bei diesem spezifischen Angriff etwas Entscheidendes übersehen. Im Ergebnis tweetete Tay absolut unangebrachte und verwerfliche Wörter und Bilder.“
„AI-Systeme nähren sich sowohl von positiven wie negativen Interaktionen mit Menschen“, erklärt Microsoft Research und sieht deshalb noch erhebliche Herausforderungen in der AI-Forschung vor sich. Übersehen hatten die Forscher allerdings schlicht, dass die angebotene Funktion „Repeat after me“ Trollen unter den Nutzern erlaubte, Tay beliebige Parolen vorzugeben und diese wiederholen zu lassen. Das sprach sich schnell herum und führte zu einer Flut von rassistischen, fremdenfeindlichen und homophoben Aussagen, die der Chat-Bot in sein Repertoire aufnahm. Mit künstlicher Intelligenz hatte das offenbar wenig zu tun – Tay verhielt sich eher wie ein einfacher Chat-Bot in der Art von Eliza, einem schon 1966 entwickelten Computerprogramm.
Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…
Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.
2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…
Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…
NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.
Latrodectus, auch bekannt als BlackWidow, ist auch unter dem Namen LUNAR SPIDER bekannt.