Microsoft Research hat zusammen mit dem Bing-Team einen auf künstlicher Intelligenz basierenden Chat-Bot namens Tay entwickelt. Ziel ist es, die dialogorientierte Verständigung zu erforschen. Tay ist auf die Personengruppe der 18- bis 24-Jährigen ausgerichtet, den laut Microsoft „dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA“.
Tays wichtigste Informationsquelle sind anonymisierte öffentliche Daten. „Tay nutzt möglicherweise Daten, die Sie durch eine Suche liefern“, heißt es auf der Website des Projekts. „Tay verwendet eventuell auch Daten, die Sie mit ihr teilen, um ein einfaches Profil anzulegen und ihre Nutzererfahrung zu personalisieren.“
Microsoft weist darauf hin, dass alle Daten bis zu einem Jahr vorgehalten werden, um Tay weiter zu verbessern. Ein Profil erfasse neben einem Nutzernamen das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus. Ihr Profil können Anwender über das Kontaktformular auf Tay.ai löschen lassen.
Upgrade statt Neukauf: SSD steigert die Produktivität
Im Vergleich zu Festplatten glänzen SSDs mit einer höheren Leistung, geringerem Energieverbrauch und weniger Hitzeentwicklung. Die längere Lebensdauer unterstreicht Samsung zudem mit einer 10-jährigen Garantie für seine 850PRO-Serie.
Der Chat-Bot soll mit Nutzern kommunizieren und sie dabei unterhalten, heißt es weiter auf der Website. „Je mehr Sie mit Tay chatten, desto klüger wird sie.“ Derzeit ist Tay auf Twitter, Snapchat, Facebook und Instagram mit eigenen Profilen vertreten.
Einen ähnlichen Chat-Bot entwickelte das Bing-Team bereits 2014 für den chinesischen Markt. Vertreter des Unternehmens bezeichneten den Xiaolce genannten Bot damals als „Cortanas kleine Schwester“.
[mit Material von Mary Jo Foley, ZDNet.com]
Tipp: Was wissen sie über Microsoft? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Neueste Kommentare
5 Kommentare zu Künstliche Intelligenz: Microsoft stellt Chat-Bot Tay vor
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
naja KI kann zwar mittlerweilen gut Spielen (Schach; Go; etc.) wo es auf Gleichungen Strategien etc. ankommt, eben alles was man berechnen kann, aber sprachliche, menschliche Interaktion, kann nen Schimpanse mit 150 Wörtern Zeichensprache … mehr als alle KI zusammen.
Typisch Microsoft. Erst mal das Zeug raus haun. Tja, Qualitätssicherung wäre mal eine tolle Idee.
„Microsoft Research hat zusammen mit dem Bing-Team einen auf künstlicher Intelligenz basierenden Chat-Bot namens Tay entwickelt.“
Oder bei welcher Partnervermittlung geklaut? HAHA
Mit der Sicherheit schien es wohl nicht so gut bestellt gewesen zu sein.
Da waren ja etliche Dinge zu lesen, wo ein paar „Scherzbolde“ durch Tricks den Bot dazu gebracht haben, einen Haufen rassistischer Äußerungen von sich zu geben.
Ist halt schade wenn nur Tay klüger wird, aber nicht diese Schwachmaten, die Hitler hochleben lassen und Schwarze beleidigen.
Und ist schon wieder offline, weil er auf rechtsextreme und problematische Aussagen konditioniert wurde. Ist im Moment weniger AI, und mehr eine Art Papagei. ;-)