Chat-Bot Tay: Microsoft entschuldigt sich
Ein auf künstlicher Intelligenz basierender Bot sollte auf Twitter Dialoge führen und von seinen Gesprächspartnern lernen. Für böswillige Nutzer war es einfach, Tay zur Wiederholung von rassistischen, fremdenfeindlichen und homophoben Parolen zu bewegen. Der erst vor wenigen Tagen vorgestellte Bot ist wieder offline. weiter