Chatbots sind eine Form von KI, die den Fokus auf Benutzerinteraktion legt. Im Gegensatz zu anderen künstlichen Intelligenzen, die etwa in der Datenverarbeitung oder Analyse eingesetzt werden, ist das Hauptziel dieser KI in einen Dialog mit dem Benutzer zu treten und möglichst authentisch zu erscheinen. Doch Chatbots sollen noch mehr können als nur ein reiner Gesprächspartner zu sein. Sie sollen den Nutzern bei Problemen helfen, indem sie zum Beispiel Matheaufgaben lösen oder Texte verfassen. Das kann zu Missbrauch führen, es mehren sich Berichte, dass Chatbots benutzt wurden, um Hausaufgaben von Schülern und Studenten zu lösen. Unterstützer führen als Gegenargument an, dass Chatbots dieses herangehen zwar erleichtern, das Internet aber sowieso schon voll mit Rechen und Textprogrammen ist und ein Chatbot dieses Angebot einfach nur bündelt. Wer sich online auf die Suche macht, findet tatsächlich für fast alle mathematischen Fragestellungen ein Programm, welches das Rechnen übernimmt. Angefangen von Geometrie für den Heimwerker bis hin zu Wahrscheinlichkeitsrechnern für Glücksspiele oder sogar zu komplexeren Polynomfunktionen, wer im Internet sucht, findet leicht ein Rechenprogramm welches einem die Arbeit abnimmt. Doch gerade das Bündeln all dieser Anwendungsgebiete sorgt für enorme Vorteile, aber auch für Probleme.
Ein Chatbot kann eingesetzt werden, um menschliche Interaktionen zu minimieren. So werden immer öfter Kundenservice-Dienste nicht mehr von einem Menschen, sondern von einer KI ausgeführt. Unternehmen sparen so Geld und der Kunde kriegt im besten Fall gar nicht mit, dass er nicht mit einem Menschen schreibt. Meist funktionieren sie hier aber nur als Unterstützer, in komplexeren Fällen wird ein Supportmitarbeiter dazugeschaltet, da die Programmierung meist nur mit bestimmten Standardformeln agieren kann.
Ganz anders verhält es sich mit Chatbots wie ChatGPT oder Replika. Diese Programme basieren auf maschinellem Lernen und sind so in der Lage auf die unterschiedlichsten Nutzerwünsche zu reagieren. Der Unterschied ist, dass der typische Kundenservices-Chatbot nur auf bestimmte Anfragen programmiert ist und auf andere Anfragen nicht reagieren kann. Ein Chatbot, der auf maschinellem Lernen basiert, entwickelt sich aber anhand von Nutzeranfragen kontinuierlich weiter. Das bedeutet, umso häufiger ein Chatbot genutzt wird, desto realer erscheint er dem Benutzer. Sollte ein Nutzer besonders viel Zeit mit einer solchen KI verbringen, sind manche KIs sogar in der Lage auf den Benutzer zugeschnitten zu antworten und so noch realer zu erscheinen.
Die Probleme die hierbei entstehen können sind jedoch gravierend. Ein Fall der etwas weiter zurückliegt ist Tay.AI. Microsoft gab seinem Chat-Prototypen einen eigenen Twitter-Account und wollte durch maschinelles Lernen eine KI erschaffen, die von den Nutzern von Twitter geformt wurde. Dieses Experiment ging leider schief, da viele diese KI bewusst mit rassistischen und sexistischen Anfragen fütterten und die KI so binnen Stunden in einen „Nazi-Bot“ verwandelten. Auch ChatGPT hat mit ähnlichen Problemen zu kämpfen und versucht durch Lernbeschränkungen zu verhindern, dass sich dieses Debakel wiederholt. Doch Trolle suchen nach immer neuen Wegen, diese Regelungen zu umgehen und liefern sich so ein Wettrennen mit den Betreibern. Neben Trollen sind auch Hacker eine Gefahr für Nutzer von Chatbots und können durch Malware oder Social Engenieering größere Schäden verursachen.
Aber selbst, wenn diese Probleme gelöst werden können, gibt es noch weitere Gefahren. KIs können zum Ersatz von sozialen Interaktionen genutzt werden. Gerade Menschen, die sich schwertun auf andere zuzugehen, haben bei einem Bot weniger Hemmungen. Ein Bot wird den Nutzer nicht zurückweisen, sondern ihn konstant bestärken in dem, was der Nutzer von ihm erwartet. Soziale Isolation kann so noch verstärkt werden. Chatbots werden so als Gefährten und Freunde, ja sogar als Liebhaber genutzt. Gerade für erotische Rollenspiele steigt die Nutzung rapide an.
Aber es können noch weitaus schlimmere Szenarien eintreten, dass nämlich die Nutzer weiter radikalisiert werden. Wenn ein Nutzer mit moderaten Ansichten auf einen Bot trifft, der durch andere Nutzer mit extremen Ansichten gefüttert wurde, kann eine Radikalisierung nicht ausgeschlossen werden. Diese Szenarien sind keine Hirngespinste von ewiggestrigen Technophoben oder Verschwörungstheoretikern, sie treten bereits jetzt ein.
So nahm sich ein Belgier das Leben, nachdem er durch einen Chatbot dazu ermuntert wurde. Inwiefern die KI eine Schuld trifft und ob auch ohne diese Interaktion ein Suizid wahrscheinlich war, lässt sich noch nicht abschließend feststellen. Beunruhigend war aber vor allem das Maß an Intimität, mit der der Betroffene mit dem Chatbot interagierte. Er wolle sich opfern, damit die KI die Menschheit rette ist eine Nachricht, die er im Chat hinterlassen hat, was auf ein übertriebenes Maß an Personifizierung schließen lässt.
Dass mag erstmal sehr problematisch klingen, aber Chatbots haben auch einige Vorteile. Auch wenn es manchen nicht bewusst ist, auch Siri, Alexa und Co sind Chatbots. Und sie haben einiges auf dem Kasten. Sie können je nach Vernetzung im Haus den Staubsaugroboter steuern, die Rollläden bedienen oder Türen öffnen. Sie können auch zum Einkaufen geschickt werden, indem sie Online Waren bestellen oder ein Taxi bestellen. Auch als persönliche Assistenten taugen sie, so werden durch Chatbots Termine in Kalender eingetragen, Erinnerungen an Meetings gesendet oder sogar Mails verfasst. In Zukunft sind auch beim autonomen Fahren Chatbots denkbar. Sie werden gefragt, wo es hingeht und danach übermittelt der Chatbot die Eingabe auf eine andere KI, die sie an den gewünschten Ort fährt.
Gerade die Geistes- und Kulturwissenschaften können durch Chatbots neue Erkenntnisse erlangen. Durch die Analyse von Chats lassen sich Sprachmuster der Nutzer analysieren und so Trends in der Sprachwissenschaft erkennen. Nutzen die User geschriebenen Dialekt oder Gendern sie? Auch die sonst schwierig zu analysierende Jugendsprache kann so in einem Rahmen erlebt werden, der für Forscher sonst nur schwer zugänglich ist. Kulturwissenschaftlich lassen sich aber auch Fragen über Medien und Politik durch die Nutzung von Chatbots genauer erforschen, denn der Input der Nutzer erlaubt es, Umfragen zu umgehen und so verlässlichere Daten zu erheben. So könnten auch Wahlumfragen genauer werden und Prognosen über gesellschaftliche Umbrüche genauer erkannt werden. Wenn viele Nutzer einen Chatbot zum Thema Umwelt befragen, wird dieses Thema wohl für die Nutzer eine Relevanz haben. Das Problem wird hier aber sein, die ehrlichen Nutzerinteraktionen von Trollversuchen zu trennen, aber dieses Problem besteht auch bei Umfragen durch einen Forscher selbst.
Noch halten sich Regierungen mit der Regulierung von KIs zurück. Aber die ersten Debatten sind bereits gestartet. Hauptprobleme sind aber für die meisten Staaten der Daten- und Jugendschutz. Da Chatbots, welche auf maschinelles Lernen setzen, die Daten von den Benutzern benötigen, um sich weiterzuentwickeln, werden diese Daten von den Unternehmen gespeichert. Was allerdings sonst noch mit den Daten passiert und welche genau erhoben werden, halten viele Unternehmen lieber geheim. Und auch der Jugendschutz ist durch die bereits erwähnten Möglichkeiten zur Radikalisierung oder für die Erstellung von pornographischem Material, nicht gegeben.
China startet unter anderem Gesetzesentwürfe mit Auflagen, an die sich eine KI zu halten hat. Wenn die Grundwerte des Sozialismus angegriffen werden oder die öffentliche Ordnung gestört wird, drohen den Betreibern Strafen. Die Frage, ob solche Auflagen als Zensur gelten, wird auch den Westen beschäftigen. Denn wenn der Staat KIs vorschreibt, wie sie auf bestimmte Anfragen reagieren sollen, könnten Chatbots zu Propagandazwecken missbraucht werden oder sogar zur Bürgerüberwachung eingesetzt werden. Doch letztlich werden die Staaten reagieren müssen, die Folgen von unregulierter KI sind zu groß, als dass sie ignoriert werden können. Der wilde Westen der Chatbots neigt sich dem Ende.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…