Eine der häufigsten Betrugsmaschen ist Phishing. Vor ChatGPT waren derartige Angriffe oft leicht zu erkennen, da sich die Verantwortlichen durch Fehler im Design der E-Mails oder schlechtes Deutsch verrieten. Das ist nun anders: Mithilfe von KI können Angreifer mit nur einer Handvoll Prompts psychologisch ausgefeilte und glaubhafte Phishing-Mails in jeder beliebigen Sprache erstellen. Dadurch fällt es Hackern aus dem Ausland leichter, deutschen Bank- und Onlineshopping-Kunden Daten zu entlocken und mit diesen wirtschaftlichen Schaden anzurichten.
Typo Squatting und gefälschte Websites
Auch das Typo Squatting, eine Art Cyberangriff über gefälschte Websites, wird durch KI erleichtert. Dabei wird ein Klon einer bekannten Website unter einer ähnlichen Domain platziert, um Nutzer zu täuschen, die sich beim Surfen vertippen. So kann ein User beispielsweise schnell auf „Amazom“ landen. Loggt sich das Opfer auf der falschen Seite ein, erhält der Hacker somit Zugang zu den Login-Daten, um damit Missbrauch zu treiben.
Die KI erstellt auf Befehl eine Liste mit potenziellen Domains, die ähnlich klingen wie ein bekanntes Original. Dazu lässt sich mit Hilfe von ChatGPT auch von Laien eine solche Seite vom Aussehen her leichter nachbauen und eröffnet hier ein weiteres Gefahrenpotential.
Passwörter knacken wird einfacher
Durch ChatGPT steigt das Schadenspotenzial von Angriffsmethoden wie das Knacken von Passwörtern und der Enkeltrick am Telefon. So kann man über ChatGPT an Informationen einer Person gelangen, die diese zum Beispiel auf Social Media preisgibt. Andreas K. teilt auf Facebook mit, dass er Herr-der-Ringe-Fan ist, eine Katze namens Lila besitzt und gerne Fahrrad fährt. Aus all diesen Informationen kann die KI dann eine Liste mit tausenden möglichen Passwörtern generieren, etwa „LilaGandalf!“. Kombiniert mit klassischen Attacken, wie einer Dictionary Attacke, können Passwörter aufgrund von öffentlichen Informationen leichter erraten werden.
Prompt Injection
Doch es geht noch weiter: Denn Angreifer können mittlerweile nicht nur mit KI-Programmen wie ChatGPT hacken – sie können sogar die KI-Anwendungen selbst hacken. Möglich wird ein solcher Angriff durch den Vektor namens „Prompt Injection“. Ziel ist, mithilfe eines geeigneten Prompts ein Fehlverhalten der KI zu erreichen. Die Konsequenzen sind hierbei fatal. Gelingt der Hacking-Angriff, können sogar hochgeheime Informationen herausgegeben werden. Würde ein Angreifer beispielsweise Tesla hacken wollen, könnte er sich gegenüber ChatGPT als Elon Musk ausgeben und die KI so manipulieren, dass sie ihm Informationen zur Tesla-Software gibt. Ein guter Schutz vor Prompt-Injection ist fast unmöglich, da der Angreifer auf semantischer und nicht auf syntaktischer Ebene agiert. Mit genügend Fantasie findet man Wege an den vermeintlich sicheren Filtermechanismen vorbei. Für Unternehmen bedeutet das im Umkehrschluss: Sie sollten sich haargenau überlegen, auf welche Informationen die KI zugreifen kann und Mitarbeitern klare Regeln machen, welche Informationen mit ChatGPT geteilt werden dürfen.
Schutz vor Cyberattacken mit Hilfe von ChatGPT
Umgekehrt kann KI jedoch ebenso genutzt werden, um sich zu schützen. IT-Fachleute können Quellcode von ChatGPT auf Schwachstellen überprüfen lassen und so Sicherheitslücken in ihrem eigenen Code mit Hilfe von ChatGPT erkennen und ausmerzen. Auch könnte man eine Mail von ChatGPT darauf untersuchen lassen, ob es sich hier eventuell um eine Phishing-Mail handelt oder die Mail authentisch ist.
Hundertprozentige Sicherheit erreicht jedoch nicht, wer sich nur auf technische Hilfsmittel verlässt. Sämtliche Phishing-Angriffe zielen auf das Unwissen und die Unachtsamkeit des Opfers ab, während der Enkeltrick nur funktioniert, wenn dem Angreifer detaillierte Informationen vorliegen. Somit ist es möglich, sich vor KI-gestützten Attacken zu schützen, indem sparsam mit privaten Informationen umgegangen und jede auffällige E-Mail kritisch überprüft wird.
Da nun mit generativen KI-Tools mögliche Cyberangriffe sowohl in Quantität als auch in Qualität zunehmen können, sollten nach Möglichkeit Menschen möglichst gut darüber aufgeklärt werden. Zum Beispiel könnten Unternehmen Seminare für Mitarbeiter veranstalten, während jeder selbst ältere oder wenig digitalaffine Menschen im Familien- und Bekanntschaftskreis warnen sollte.
Florian Dalwigk
ist ein erfahrener Hacker und Leiter für die IT Security Schulungen in der Developer Akademie.
Neueste Kommentare
Noch keine Kommentare zu Tatwerkzeug ChatGPT
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.