Kurz nachdem ChatGPT Ende 2022 der Weltöffentlichkeit vorgestellt wurde, gab es erste Meldungen über den Missbrauch des GenKI-Tools. Ein Jahr später wurden die ersten KI-Werkzeuge geleaked, die von Cyberkriminellen genutzt werden könnten, nämlich FraudGPT, WormGPT und Co. Allesamt Programme, die sich nicht nach ethischen Gesichtspunkten richten, sondern die Möglichkeit haben, auf entsprechende Anfragen auch bösartige Hinweise zu geben. Mit der Vorstellung neuer LLM sind dann auch entsprechende unethische Modelle nur eine Frage der Zeit. Ähnlich verlief es bei der Vorstellung von Google’s Gemini, denn seit April machen Nachrichten von Dark Gemini die Runde. Wie Dark Reading schreibt, hat der KI-gesteuerte bösartige Front-End-Dienst wahrscheinlich die an legitime LLMs gesendeten Aufforderungen geändert, um die Beschränkungen für das Schreiben von bösartigen Programmen und die Geolokalisierung von Personen auf Fotos zu umgehen.
Dark Gemini zeigt was möglich ist
„Man darf den Erfolg der Macher hinter Dark Gemini nicht unterschätzen und die Bedrohung, die davon ausgeht. Zwar ist das Programm tatsächlich nicht der große Wurf, aber es zeigt, wieviel mit wenig Aufwand möglich ist. Ein kleiner Front-End-Dienst reicht also aus, um Sicherheitsrichtlinien teilweise zu brechen, die einen kriminellen Gebrauch von LLM wie ChatGPT und Google Gemini verhindern sollen. Skaliert man das hoch und denkt an große Hacker-Banden mit ihren Fähigkeiten und ihrer Kapazität, dann wird einem bewusst, was dieser auf den ersten Blick unbedeutend wirkende Hacker-Chat-Bot aus dem Dark Web wirklich für KI-Software bedeutet. Umso wichtiger ist es nun, dass einerseits über die Gesetzgebung und andererseits über die Anpassung der IT-Abwehr sowohl den Chancen der KI-Nutzung zur Arbeitserleichterung, Prozessoptimierung und Verstärkung der IT-Sicherheit, als auch den Bedrohungen durch KI-Missbrauch Rechnung getragen wird“, sagt Marco Eggerling, CISO bei Check Point Software.
Neueste Kommentare
Noch keine Kommentare zu Dark Gemini nicht unterschätzen
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.