Anfang 2023 haben die Sicherheitsforscher die ersten Hinweise auf das Interesse von Hackern an der Nutzung von ChatGPT zur Entwicklung von Malware, Verschlüsselungstools und anderen Angriffsvektoren, die generative KI nutzen, veröffentlicht. Darüber hinaus begannen russische Cyber-Kriminelle sofort zu diskutieren, wie sie jegliche Länderbeschränkungen umgehen und ChatGPT für illegale Zwecke nutzen könnten.
Ein Jahr nach dem Start von ChatGPT stellten die Experten fest, dass der Einsatz generativer KI für viele Cybercrime-Services alltäglich geworden ist, insbesondere im Bereich des Identitätsbetrugs und Social Engineering. Einige Banden haben das Potenzial der generativen KI als Werkzeug zur Steigerung der Effektivität ihrer Dienste erkannt und prahlen sogar damit.
Fake-Accounts auf Social-Media-Plattformen stellen eine erhebliche Bedrohung für die IT-Sicherheit dar, da sie das Potenzial für bösartige Aktivitäten, Markenimitationen, die Verbreitung von Desinformationen und vieles mehr haben.
Im Dezember 2023 bot ein erfahrener Hacker mit dem offiziellen Status eines Verkäufers in einem glaubwürdigen russischen Untergrundforum eine einsatzbereite Plattform zum Verkauf an, die KI als Kernmodul zur Generierung von Inhalten für Social-Media-Plattformen wie Instagram, Facebook, Twitter und Telegram einsetzt. Damit kann die Pflege von Fake-Konten in sozialen Medien fast vollständig automatisiert werden.
In einem Fall zeigt der Hacker generierte Inhalte für weibliche Models. In einem anderen Beispiel erstellte der Akteur eine Reihe von gefälschten Profilen, die die von erfolgreichen Finanzhändlern nachahmen.
Der Bedrohungsakteur erklärt, dass er erst während der Arbeit an seiner Plattform erkannte, wie leistungsfähig diese Tools sind. Er bietet nun zwei Geschäftsmodelle an.
Der Bedrohungsakteur und sein Team erstellen alle erforderlichen Konten auf Instagram, Facebook, Telegram und Twitter. Anschließend generieren sie automatisch Inhalte und bewerben die Konten, um ihnen Sichtbarkeit und ein Gefühl der Authentizität zu verleihen, indem sie zum Beispiel relevanten Gruppen beitreten und Konten mit ähnlichen Themenfolgen.
Als Beweis für das Konzept zeigt der Schauspieler ein Beispiel von 20 Konten weiblicher Models, die mithilfe von KI erstellt und betrieben wurden. Die Plattform kann gleichzeitig Inhalte für über 200 Konten erstellen und tägliche Posts und Reels generieren. Die von der KI verwalteten Konten ziehen Follower an, und der Traffic von allen Konten kann für beliebige böswillige Zwecke genutzt werden.
Dieser verwaltete Service kostet 50 US-Dollar (46,32 Euro) für ein einzelnes Instagram-Konto pro Monat und ein Paket mit verbundenen gefälschten Social-Media-Konten in vier Netzwerken kostet 70 US-Dollar (64,85 Euro). Die Mindestbestellmenge liegt bei zehn Konten.
Die Plattform wird so verkauft, wie sie ist: Das heißt, der Käufer kümmert sich selbst um die Verwaltung aller KI-gesteuerten Konten. Eines der Hauptmerkmale des Plattformbesitzes ist die Möglichkeit, Inhalte hochzuladen und sie mit KI anzureichern.
Der Preis für die Plattform beträgt 5000 US-Dollar (4632 Euro).
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…