Generative KI wird von Cyberkriminellen für die Erstellung von betrügerischen E-Mails und Nachrichten, KI-gestützte Phishing-Kampagnen oder Deepfakes auf YouTube missbraucht. Die Anbieter generativer KI-Bots bekommen diese Probleme nicht in den Griff. Laut Check Point Research Team gibt es bei Bard bei der Erstellung von Phishing-E-Mails fast keine Beschränkungen und Bard lässt sich mit minimalen Manipulationen zur Entwicklung von Keyloggern für Malware verwenden.
Mobil anfälliger für Social Engineering
Mobile Geräte bilden keine Ausnahme. Die Wahrscheinlichkeit ist sogar größer, dass Handy-Benutzer eine bösartige Anwendung herunterladen oder Phishing-Versuchen zum Opfer fallen, als Desktop-Anwender. Die kleineren Bildschirme von Mobilgeräten sowie die große Anzahl von Anwendungen und Benachrichtigungen können Benutzer in die Irre führen und dafür sorgen, dass sie leichtfertiger auf bösartige Links klicken oder verseuchte Dateien herunterladen. Für viele Menschen sind soziale Netzwerke zudem die am häufigsten genutzten Anwendungen auf dem Mobilgerät, was bedeutet, dass mobile Nutzer anfälliger für Social Engineering und Phishing sind.
Die wichtigsten Gefahrenquellen
Apps, die beliebte KI-Websites und -Ressourcen imitieren (ChatGPT und Google Bard), um sensible Daten zu stehlen.
Apps, die Web-Dienste nutzen und sich als Proxys zu beliebten KI-Websites und -Ressourcen verhalten, sowie ihre Mittelsmann-Position ausnutzen, um Informationen abzuschöpfen.
App-Malware, die von generativen KI-Engines entwickelt wurde, um Endnutzer – egal ob Verbraucher oder Unternehmen – zu täuschen.
Neueste Kommentare
Noch keine Kommentare zu KI-generierte Bedrohungen für Smartphone und Co
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.