Laut einer neuen Studie von Trend Micro stellen offengelegten biometrischen Daten ein ernsthaftes Authentifizierungsrisiko für eine Vielzahl digitaler Szenarien dar, einschließlich des Metaverse, darstellen.
Jeden Tag wird eine große Menge biometrischer Daten auf digitalen Plattformen veröffentlicht. Dabei handelt es sich unter anderem um Gesichts-, Stimm-, Iris-, Handflächen- und Fingerabdruckmuster, die zur Täuschung von Authentifizierungssystemen genutzt werden können. Bilder und Audioinhalte, die auf sozialen Medien und Messaging-Plattformen, Nachrichtenseiten und Regierungsportalen täglich gepostet werden, werden so zum wertvollen Gut für Cyberkriminelle. Eine neue Studie von Trend Micro möchte auf diese Gefahren aufmerksam machen und einen Dialog in der IT- und IT-Sicherheits-Community darüber anregen, wie derartige Risiken vermieden werden können.
Es gibt zahlreiche Angriffsszenarien, die zeigen, wie Bedrohungsakteure gestohlene oder geleakte biometrische Daten nutzen können. Zum Beispiel können mithilfe von persönlichen Daten Deepfakes erstellt und sogar Umfragen oder Wahlen beeinflusst werden. Cyberkriminelle haben außerdem die Möglichkeit, betrügerische Transaktionen, gefälschte Konten oder Einkäufe online zu authentifizieren. Darüber hinaus stellen Connected Devices wie Virtual oder Augmented Reality (VR/AR)-Headsets eine Gefahr dar. Von Bedrohungsakteuren manipuliert, dienen sie als Tool, um Authentifizierungssysteme zu umgehen. Denn wer in der Lage ist, sich als eine reale Person auszugeben, kann sich problemlos Zugang zu Online-Banking-Konten, Geschäften mit Kryptowährung oder hochsensiblen Unternehmensdaten verschaffen.
Biometrische Daten spielen heute eine viel wichtigere Rolle als noch vor einem Jahrzehnt. Der technologische Fortschritt eröffnet Bedrohungsakteuren auch neue Möglichkeiten, diese auszunutzen:
Eine höhere Auflösung von Smartphone-Kameras, die Unterstützung von 4K-Videos und hochauflösenden Bildern durch Medienplattformen, die Cloud, Data Mining und Künstliche Intelligenz oder Machine Learning (KI/ML)-Funktionen führen zu einem Risikoanstieg.
Überwachungskameras können Personen auf der Grundlage von Gesichtserkennungsalgorithmen verfolgen. Diese werden anhand der von den Nutzern in soziale Medien hochgeladenen Daten trainiert.
Die Daten können auch für Identitätsdiebstahl oder die Erstellung von Deepfakes, insbesondere von Persönlichkeiten des öffentlichen Lebens, oder für die staatliche Überwachung genutzt werden.
Während der finanziell motivierte Missbrauch dieser Daten heute noch relativ selten ist, wird sein Ausmaß mit der Zeit zunehmen, da die Authentifizierungshürden weiter sinken.
„Die Verwendung biometrischer Daten wird vielfach als sicherere und einfache Alternative zu Passwörtern befürwortet. Im Gegensatz zu Passwörtern können physische Merkmale jedoch nicht einfach geändert werden.“, erklärt Udo Schneider, IoT Security Evangelist Europe bei Trend Micro „Eine Kompromittierung hat also langfristige Auswirkungen auf den Benutzer. Ein gekapertes Profil bringt demnach ähnliche Folgen mit sich, wie wenn man sich heute vollständigen Zugang zu einem PC verschafft.“
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…