Gartner prognostiziert, dass bis 2026 KI-generierte Deepfake-Angriffe auf biometrische Gesichtsdaten zunehmen werden. Dies wird dazu führen, dass 30 Prozent der Unternehmen diese Art von Identitätsprüfungs- und Authentifizierungslösungen als unzuverlässig ansehen.
„In den letzten zehn Jahren haben Fortschritte in der KI die Erstellung von synthetischen Bildern ermöglicht. Künstlich erzeugte Bilder von Gesichtern, bekannt als Deepfakes, können von böswilligen Akteuren verwendet werden, um die biometrische Authentifizierung zu untergraben oder ineffizient zu machen”, sagte Akif Khan, VP Analyst bei Gartner. „Daher könnten Organisationen die Zuverlässigkeit von Identitätsüberprüfungs- und Authentifizierungslösungen anzweifeln, da sie nicht mehr erkennen können, ob die zu prüfenden Gesichter echt sind oder Deepfakes.”
KI-generierte Deepfakes
Identitätsüberprüfungs- und Authentifizierungsverfahren, die biometrische Gesichtsdaten verwenden, stützen sich heute auf die Erkennung von Präsentationsangriffen (Presentation Attack Detection, PAD), um die Authentizität des Benutzers zu bewerten. „Die gegenwärtigen Standards und Testmethoden für die Definition und Bewertung von PAD-Mechanismen berücksichtigen keine digitalen Injektionsangriffe, die mit den heutzutage erstellbaren KI-generierten Deepfakes durchgeführt werden können“, so Khan.
Laut einer Studie von Gartner sind Präsentationsangriffe der häufigste Angriffsvektor, aber Injektionsangriffe werden bis 2023 um 200 Prozent zunehmen. Um solche Angriffe zu verhindern, ist eine Kombination aus PAD, Erkennung von Injektionsangriffen und Bildanalyse erforderlich.
Neueste Kommentare
Noch keine Kommentare zu Deepfakes könnten Identitätsprüfungen in Frage stellen
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.