Kriminelle beginnen, die Deepfake-Videotechnologie zu nutzen, um eine Identität in Live-Online-Vorstellungsgesprächen vorzutäuschen. Nun haben Sicherheitsforscher auf eine einfache Möglichkeit hingewiesen, einen Deepfake zu erkennen: Bitten Sie die Person einfach, ihr Gesicht zur Seite zu drehen.
Der Grund dafür ist, dass die KI-Modelle von Deepfakes zwar gut darin sind, Frontalansichten von Gesichtern nachzubilden, aber nicht in der Lage sind, Seitenansichten oder Profilansichten zu erstellen, wie man sie auf Fahndungsfotos sehen kann.
Metaphysics.ai unterstreicht die Instabilität bei der Nachbildung vollständiger 90°-Profilansichten in Live-Deefake-Videos, was die Überprüfung des Seitenprofils zu einem einfachen und effektiven Authentifizierungsverfahren für Unternehmen macht, die videobasierte Online-Einstellungsgespräche durchführen.
Deepfakes oder synthetische KI-gestützte Nachbildungen von Audio-, Bild- und Videoinhalten von Menschen sind seit einigen Jahren als potenzielle Identitätsbedrohung auf dem Radar. Im Juni warnte das Federal Bureau of Investigations (FBI) jedoch, dass es einen Anstieg von Betrügern beobachtet habe, die bei Online-Vorstellungsgesprächen gefälschte Audio- und Videodateien verwendeten, was in der Pandemie immer häufiger vorkam.
Das FBI wies darauf hin, dass offene Stellen im technischen Bereich das Ziel von gefälschten Bewerbern sind, weil die Angreifer dadurch Zugang zu den IT-Datenbanken der Unternehmen, zu privaten Kundendaten und zu geschützten Informationen erhalten.
Das FBI verwies darauf, dass Videoteilnehmer einen Deepfake erkennen können, wenn Husten, Niesen oder andere Geräusche nicht mit dem übereinstimmen, was im Video zu hören ist. Der Seitenprofil-Check könnte eine schnelle und einfach zu befolgende Möglichkeit für Menschen sein, sich zu vergewissern, bevor sie ein Online-Video-Meeting beginnen.
In einem Artikel für Metaphsyics.ai beschreibt Martin Anderson die Experimente des Unternehmens. Die meisten der von ihm erstellten Deepfakes schlugen offensichtlich fehl, wenn der Kopf einen Winkel von 90° erreichte und Elemente des tatsächlichen Seitenprofils der Person enthüllte. Die Nachbildung der Profilansicht scheitert an einem Mangel an qualitativ hochwertigen Trainingsdaten über das Profil, so dass das Deepfake-Modell viel über das Fehlende erfinden oder ausmalen muss.
Ein Teil des Problems besteht darin, dass Deepfake-Software Orientierungspunkte im Gesicht einer Person erkennen muss, um ein Gesicht nachzubilden. In der Seitenansicht haben die Algorithmen nur die Hälfte der Orientierungspunkte für die Erkennung zur Verfügung, verglichen mit der Frontalansicht.
Anderson stellt fest, dass die größten Schwachpunkte bei der Verwendung von Seitenprofilvideos zur Nachbildung eines Gesichts in den Grenzen der 2D-basierten Algorithmen zur Gesichtsausrichtung und dem schlichten Mangel an Profildaten für die meisten Menschen außer Hollywood-Stars liegen.
Anderson plädiert für die Verwendung des Seitenprofils zur Authentifizierung in Live-Videobesprechungen und weist darauf hin, dass es wahrscheinlich einen dauerhaften Mangel an Trainingsdaten für die Seitenansicht von Durchschnittspersonen geben wird. Die Nachfrage nach Archivfotos von Kopfprofilen ist gering, da sie nicht schmeichelhaft sind, und die Fotografen sind nicht motiviert, sie zu liefern, da sie kaum einen emotionalen Einblick in ein Gesicht bieten.
„Dieser Mangel an verfügbaren Daten macht es schwierig, eine Reihe von Profilbildern von Nicht-Prominenten zu erhalten, die vielfältig und umfangreich genug sind, um ein Deepfake-Modell so zu trainieren, dass es Profilansichten überzeugend reproduziert“, schreibt Anderson.
„Diese Schwäche der Deepfakes bietet eine Möglichkeit, ’simulierte‘ Gesprächspartner in Live-Videogesprächen zu enttarnen, die kürzlich vom FBI als aufkommendes Risiko eingestuft wurden: Wenn Sie den Verdacht haben, dass Ihr Gesprächspartner ein ‚Deepfake-Klon‘ sein könnte, könnten Sie ihn bitten, sich für mehr als ein oder zwei Sekunden zur Seite zu drehen, um zu sehen, ob Sie immer noch von seinem Aussehen überzeugt sind.“
Sensity, ein Hersteller von Software zur Erkennung von Liveness und Deepfake, berichtete im Mai, dass neun der zehn in der Finanzbranche weit verbreiteten biometrischen Überprüfungssysteme, die für die Einhaltung der KYC-Vorschriften (Know Your Customer) eingesetzt werden, stark anfällig für Deepfake-Angriffe sind, bei denen das Gesicht ausgetauscht wird.
Auch die häufig verwendeten Aktivitätsprüfungen, bei denen eine Person in die Kamera eines angeschlossenen Geräts blickt, können leicht gefälscht werden, so die Studie. Bei diesen Tests muss die Person ihren Kopf nach links und rechts bewegen und lächeln. Bei den von Sensity verwendeten Fälschungen bewegte der vermeintliche Betrüger seinen Kopf nach links und rechts, aber das Video zeigt, dass er aufhört, den Kopf zu drehen, bevor er 90° erreicht.
Der CEO und leitende Wissenschaftler von Sensity, Giorgio Patrini, bestätigte gegenüber Metaphysic.ai, dass sie bei ihren Tests keine vollständigen 90°-Profilansichten verwendet haben.
„Seitliche Ansichten von Gesichtern können, wenn sie als eine Form der Identitätsüberprüfung verwendet werden, in der Tat einen zusätzlichen Schutz gegen Fälschungen bieten. Wie bereits erwähnt, macht der Mangel an weithin verfügbaren Profilansichtsdaten das Training von Deepfake-Detektoren sehr schwierig.“
Eine weitere nützliche Methode, um ein Live-Deefake-Modell zu erschüttern, ist die Aufforderung an den Videoteilnehmer, mit den Händen vor seinem Gesicht zu winken. Dies unterbricht das Modell und offenbart Latenz- und Qualitätsprobleme bei der Überlagerung mit dem Deepfake-Gesicht.
Neueste Kommentare
Noch keine Kommentare zu So erkennen Sie Deepfakes
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.