Deepfakes sind mittlerweile in aller Munde. Sogar die Bundesregierung führt seit dem Sommer eine entsprechende allgemeinverständliche Erklärung und Warnung auf seiner Webseite. Im Geschäftsumfeld werden sie von Hackern vor allem für Business E-Mail Compromise (BEC) eingesetzt.
Hierzu ein kurzes Gedankenexperiment: Stellen Sie sich vor, Sie befinden sich in einer Telefonkonferenz mit Ihren Kollegen. Sie besprechen die neuesten Umsatzzahlen. Informationen, die Ihre Konkurrenten nur zu gerne in die Hände bekommen würden. Plötzlich flackert das Bild Ihres Kollegen etwas auf. Es zieht Ihre Aufmerksamkeit auf sich. Und als Sie es sich ansehen, fällt Ihnen etwas Merkwürdiges auf. Das Bild ihres Kollegen sieht nicht ganz korrekt dargestellt aus.
Es sieht aus wie der vertraute Kollege, es klingt wie er, aber irgendetwas scheint an ihm nicht zu stimmen. Bei näherem Hinsehen sehen Sie, dass der Bereich um sein Gesicht zu schimmern scheint und die Linien verschwommen erscheinen. Sie halten es für eine technische Panne und setzen das Meeting wie gewohnt fort. Nur um eine Woche später herauszufinden, dass in Ihrem Unternehmen ein Datenleck aufgetreten ist und die Informationen, die Sie in der Sitzung besprochen haben, nun in den Händen Ihres größten Konkurrenten sind.“
Ok, zugegeben, das klingt wie ein Plot aus einem schlechten Hollywood-Film. Aber mit den heutigen Fortschritten in der Technologie wie künstliche Intelligenz und Deepfakes könnte so ein Szenario tatsächlich eintreten und es kann tatsächlich sehr viele treffen. Bestes Beispiel ist das Video-Meeting zwischen Berlins Bürgermeisterin Franziska Giffey und einem falschen Vitali Klitschko. Es war dabei allerdings nicht allzu schwer, die Fälschung zu erkennen, denn warum sollte der deutschsprachige Klitschko plötzlich nur noch auf Russisch kommunizieren wollen.
Deepfakes (eine Mischung aus „Deep Learning“ und „Fake“) können Videos, Bilder oder Audios sein. Sie werden von einer künstlichen Intelligenz mithilfe eines komplexen maschinellen Lernalgorithmus erstellt. Diese Deep-Learning-Technik namens Generative Adversarial Networks (GAN) wird verwendet, um synthetisierte Inhalte über echte Inhalte zu legen oder völlig neue, äußerst realistische Inhalte zu erstellen. Und mit der zunehmenden Raffinesse von GANs können Deepfakes unglaublich realistisch und überzeugend sein. Sie wurden entwickelt, um ihr Publikum zu täuschen, und werden häufig von bösen Akteuren für Cyberangriffe, Betrug, Erpressung und andere Betrügereien eingesetzt.
Allerdings haben Deepfakes auch positivere Anwendungen. Wie dieses Video von Präsident Obama, das erstellt wurde, um die Zuschauer vor gefälschten Online-Nachrichten zu warnen. Oder dieses Video von Mark Zuckerberg, das erstellt wurde, um auf die Untätigkeit von Facebook bei der Entfernung von Deepfakes von seiner Plattform aufmerksam zu machen.
Die Technologie gibt es seit ein paar Jahren und wurde bereits zur Erstellung gefälschter grafischer Inhalte mit berühmten Persönlichkeiten verwendet. Ursprünglich war es ein kompliziertes Unterfangen, ein Deepfake zu erstellen. Man benötigte stundenlanges vorhandenes Video-Material. Inzwischen ist es aber so weit fortgeschritten, dass es jeder ohne große technische Kenntnisse nutzen kann.
Jeder, der über einen leistungsfähigen Computer verfügt, kann mit Programmen wie DeepFaceLive und NVIDIA Maxine seine Identität in Echtzeit fälschen. Und für Audio-Aufnahmen können Programme wie Adobe VoCo (seit 2016 bekannt) verwendet werden, dass die Stimme einer Person sehr gut imitieren kann. Das bedeutet, dass Mitarbeitende in ein Zoom- oder Team-Meeting gehen und wie fast jeder aussehen und klingen können. Sie installieren das Programm, konfigurieren es und schon sind sie fertig. Sie wählen eine der vorgefertigten Identitäten oder geben eine von ihnen selbst erstellte Identität ein, und schon können sie loslegen. Es ist wirklich so einfach.
Einer der Gründe, warum Unternehmen Deepfakes so misstrauisch gegenüberstehen, ist die Benutzerfreundlichkeit. Kombiniert man dies mit dem realistischen Inhalt, kann es sehr schnell beängstigend werden. Was wäre, wenn ein Betrüger ihre Identität in einem Deepfake verwenden würde? Wem kann man im heutigen digitalen Zeitalter, in dem Geschäfte genauso leicht über ein Telefon- oder Videogespräch abgewickelt werden können, noch vertrauen?
Und das ist eine der grundlegenden Gefahren von Deepfakes. Wenn sie in einem erweiterten Social-Engineering-Angriff eingesetzt werden, sollen sie dem Opfer ein gewisses Maß an Vertrauen einflößen. Aufgrund dieser Gefahr hat das FBI eine öffentliche Bekanntmachung herausgegeben und vor der zunehmenden Bedrohung durch synthetische Inhalte gewarnt und den Angriffen sogar einen neuen Namen gegeben: Business Identity Compromise (BIC).
Was können Unternehmen also tun, um sich vor Deepfakes zu schützen? Können sie sich tatsächlich gegen eine Form des Angriffs wehren, die speziell darauf ausgerichtet ist, uns zu täuschen? Ja, das kann man, aber bei der Geschwindigkeit, mit der sich die Technologie weiterentwickelt, ist das gar nicht so einfach. Dinge, die darauf abzielen, unsere Sinne zu täuschen, sind in der Regel erfolgreich. Aber es gibt Indikatoren, an denen ein Deepfake erkannt werden kann:
1) Erkennen von Fälschungen (Deepfakes)
Deepfakes können sehr gut gemacht sein, weisen aber oft dennoch einige Mängel oder Verzerrungen, Verwerfungen oder andere Ungereimtheiten auf. Diese Indikatoren können gleichmäßige Augenabstände sein (Augen sind schwer gut zu fälschen) und seltsam aussehende Haare (ebenso schwer), besonders an den Rändern. Sie können auch auf Unstimmigkeiten bei der Synchronisierung von Lippen-, Audio- und Gesichtsbewegungen achten.
Auch Beleuchtungsprobleme sind ein gutes Indiz für ein Deepfake, man sollte also darauf achten, ob die Beleuchtung und die Schatten realistisch aussehen. Wenn es sich bei dem Material um ein Video handelt, sollte man es an bestimmten Stellen verlangsamen oder pausieren. So kann ein Deepfake leicht erkannt werden.
Eine weitere Möglichkeit, ein Deepfake zu erkennen, ist die Betrachtung der Quelle. Wo wurde es veröffentlicht? Handelt es sich um eine zuverlässige Quelle, die das Material überprüft hat, bevor sie es online stellt?
2) Sich selbst trainieren
Security Awareness Training ist ein Muss für jedes gute Sicherheitsprogramm. Wenn Unternehmen ihre Mitarbeitenden nicht darin schulen, wie sie Bedrohungen erkennen und wie sie am besten darauf reagieren können, wie wollen sie dann das richtige Sicherheitsverhalten bei den Mitarbeitern erreichen?
Da es sich bei Deepfakes um eine so neue Form des Angriffs handelt und viele Menschen sie noch nicht kennen, ist es umso wichtiger, sich schnell auf den neuesten Stand zu bringen. Es gibt Technologien, mit denen Unternehmen Deepfakes erkennen können. Aber es ist noch zu früh, und sie sind teuer und können oft nur verwendet werden, um Deepfakes in einer Reihe von vorhandenen Medien zu erkennen. Damit sind sie für Echtzeitkommunikation wie Zoom oder Teams ungeeignet. Tools, die Mitarbeitende täglich nutzen.
3) Bewährte Sicherheitspraktiken und Zero Trust
Im Sicherheitsbereich ist es eine erfolgreiche Regel, Dinge zu überprüfen, denen man nicht vertraut. Beispiele dafür sind Fragen an jemanden, dem man nicht vertraut, während einer Telefonkonferenz. Oder die Verwendung des digitalen Fingerabdrucks oder von Wasserzeichen auf Bildern.
Verifizierungsverfahren sind eine sehr wirksame Methode zur Abwehr von Fälschungen. Welche Unternehmen einsetzen, hängt von den selbstauferlegten Sicherheitsanforderungen ab. Aber welches Verfahren Unternehmen auch immer verwenden, sie sollten sicherstellen, dass es regelmäßig getestet wird. Und wenn ein Deepfake entdeckt wird, sollten Mitarbeitende immer ihr Unternehmen und vor allem ihr Sicherheitsteam darüber informieren. Es könnte ja sein, dass der oder die Betroffene nicht der oder die Einzige sind, den böse Akteure zu täuschen versuchen.
Vertrauen ist eine Grundvoraussetzung für die Interaktion. Man sollte es also nicht übertreiben und nicht misstrauisch gegenüber allem werden, was potentiell gefälscht sein könnte. Stattdessen sollte auf die besprochenen Anzeichen geachtet werden, und wenn diese erkannt werden, entsprechende Handlungen erfolgen.
Eine weitere bewährte Praxis besteht darin, Telefonkonferenzen privat zu halten. Alle Videos, Telefonkonferenzen und Webinare sollten (zumindest) durch ein Passwort geschützt sind, damit nur vertrauenswürdige Personen Zugang dazu haben.
4) Die Bedrohung verstehen
Deepfakes werden nicht nur bei Videos eingesetzt. Sie sind wahrscheinlich die bekannteste Anwendung, weil Hollywood-Blockbuster wie „The Irishman“ diese Technologie einsetzen. Sie sollten sich aber darüber im Klaren sein, dass diese Technologie es böswilligen Akteuren ermöglicht, auch Sprach-Deepfakes zu verwenden, um Betrug auszuüben. Deepfakes sind eine facettenreiche Technologie mit vielen Anwendungsmöglichkeiten.
5) Nicht zu viel preisgeben
Um ein Deepfake zu erstellen, benötigen Cyberkriminelle vorhandene Video- und Audio-Inhalte eines Opfers. Und mit unserem Wunsch, so gut wie jeden kleinen Aspekt unseres Privat- und Arbeitslebens in den sozialen Medien zu teilen, machen wir es ihnen sehr leicht. Es empfiehlt sich die öffentliche Präsenz in den sozialen Medien einzuschränken. Ein Cyberkrimineller sollte es nicht zu leicht haben, dass eigene Aussehen nachzubilden oder die eigene Stimme auf der Grundlage öffentlich zugänglicher Daten zu stehlen.
Fazit
Obwohl die Technologie hinter den Deepfakes immer weiter fortschreitet, befinden sie sich als Angriffsvektor noch im Anfangsstadium. Das gibt Unternehmen Zeit, sich vorzubereiten. Aber eines ist sicher. Mit der Zeit werden wir sehen, dass Deepfakes von Cyberkriminellen immer häufiger als Mittel zur Täuschung und zum Betrug eingesetzt werden. Sie sind einfach eine Bedrohung, die man nicht ignorieren kann.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…