Thomas Reed, Experte für Apple-Sicherheit bei Malwarebytes, hat die entscheidenden Aspekte auf den Punkt gebracht und neigt dazu, Apple einen Vertrauensvorschuss zu geben: „Zunächst ist es wichtig, dass Apple, anders als es sich anhört, nicht alle Fotos in der iCloud durchwühlen wird. Das gesamte Scannen nach kinderpornographischem (CSAM) Material erfolgt auf dem Gerät selbst, durch einen KI-Algorithmus. Dieses System mit der Bezeichnung neuralMatch wird zwei Funktionen erfüllen.
Die erste besteht darin, einen Hash von allen Fotos auf dem Gerät zu erstellen, bevor sie in iCloud hochgeladen werden. (Ein „Hash“ ist ein berechneter Wert, der eine eindeutige Darstellung einer Datei sein sollte, der aber nicht umgekehrt werden kann, um eine Kopie der Datei selbst zu erhalten). Dieser Hash-Wert wird mit einer Datenbank von Hash-Werten bekannter CSAM-Materialien auf dem Gerät verglichen. Das Ergebnis wird kryptografisch aufgezeichnet und zusammen mit dem Foto in der iCloud gespeichert. Überschreitet der Nutzer eine bestimmte Mindestanzahl an Fotos, die mit bekannten CSAM-Hashes übereinstimmen, kann Apple auf diese Fotos zugreifen und das iCloud-Konto wird geschlossen.
Die zweite Funktion besteht darin, Kinder unter 13 Jahren vor dem Senden oder Empfangen von CSAM-Bildern zu schützen. Apples KI versucht zu erkennen, ob über iMessage gesendete oder empfangene Bilder einen solchen Inhalt haben. In solchen Fällen wird das Kind gewarnt, und wenn es sich entscheidet, den Inhalt trotzdem anzusehen oder zu versenden, werden seine Eltern benachrichtigt. Bei Kindern zwischen 13 und 18 Jahren wird die gleiche Warnung angezeigt, aber die Eltern werden offenbar nicht benachrichtigt. Voraussetzung dafür ist, dass die Apple-ID des Kindes über ein Familienkonto verwaltet wird.
Probleme für Kinder und ihre Eltern
Dies birgt eine Menge potenzieller Probleme. Es kann sich um eine schwerwiegende Verletzung der Privatsphäre eines Kindes handeln. Zudem beruht die Funktion auf einer Annahme, die möglicherweise nicht stimmt: Dass die Beziehung eines Kindes zu seinen Eltern „gesund“ ist. Dies ist nicht immer der Fall. Eltern oder Erziehungsberechtigte könnten an der Erstellung von CSAM-Inhalten beteiligt sein. Außerdem könnte ein Elternteil eine Warnung über ein rechtmäßiges Foto sehen, das fälschlicherweise als CSAM-Inhalt identifiziert wurde, und dem Kind aufgrund der falschen Informationen Schaden zufügen (Ja, die Eltern hätten die Möglichkeit, das Foto zu sehen, aber es ist möglich, dass sie sich dagegen entscheiden, weil sie nicht wollen, dass ein solches Bild von ihrem Kind in ihrem Kopf entsteht).
Zu bedenken ist auch, dass dies für den Empfang eines Bildes gilt, nicht nur für das Senden eines Bildes. Man stelle sich den Ärger vor, den ein Tyrann oder Betrüger durch das Versenden von CSAM-Material verursachen könnte, oder den Schaden, der angerichtet werden könnte, wenn ein Kind ein CSAM-Bild erhält und es anschaut, ohne zu verstehen, warum es blockiert wird oder welche Konsequenzen es hat!
Und schließlich, wie Eva Galperin von der EFF auf Twitter betonte, besteht auch die Gefahr, dass diese gut gemeinte Funktion „eine Menge queerer Kinder bei ihren homophoben Eltern outet“.
Fehlalarme
Obwohl die Wahrscheinlichkeit gering ist, dass der Vergleich eines Hash mit einer Datei zu einem Fehlalarm (False Positive), kann dieser Fall sicher eintreten. Apple behauptet, dass die Wahrscheinlichkeit von Fehlalarmen bei eins zu einer Billion liegen soll, aber es bleibt abzuwarten, ob das in der Praxis zutrifft.
Apple bietet ein Einspruchsverfahren für Fälle an, in denen ein Konto zu Unrecht aufgrund von Fehlalarmen geschlossen wurde. Jeder, der schon einmal mit Überprüfungen und Einsprüchen bei Apple zu tun hatte, weiß jedoch, dass diese nicht immer positiv ausfallen und auch nicht immer zügig durchgeführt werden. Manchmal sind sie erfolgreich, manchmal nicht. Die Zeit wird zeigen, wie groß dieses Problem ist.
Schutz der Privatsphäre?
Für ein Unternehmen, das ständig über den Schutz der Privatsphäre seiner Nutzer spricht, scheint dies eine Abkehr vom bisherigen Ansatz darzustellen. Doch Apple hat sich offensichtlich viele Gedanken gemacht und betont, dass nichts davon auf seinen Servern passiert. Apple erklärt, dass die gesamte Verarbeitung auf dem Smartphone stattfindet und das Unternehmen die Bilder nicht sieht (es sei denn, es wird festgestellt, dass ein Missbrauch vorliegt).
Und natürlich ist CSAM ein großes Problem. Niemand – außer Pädophilen – möchte verhindern, dass die Produktion von und der Handel mit CSAM unterbunden wird. Viele werden Apple für diese Maßnahme loben.
Das heißt aber nicht, dass es keine Probleme gibt. Viele sehen dies als einen ersten Schritt auf einer schiefen Ebene. Die Blockierung von CSAM ist eine gute Sache, aber es gibt nichts, was verhindern könnte, dass die von Apple entwickelten Werkzeuge für andere Zwecke verwendet werden. Man nehme zum Beispiel an, die US-Regierung übe Druck auf Apple aus, damit es beginnt, terrorismusbezogene Inhalte zu erkennen. Wie würde das genau aussehen, wenn Apple sich dazu entschließen würde – oder dazu gezwungen wäre -, dies zu tun? Was würde passieren, wenn das iCloud-Konto einer gesetzestreuen Person aufgrund von Fehlalarmen bei ihren Fotos als in terroristische Aktivitäten verwickelt eingestuft würde? Und wie wäre es mit der Verfolgung weniger drastischer Verbrechen, wie etwa Drogenkonsum?
Es gibt weitaus mehr Beispiele, denn es gibt viele Dinge, von denen die Regierungen der Welt – einschließlich der US-Regierung – wollen, dass Apple sie verfolgt. Obwohl ich dazu neige, Apple Vertrauen zu schenken, kann es sein, dass dies nicht ganz in Apples Machtbereich liegt. Apple ist ein US-amerikanisches Unternehmen, und es ist möglich, dass künftige US-Gesetze Apple dazu zwingen, Dinge zu tun, die die Unternehmensführung nicht will.
Wir haben auch schon erlebt, dass Apple sich den Wünschen von Regierungen gebeugt hat. So hat Apple zum Beispiel Forderungen der chinesischen Regierung nachgegeben, die der Philosophie von Apple zuwiderlaufen. Obwohl Zyniker dies als Beweis dafür ansehen, dass Apple mehr an den Gewinnen aus dem großen chinesischen Markt interessiert ist (und sie haben nicht ganz Unrecht), steckt mehr dahinter. Der größte Teil der Apple-Produktion findet in China statt, und das Unternehmen würde in große Schwierigkeiten geraten, wenn China beschließen würde, Apple die Möglichkeit zu nehmen, dort Geschäfte abzuschließen. Das bedeutet, dass China ein Druckmittel hat, mit dem es Apple dazu bringen kann, sich seinen Wünschen zu beugen, zumindest innerhalb Chinas.
Warum tut Apple das?
Ich bin sicher, dass es zu diesem Thema eine Menge Diskussionen und Spekulationen geben wird. Ein Teil von Apples Motivation ist zweifelsohne der Wunsch, Kinder zu schützen und die Verbreitung von CSAM zu verhindern. Zum Teil mag es auch Marketing sein.
Für mich läuft das Ganze jedoch auf einen politischen Schachzug hinaus. Apple ist ein fantastischer Verfechter der Verschlüsselung und des Schutzes der Privatsphäre und ging sogar so weit, die Forderungen des FBI abzulehnen, Zugang zum iPhone eines mutmaßlichen Terroristen zu erhalten.
Es ist eine übliche Forderung der Strafverfolgungsbehörden an Technologieunternehmen, ihnen „Hintertüren“ zu öffnen. Im Wesentlichen handelt es sich dabei um eine Art privaten Zugang zu den Daten der Nutzer, der theoretisch nur für die Strafverfolgungsbehörden zugänglich ist. Das Problem mit solchen Hintertüren ist, dass sie in der Regel nicht geheim bleiben. Hacker können sie finden und sich Zugang verschaffen, oder abtrünnige Regierungsbeamte können ihren Zugang missbrauchen oder sogar verkaufen. So etwas wie eine sichere Hintertür gibt es nicht.
Die Weigerung von Apple, Hintertüren für den Zugriff von Behörden zu schaffen, hat viele verärgert, die glauben, dass Apple die Strafverfolgungsbehörden an der Erfüllung ihrer Aufgaben hindert. Gerne nutzen Verfechter von Hintertüren das Argument „Aber denken Sie an die Kinder“. CSAM wird häufig als Grund angeführt, warum der Zugang zu Messaging, Dateispeicherung usw. notwendig ist. Das ist eigentlich ein ziemlich cleveres Argument, da es (fälschlicherweise) den Anschein erweckt, als sei die Ablehnung von Hintertüren auch ein Argument für die Unterstützung von Pädophilen.
Indem Apple konkrete Maßnahmen gegen CSAM ergriffen hat, hat es diesem Argument effektiv die Angriffsfläche entzogen. Politiker können Apple letztlich nicht mehr beschuldigen, Pädophile zu schützen, um Hintertüren zu fordern.
Letztendlich ist dies ein Thema, das zu vielen Kontroversen und Meinungsverschiedenheiten führen wird. Einige befürworten das Vorgehen von Apple, andere lehnen es vehement ab. Apple scheint hier das Richtige tun zu wollen und sich sehr darum bemüht zu haben, die Privatsphäre so gut wie möglich zu schützen, aber es gibt einige berechtigte Gründe die Frage zu stellen, ob diese neue Funktion eine gute Idee ist.
Diese Gründe sollten nicht mit der Unterstützung oder Ablehnung der CSAM verwechselt werden, die wir alle für eine sehr schlechte Sache halten. Es gibt viel Diskussionsbedarf zu diesem Thema, aber CSAM ist ein sehr emotionales Thema, und wir sollten alle versuchen zu verhindern, dass dies unsere Bewertung der potenziellen Probleme mit Apples Ansatz verfälscht.” So weit die Einschätzung von Malwarebytes.
Büchse der Pandora
Weit kritischer fällt das Urteil von TeamDrive aus: „Apple öffnet die Büchse der Pandora“, wettert der Datenschutzexperte Detlef Schmuck gegen die Ankündigung von Apple, künftig die Fotos auf iPhones automatisch dahingehend zu untersuchen, ob sie mit dem Gesetz im Einklang stehen. Apple hatte verlauten lassen, mit dem neuen Betriebssystem iOS 15 alle Fotos auf iPhones einer Prüfung zu unterziehen, ob es sich um kinderpornografische Aufnahmen handeln könnte.
„Das ist wie eine permanente Hausdurchsuchung durch eine Firma“
„Kinderpornografie gehört zu dem abscheulichsten Verbrechen überhaupt und es ist richtig und wichtig, dagegen vorzugehen, aber es ist dennoch völlig unangebracht, Hunderte von Millionen iPhone-Besitzer unter Generalverdacht zu stellen und deshalb deren private Fotoalben zu durchsuchen“, sagt Detlef Schmuck. Er stellt klar: „Die Überwachung der Kundendaten in den Cloudservices der US-Anbieter ist längst Normalität, sicherlich nicht nur bei Apple. Aber Apple geht einen Schritt zu weit, indem die Endgeräte der Kunden einer ständigen Kontrolle unterzogen werden. Das ist wie eine permanente Hausdurchsuchung durch eine privatwirtschaftliche Firma. Man muss bedenken: Die meisten Menschen haben mehr oder minder ihr gesamtes Leben im Smartphone gespeichert. Es ist Aufgabe der Staatsanwaltschaften, der Polizei und der Gerichte, im Verdachtsfall, und nur dann, diese digitalen Hausdurchsuchungen zu genehmigen, durchzuführen und nach dem geltenden Recht zu bewerten. Aber eine Rasterfahndung durch Apple auf allen Endgeräten ist beinahe wie die Kombination eines mutmaßlichen Wunschtraums von Erich Mielke und eines Albtraums von Georg Orwell.“
„Wir können nie mehr sicher sein, welche Spionagesoftware auf unseren Smartphones läuft“
Nach Einschätzung von Detlef Schmuck hat Apple den Algorithmus zum Auffinden von Kinderpornografie auf Druck der US-Behörden entwickelt. Er fragt: „Wer will Apple oder andere US-Konzerne daran hindern, künftig auf Drängen weiterer Staaten wie beispielsweise China mit anderen Suchmustern nach unerwünschten Inhalten zu fahnden? In den USA mag nach Kinderpornografie gesucht werden, in anderen Ländern möglicherweise nach regimekritischen Texten. Wenn es nicht gelingt, Apple zurückzupfeifen, können wir nie mehr sicher sein, welche Spionagesoftware auf unseren Smartphones heimlich läuft und wonach sie Ausschau hält.“
„Die Daten von Kunden gehören den Kunden und sonst niemandem“, stellt Detlef Schmuck klar. Er ist Gründer und Geschäftsführer des Hamburger Datendienstes TeamDrive, der eine sogenannte Ende-zu-Ende-Verschlüsselung bietet. Schmuck versichert: „Bei TeamDrive sind die Daten derart gut geschützt, dass niemand außer den Kunden selbst diese entschlüsseln können, weder wir als Betreiber des Dienstes noch irgendeine Behörde auf der Welt.“ Der TeamDrive-Chef befürchtet, wie andere Datenschützer auch, dass Apple die Funktion zur Überprüfung der Korrektheit von Fotos künftig auf weitere Informationen, die im iPhone oder in der iCloud von Ende-zu-Ende verschlüsselt sein sollten, ausweiten wird.
„Rasterfahndung auf Endgeräten ist grundsätzlich abzulehnen“
„Eine Technologie zur Rasterfahndung auf Endgeräten ist grundsätzlich abzulehnen, weil sie Missbrauch und Überwachung geradezu sträflich Vorschub leistet“, sagt Detlef Schmuck. Er fragt: „Wer will Apple daran hindern, in Zukunft weitere moralische Kriterien an die mit dem iPhone erstellten Fotos zu stellen?“ und erläutert seine Befürchtung wie folgt: „Heute ist es Kinderpornografie und wir alle stimmen der Bekämpfung zu. Morgen sind es möglicherweise Verstöße gegen Corona-Regeln oder Drogenmissbrauch und es stimmen noch einige zu. Übermorgen ist es Tierquälerei oder wer weiß schon was. Alle gesetzestreuen Bürger begrüßen es, wenn diese Verbrechen geahndet werden. Aber wir wollen dieses Mandat den Staatsanwaltschaften, der Polizei und den Gerichten in Deutschland übertragen, nicht der US-Firma Apple.“
„Möglichkeit zum Eindringen in die Endgeräte würde Hacker wie ein Magnet anziehen“
Zudem warnt der TeamDrive-Chef, dass neben der willkürlich erweiterbaren Zensur durch Apple ein solches Kontrollprogramm von Hackern geentert und dazu genutzt werden könnte, in die iPhones von Hunderten Millionen Menschen einzudringen. „Die Möglichkeit, in die Endgeräte einzudringen, wird Hacker rund um den Globus wie ein Magnet anziehen“, gibt er zu bedenken.
„Ob EU oder Apple, alle wollen in unsere Privatsphäre eindringen“
Detlef Schmuck erinnert an den geheimen Entwurf einer geplanten Deklaration des EU-Ministerrats vom Herbst 2020, nach der die Betreiber von Ende-zu-Ende-verschlüsselten Diensten gezwungen werden sollten, den Behörden Generalschlüssel zu allen Kundendaten zu übergeben. Den damaligen Titel des EU-Resolutionsentwurfs „Sicherheit durch Verschlüsselung und Sicherheit trotz Verschlüsselung“ bezeichnet der TeamDrive-Chef als „völlig irreführend“.
„Faktisch hätte eine solche Resolution das Sicherheitsniveau in der EU dramatisch verschlechtert“, erklärt Detlef Schmuck und appelliert an die Öffentlichkeit: „Wenn wir die Zustimmung zur Aufweichung der Ende-zu-Ende-Kommunikation dem EU-Ministerrat verweigern, sollten wie genau dies Apple erst recht nicht erlauben. Nur durch eine lückenlose Verschlüsselung ohne Ausnahmen ist die Privatsphäre bei der digitalen Kommunikation gewährleistet.“ Die EU-Mitgliedsstaaten wären nach der Resolution in der Lage gewesen, sich mit ihren Schlüsseln jederzeit und unerkannt in private Unterhaltungen und andere verschlüsselte Übertragungen einzuklinken. „Genau dieses Privileg scheint sich jetzt Apple selbst einräumen zu wollen“, erläutert Detlef Schmuck seine Befürchtungen.
Für die Zukunft gibt der Datensicherheitsexperte Detlef Schmuck einen eher düsteren Ausblick: „Egal ob EU oder Apple, offenbar dürstet es den Staat und die Digitalkonzerne gleichermaßen danach, Zugang zu den privaten Daten der Bürger und Verbraucher zu bekommen. Wir sollten alle Hebel in Bewegung setzen, unsere Privatsphäre auch im Zeitalter der Digitalisierung zu bewahren.“
Neueste Kommentare
1 Kommentar zu Apples Maßnahmen gegen Kindesmissbrauch in der Diskussion
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Es sind zwei Fragen, die getrennt behandelt werden müssen:
Erstens: Wird nach Kipo in den privaten Daten gescannt.
und
Zweitens: Wer macht das? Apple hält hier das Betriebssystem in der Hand, dass bedeutet aber nicht, das Apple jetzt auch automatisch die Aufgabe der Durchsuchung und anschließender Sichtung übernimmt.
Beide Fragestellungen muss man strikt voneinander beantworten.
Sonst müssten zB Sony/Canon auch demnnächst seine DigiCams mit einer eigener Software ausstatten.