Künstliche Intelligenz gehört zu den Top-Themen der digitalen Wirtschaft, wie kürzlich eine Bitkom-Umfrage bestätigte. Der Weltmarkt für Anwendungen in den Bereichen Artificial Intelligence (Künstliche Intelligenz), Cognitive Computing und Machine Learning steht vor dem Durchbruch, so der Digitalverband Bitkom.
Doch Datenschützer und Verbraucherschützer warnen, wieder einmal, werden manche sagen. Die Aufsichtsbehörden für den Datenschutz sehen Bedarf, die Auswirkungen digitaler Technologien auf den Datenschutz genauer zu untersuchen, zum Beispiel, wie sich moderne Robotertechnik, künstliche Intelligenz und maschinelles Lernen auf die informationelle Selbstbestimmung auswirken und wie Datenschützer auf diese Herausforderungen reagieren können. Intelligente Assistenten wie Google Home oder Amazon Echo wecken Bedenken und Kritik. Doch Anwendungen, die in Richtung Künstliche Intelligenz gehen, helfen auch dem Datenschutz.
Künstliche Intelligenz bietet auch Unterstützung für Datenschutz
Bekanntlich haben Unternehmen große Schwierigkeiten damit, Datenpannen schnell und zuverlässig zu erkennen: 44 Prozent der Unternehmen sind laut CSI-Report von Balabit nicht in der Lage, Datenschutzverletzungen innerhalb von 72 Stunden zu erkennen und zu melden. Nicht nur im Hinblick auf die Datenschutz-Grundverordnung (DSGVO) besteht also dringender Handlungsbedarf. Hier können Lösungen mit Artificial Intelligenz (AI) helfen, nicht erst in Zukunft: Über 40 Kunden nutzen bereits IBM Watson Security-Technologie. Chatbots wie Demisto und Artemis unterstützen Security-Analysten bei der Suche nach möglichen Attacken. Die Deutsche Telekom hat einen Wettbewerb zu Privacy-Bots gestartet, die intelligenten Assistenten sollen Nutzern zum Beispiel dabei helfen, den Datenschutz bei Websites besser verstehen und prüfen zu können. Selbst bei der Polizei-Arbeit kommen erste KI-Systeme zum Einsatz.
Viele Security-Anbieter erweitern zudem ihre Lösungen um Machine Learning und Artificial Intelligence, so dass AI deutliche Folgen für die Cyber-Sicherheit haben wird. Einige Beispiele:
Risikoanalyse zur Künstlichen Intelligenz ist ein Muss
AI-Systeme werden die Security bei der Risikoanalyse unterstützen, sie müssen aber auch selbst einer Risikoanalyse unterzogen werden. Wie zum Beispiel das Future of Life Institute betont, können AI-Systeme so angelernt werden, dass sie Schaden anrichten und zum Beispiel selbst Cyber-Attacken ausführen. Oder aber AI-Systeme haben gute Ziele, gehen aber Wege, die Schaden anrichten können. Es gibt also gute Gründe dafür, wenn sich Google, Facebook, Amazon, IBM und Microsoft gemeinsam mit den möglichen Folgen von AI und notwendigen Richtlinien für AI befassen.
Aus Sicht des Datenschutzes gilt: „Hat eine Datenverarbeitung, insbesondere bei Verwendung neuer Technologien, aufgrund der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, so führt der Verantwortliche vorab eine Abschätzung der Folgen der vorgesehenen Verarbeitungsvorgänge für den Schutz personenbezogener Daten durch“. Eine Datenschutzfolgenabschätzung umfasst dabei eine systematische Beschreibung der geplanten Verarbeitungsvorgänge und der Zwecke der Verarbeitung, eine Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck, eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen und die zur Bewältigung der Risiken geplanten Abhilfemaßnahmen. Soweit das Datenschutzrecht.
AI braucht neue Datenschutz-Instrumente
Bedenkt man aber, dass AI-Systeme per Definition selbstlernend sind und „eigene Wege“ gehen können, also eigene Regeln entwickeln, ist die Anwendung des Instruments einer Datenschutzfolgenabschätzung nicht einfach, manche werden das Gefühl haben, es ist kaum möglich, dies wie in anderen Fällen umzusetzen. Google-Forscher berichteten zum Beispiel davon, dass AI-Systeme ihre eigene Verschlüsselung zur Kommunikation entwickeln. Diese im Sinne einer Datenschutzkontrolle zu überprüfen, wird sicherlich nicht einfacher werden als herkömmliche Verschlüsselungsprüfungen, bei denen man mit den Anbieter-Firmen zumindest von Mensch zu Mensch sprechen kann.
Datenschutz bei AI-Systemen muss deshalb noch früher einsetzen als bei der Kontrolle von Funktionen und Verfahren. Im Sinne von Privacy by Design müssen die Algorithmen derart gestaltet werden, dass sie transparent, prüfbar und datenschutzfreundlich sind. Entsprechende Forderungen wurden zum Beispiel im „Statement on Algorithmic Transparency and Accountability“ von der Association for Computing Machinery US Public Policy Council (USACM) aufgestellt. Diese Ideen sollten nun in die Datenschutz-Diskussion zu Künstlicher Intelligenz einfließen, damit AI-Systeme dem Datenschutz helfen und kaum durchschaubare Datenrisiken gleich von Beginn an vermieden werden.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…