Als Machine Learning und Artificial Intelligence in den Bereich der Cyber Security Einzug hielten, wurde von den meisten Anbietern darauf hingewiesen, dass die Künstliche Intelligenz (KI) nur eine Unterstützung bieten kann, die letzte Entscheidung läge immer beim Menschen. Das Zusammenspiel von KI und Mensch, also AI-assisted humans, ist aber nicht die einzigen Wege, um Künstliche Intelligenz in die Security einzubringen: KI könnte zum „Einzelkämpfer“ in der Security werden.
So manchem Internetnutzer wäre dies ganz recht: Ein Viertel der Menschen in der EMEA-Region bevorzugt Cybersicherheit durch künstliche Intelligenz, so eine Umfrage von Palo Alto Networks. Während in Italien (38 Prozent) KI gegenüber Menschen bevorzugt wird, um die digitale Lebensweise zu schützen, ist Großbritannien (21 Prozent) eines der misstrauischsten Länder in Bezug auf den Einsatz von Maschinen statt Menschen. In Deutschland liegt dieser Wert bei 24 Prozent.
KI wechselt dann die Rolle vom Assistenten des Security-Analysten und Security-Verantwortlichen hin zum automatischen Security-Operator. Hierzu stellen sich verschiedene Fragen hinsichtlich Verantwortlichkeit, Zuverlässigkeit oder Haftung. Nicht zuletzt steht die Frage im Raum, wie weit eine automatische Cyber-Abwehr gehen kann und gehen darf.
Schon heute hilft KI bei der Automatisierung der Erkennung von Cyber-Attacken und der Antwort auf erkannte Angriffe. Die automatisierten Security-Funktionen umfassen dabei zum Beispiel die Analyse von Security-Events, die Blockade von verseuchten Endgeräten, die Beseitigung von Malware, das Aufspüren und Patchen von Sicherheitslücken oder das Abmelden verdächtiger Nutzer. Dank der Automatisierung kann die Reaktion auf Cyber-Attacken beschleunigt und optimiert werden, doch es ist wichtig, genau festzulegen, was die KI-Lösung können darf und was nicht.
Je nach eingeleiteter Reaktion sind die Folgen durchaus spürbar, wenn zum Beispiel ein Nutzerzugang automatisch blockiert wird, weil die KI Verdacht geschöpft hat, sprich das Verhalten des Nutzers vom Normalfall zu stark abgewichen ist. Womöglich sollte der Nutzer etwas ausnahmsweise erledigen, nun aber bekommt er keinen Zugang zur IT mehr.
Deshalb werden in der Regel solche „drastischen“ Reaktionen zuerst dem menschlichen IT-Sicherheitsexperten vorgelegt, der die Entscheidung über die richtige Reaktion trifft. Wenn aber eine autonome Cyber-Abwehr genutzt würde, wäre der Mensch nur noch dann der Entscheider, wenn die automatisierten Security-Prozesse gezielt unterbrochen würden.
Steve Purser, EU-Agentur für Cyber-Sicherheit ENISA, sagte: „ENISA erkennt das enorme Potenzial der künstlichen Intelligenz (KI) zur Verbesserung vieler Aspekte unseres täglichen Lebens an. Gleichzeitig sehen wir die Notwendigkeit, ein geeignetes Sicherheitsgerüst für die verschiedenen Bereiche zu entwickeln, aus denen KI besteht, und um sicherzustellen, dass wir die Technologien selbst sichern, bevor wir KI zum Sichern anderer Dinge verwenden.“
ENISA untersucht entsprechend die „Security and privacy considerations in autonomous agents“ (https://www.enisa.europa.eu/publications/considerations-in-autonomous-agents/at_download/fullReport). KI kann nur dann etwas für die Sicherheit tun, wenn sie selbst sicher ist. Im Fall einer autonomen Cyber-Abwehr betrifft dies nicht nur das Unternehmen, das geschützt werden soll, sondern auch Personen und Organisationen, die fälschlich als Angreifer eingestuft werden und Reaktionen der Cyber-Abwehr erleben müssen.
Eines der Hauptprobleme von KI ist ihre Stabilität, meint der Security-Anbieter Malwarebytes: „Während KI meist eine sinnvolle Ergänzung zu Sicherheitslösungen ist, kann eine fehlerhafte Implementierung zu unzufriedenstellenden Ergebnissen führen. Der Einsatz von KI und ML in der Malware-Detektion erfordert eine ständige Feinabstimmung. Die heutige KI verfügt nicht über das notwendige Wissen, um gutartige Dateien zu ignorieren, die nicht den erwarteten Mustern entsprechen. Wenn das Geflecht eines neuronalen Netzes zu breit ist, kann Malware der Erkennung entgehen; zu fein, und die Sicherheitslösung löst ständig Fehlalarm aus.“
Malwarebytes warnt auch vor möglichem Missbrauch: „Mit der überfallartigen Einführung von KI in der Sicherheitstechnologie wird auch für Cyber-Kriminelle eine Chance geschaffen, die Schwächen der derzeit eingesetzten KI gegen Sicherheitsanbieter und -nutzer zu verwenden. Sobald Bedrohungsakteure herausgefunden haben, wonach ein Sicherheitsprogramm sucht, können sie Lösungen finden, die ihnen helfen, die Erkennung zu umgehen und ihre eigenen bösartigen Dateien unter Verschluss zu halten.“
„Wir dürfen in Deutschland und Europa nicht nur über KI diskutieren, sondern wir müssen KI auch endlich sicher, vertrauenswürdig und erfolgreich umsetzen.“, so Sicherheitsexperte und eco-Vorstand Prof. Norbert Pohlmann.
Ist die KI nicht ausreichend sicher, bedeutet dies für eine autonome Cyber-Abwehr fatale Folgen: Die unsichere KI führt zu einer insgesamt unsicheren IT, die geschützt werden soll.
„Künstliche Intelligenz bietet gewaltige Möglichkeiten für die Gestaltung unserer Wirtschaft und unserer Informationsgesellschaft. Mit der zunehmenden Vernetzung von Unternehmen und öffentlichen Einrichtungen wächst aber auch deren potenzielle Verwundbarkeit durch Cyber-Angriffe“, sagte der Präsident des Karlsruher Instituts für Technologie (KIT), Professor Holger Hanselka. „Daher müssen wir auch die Risiken für die Cybersicherheit und den Datenschutz in den Blick nehmen. So kann KI die Sicherheit von IT-Systemen verbessern. Gleichzeitig nutzen aber auch potenzielle Angreifer KI“, sagt Hanselka. „Am KIT arbeiten wir daran, die Chancen von KI und deren Herausforderungen für die IT-Sicherheit in Einklang zu bringen.“
Auch KI-Systeme selbst könnten künftig Ziel von Hackern sein. Die Resilienz von KI-Systemen gegen Manipulation muss deshalb noch intensiver erforscht werden. Eine Möglichkeit, Angriffe auf KI-Systeme einzudämmen, sieht Müller-Quade, Initiator des Kompetenzzentrums für IT-Sicherheit KASTEL am KIT, darin, diese mit klassischen Systemen zu überwachen, die eine Art Schutzreflex auslösen könnten.
Eine andere Möglichkeit besteht sicherlich darin, dass der Mensch über die Sicherheit der KI-Systeme wacht, während die KI die Sicherheit anderer IT-Systeme kontrolliert. Das wäre dann human-assisted AI als Basis einer (teil-)autonomen Cyber-Abwehr. Es zeigt sich auch hier, dass der Bedarf an Sicherheitsexperten in Zukunft nicht verschwinden wird, selbst bei der Automatisierung der Security.
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…