Google-CEO Sundar Pichai fordert in einem Artikel für die Financial Times Regierungen weltweit auf, Regeln für den Einsatz von künstlicher Intelligenz aufzustellen. Prinzipien, die sich Unternehmen selbst geben, hält er indes für unzureichend.
Unter anderem verpflichtete sich Google, keine künstliche Intelligenz zu entwickeln, die Menschen schade könne. Prinzipien, die es nur auf Papier gebe, seien jedoch bedeutungslos, kommentierte Pichai mit Hinblick auf Tools, die Google entwickelt und als Open Source bereitgestellt hat, um Artificial Intelligence auf „Fairness“ zu testen.
Außerdem räumte der Manager ein, dass jede neue Entwicklung auch mögliche negative Nebenwirkungen habe. „Es gibt echte Bedenken über die möglichen negativen Folgen der KI, von Deepfakes bis hin zum ruchlosen Einsatz der Gesichtserkennung. Zwar wird bereits einiges unternommen, um diese Bedenken zu zerstreuen, aber es werden unweigerlich noch mehr Herausforderungen auf uns zukommen, die kein Unternehmen oder keine Branche allein lösen kann.“
„Gute rechtliche Rahmenbedingungen werden Sicherheit, Erklärbarkeit, Fairness und Verantwortlichkeit berücksichtigen, um sicherzustellen, dass wir die richtigen Instrumente auf die richtige Art und Weise entwickeln“, heißt es weiter in dem Beitrag. „Eine vernünftige Regulierung muss auch einen verhältnismäßigen Ansatz verfolgen, bei dem potenzielle Schäden, insbesondere in Hochrisikobereichen, mit sozialen Chancen in Einklang gebracht werden.“
Die Entwicklung vollkommen neuer Gesetze hält Pichai indes nicht für notwendig. Stattdessen sollten Regierungen vorhandene Gesetze wie die Datenschutzgrundverordnung anpassen.
Auch Microsoft hatte sich bereits für eine Regulierung ausgesprochen, sich dabei aber auf die Gesichtserkennung im öffentlichen Raum beschränkt. Zumindest darauf soll die EU reagieren. Einem durchgesickerten Diskussionsentwurf zufolge plant die EU, die Erkennung von Gesichtern im öffentlichen Raum über einen Zeitraum von bis zu fünf Jahren zu verbieten, um Gesetzgebern die Möglichkeit zu geben, die Risiken der Technik zu erfassen und Regeln zu erstellen, die einen Missbrauch verhindern und das Recht auf Privatsphäre berücksichtigen.
Für eine Regulierung von AI setzt sich Google auch über den Branchenverband Computer & Communications Industry Association (CCIA) ein, dem auch Facebook, Mozilla, Intel und Uber angehören. In einem Brief an die EU-Kommission forderte der Verband Anfang der Woche „gezielte regulatorische Eingriffe“. Sie müssten „risikobasiert“ sein und sich auf die sensibelsten Arten von AI-Anwendungen konzentrieren, beispielsweise für den Gesundheitssektor.
In diesem Webinar stellen wir Ihnen SkySQL vor, erläutern die Architektur und gehen auf die Unterschiede zu anderen Systemen wie Amazon RDS ein. Darüber hinaus erhalten Sie einen Einblick in die Produkt-Roadmap, eine Live-Demo und erfahren, wie Sie SkySQL innerhalb von nur wenigen Minuten in Betrieb nehmen können.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…