Categories: ForschungInnovation

AI-Experten fordern Verbot autonomer Waffensysteme

Über 1000 Experten aus den Bereichen Robotik und künstliche Intelligenz (Artificial Intelligence, AI) haben in einem offenen Brief ein Verbot von autonomen Waffensystemen gefordert. Sie befürchten, dass der Einzug von künstlicher Intelligenz in die Kriegsführung zu einem neuen Wettrüsten führt – zum Nachteil der Menschheit.

Den Aufruf haben unter anderem Stephen Hawking, Tesla-CEO Elon Musk, Skype-Gründer Jaan Tallinn und Apple-Gründer Steve Wozniak unterschrieben. Verfasst wurde er vom Future of Life Institute.

Entwicklungen in den Bereichen Maschinenintelligenz und Robotik werden schon jetzt kontrovers diskutiert, beispielsweise die Auswirkungen von Kamera-Drohnen auf die Privatsphäre. Selbstfahrende Fahrzeuge haben wiederum das Potenzial, die Automobilindustrie zu revolutionieren – das Beispiel Fiat Chrysler zeigte zuletzt aber auch, dass Assistenz- und computergestützte Fahrzeugsysteme ein erhebliches Sicherheitsrisiko darstellen können.

Der offene Brief definiert autonome Waffen als Systeme, die „ohne menschliche Einflussnahme Ziele aussuchen und bekämpfen können“. Die Forscher und Experten wenden sich also unter anderem gegen bewaffnete Quadrocopter, die Menschen aufspüren und töten können.

„Autonome Waffen sind ideal für Aufgaben wie Anschläge, Destabilisierung von Nationen, Unterdrückung der Bevölkerung und selektive Tötung bestimmter ethnischer Gruppen“, heißt es in dem Brief. „Wir sind deswegen überzeugt, dass ein Wettrüsten im Bereich künstlicher Intelligenz nicht zum Vorteil der Menschheit wäre.“

Ihre Forderung nach einem Verbot stützen die Unterzeichner auf den Regelungen, die seit Jahren für chemische und biologische Waffen existieren. „Genauso wie die meisten Chemiker und Biologen kein Interesse an der Entwicklung chemischer oder biologischer Waffen haben, haben auch die meisten AI-Forscher keine Interesse an Waffen mit künstlicher Intelligenz.“ Der Einsatz im Rüstungssektor könne zudem dem öffentlichen Ansehen der AI-Forschung schaden und deren künftige Vorteile für die Gesellschaft einschränken.

Schon im Mai 2014 hatte Stephen Hawking Zweifel an der langfristigen Beherrschbarkeit von künstlicher Intelligenz geäußert. Auch Bill Gates warnte im Januar vor „superintelligenten Maschinen„, die seiner Ansicht nach allerdings erst in mehreren Jahrzehnten zu einer Gefahr werden könnten.

[mit Material von Luke Westaway, News.com]

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Trojaner-Angriffe verdreifacht

Kaspersky meldet starke Zunahme mobiler Banking-Trojaner. Insgesamt 33,3 Millionen Angriffe auf mobile Nutzer im Jahr…

15 Stunden ago

Höherer Durchsatz in Glasfasernetzen

Optische Schalter mit Flüssigkristallspiegeln sollen die Datenpakete so stark verkleinern, dass mehr Daten durchs Netz…

16 Stunden ago

Internet-Kriminalität: 6 von 10 Nutzern betroffen

Jahresbilanz: Laut Bitkom wurden 61 Prozent Opfer von Cybercrime. Durchschnittlich läge der Schaden bei 219…

17 Stunden ago

Daten von mehr als 2 Millionen Bankkarten im Darknet geleakt

Sie stammen meist von mit Infostealern kompromittierten Systemen. Die Zahl der derzeit betroffenen Geräte schätzt…

19 Stunden ago

KI-Phone mit App-freiem Assistenten

In der MeinMagenta-App ist die Antwort-Maschine von Perplexity verfügbar.

1 Tag ago

ChatGPT-4.5: OpenAI verspricht mehr „emotionale Intelligenz“

Das neue Modell bietet auch eine bessere Erkennung von Mustern und Zusammenhängen. Bei ChatGPT-4.5 setzt…

2 Tagen ago