Categories: ForschungInnovation

AI-Experten fordern Verbot autonomer Waffensysteme

Über 1000 Experten aus den Bereichen Robotik und künstliche Intelligenz (Artificial Intelligence, AI) haben in einem offenen Brief ein Verbot von autonomen Waffensystemen gefordert. Sie befürchten, dass der Einzug von künstlicher Intelligenz in die Kriegsführung zu einem neuen Wettrüsten führt – zum Nachteil der Menschheit.

Den Aufruf haben unter anderem Stephen Hawking, Tesla-CEO Elon Musk, Skype-Gründer Jaan Tallinn und Apple-Gründer Steve Wozniak unterschrieben. Verfasst wurde er vom Future of Life Institute.

Entwicklungen in den Bereichen Maschinenintelligenz und Robotik werden schon jetzt kontrovers diskutiert, beispielsweise die Auswirkungen von Kamera-Drohnen auf die Privatsphäre. Selbstfahrende Fahrzeuge haben wiederum das Potenzial, die Automobilindustrie zu revolutionieren – das Beispiel Fiat Chrysler zeigte zuletzt aber auch, dass Assistenz- und computergestützte Fahrzeugsysteme ein erhebliches Sicherheitsrisiko darstellen können.

Der offene Brief definiert autonome Waffen als Systeme, die „ohne menschliche Einflussnahme Ziele aussuchen und bekämpfen können“. Die Forscher und Experten wenden sich also unter anderem gegen bewaffnete Quadrocopter, die Menschen aufspüren und töten können.

„Autonome Waffen sind ideal für Aufgaben wie Anschläge, Destabilisierung von Nationen, Unterdrückung der Bevölkerung und selektive Tötung bestimmter ethnischer Gruppen“, heißt es in dem Brief. „Wir sind deswegen überzeugt, dass ein Wettrüsten im Bereich künstlicher Intelligenz nicht zum Vorteil der Menschheit wäre.“

Ihre Forderung nach einem Verbot stützen die Unterzeichner auf den Regelungen, die seit Jahren für chemische und biologische Waffen existieren. „Genauso wie die meisten Chemiker und Biologen kein Interesse an der Entwicklung chemischer oder biologischer Waffen haben, haben auch die meisten AI-Forscher keine Interesse an Waffen mit künstlicher Intelligenz.“ Der Einsatz im Rüstungssektor könne zudem dem öffentlichen Ansehen der AI-Forschung schaden und deren künftige Vorteile für die Gesellschaft einschränken.

Schon im Mai 2014 hatte Stephen Hawking Zweifel an der langfristigen Beherrschbarkeit von künstlicher Intelligenz geäußert. Auch Bill Gates warnte im Januar vor „superintelligenten Maschinen„, die seiner Ansicht nach allerdings erst in mehreren Jahrzehnten zu einer Gefahr werden könnten.

[mit Material von Luke Westaway, News.com]

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die ZDNet-Redaktion. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

13 Stunden ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

15 Stunden ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

16 Stunden ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

19 Stunden ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

19 Stunden ago

Latrodectus: Gefährlicher Nachfolger von IcedID

Latrodectus, auch bekannt als BlackWidow, ist auch unter dem Namen LUNAR SPIDER bekannt.

20 Stunden ago