UN-Verhandlung über autonome Waffen : Fortschritt oder Horrorszenario? Was Sie über Killerroboter wissen sollten

Modell eines ferngesteuerten Systems im Stil eines Roboters vom Hersteller Kalaschnikow.
Modell eines ferngesteuerten Systems im Stil eines Roboters vom Hersteller Kalaschnikow.

Sie wählen selbst Ziele aus und schießen: Killerroboter. Wie weit ist die Entwicklung – und wie gefährlich ist sie?

shz.de von
27. August 2018, 10:51 Uhr

Genf | Was wie ein Science Fiction-Film klingt, ist längst in der Entwicklung. "Tödliche autonome Waffen" sind gemeint, auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab. Über den Einsatz der autonomen Waffen beraten UN-Verhandler ab Montag in Genf. Fragen und Antworten zum Thema.

Muss das nicht verboten werden?

"Man sollte die Sache nicht dramatisieren", wiegelte der Vorsitzende der Beratungen, der indische Botschafter Amandeep Gill, im Frühjahr ab. "Roboter werden nicht die Welt übernehmen." Aber Kritiker sind höchst alarmiert. "Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand", sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter ("Campaign to Stop Killer Robots"). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

Auch die Menschenrechtsorganisation Amnesty International fordert vor den Beratungen in Genf ein Verbot von Killerrobotern. "Killerroboter sind nicht mehr Stoff nur von Science-Fiction", sagte Amnesty-Mitarbeiterin Rasha Abdul Rahim. Bei Drohnen und automatischen Gewehren, die ihre eigenen Ziele auswählen könnten, habe der technologische Fortschritt bereits das Völkerrecht überholt.

"Wir bewegen uns in eine Zukunft, in der Menschen aus den Entscheidungsprozessen beim Einsatz von Gewalt ausgelöscht sein könnten", sagte Rahim. Ein Kurswechsel sei aber noch nicht zu spät. Ein Verbot vollautomatischer Waffensysteme könnte Schreckensszenarien verhindern.

Was ist der Unterschied zwischen smarten und automatischen Waffen?

Autonome Waffen werden durch die rasante Entwicklung Künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne dass ein Mensch an der Entscheidung noch beteiligt ist. Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden.

Abschussvorrichtung für eine 'Patriot-Rakete'.
Carsten Rehder/dpa
Abschussvorrichtung für eine "Patriot-Rakete".

"Es gibt eine Grauzone zwischen automatischen und autonomen Waffen", sagt Michael Biontino, bis vor Kurzem deutscher Abrüstungsbotschafter in Genf. "Autonome Waffen machen die Zielerkennung selbst, sie haben keine Zielbibliothek gespeichert."

Wie weit ist die Entwicklung?

Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung. "Angriffe sind streng auf militärische Ziele zu beschränken", heißt es in den Genfer Konventionen etwa. "Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen", sagt Davison.



Wie entscheiden die Maschinen zwischen Freund und Feind?

Die Waffen der neuen Art werfen Unmengen Fragen auf: können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat sondern Jäger ist? Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

Welche Haltung vertritt die Bundesregierung?

"Die Linie der Bundesrepublik ist klar: für uns kann die Entscheidung über Leben und Tod nicht einer Maschine übertragen werden", sagte Biontino im Frühjahr. Es steht sogar im Koalitionsvertrag: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten." Gemeinsam mit Frankreich hat Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen und künftigen Waffensystem menschlicher Kontrolle unterliegen müssen. Das sei ein zahnloser Tiger, sagt aber Küchenmeister. "Ein Verhaltenskodex ist nicht völkerrechtlich verbindlich."

Weiterlesen: Interview mit Völkerrechtler Dr. Robert Frau zu autonomen Waffensystemen (auf der Seite des Verteidigungsministeriums)

Was fordern die Gegner der Killerroboter?

Die Kampagne gegen Killerroboter verlangt einen verbindlichen Vertrag. Aber viele Länder wollen sich in ihrer Waffenentwicklung nicht einschränken lassen. Sie legen bei den Verhandlungen keine Eile an den Tag. "Dieses Zeitspiel ist hochriskant, wenn man sieht, welcher Grad an Autonomie schon erreicht worden ist", sagt Küchenmeister.

Mehr als 2000 Wissenschaftler, die mit künstlicher Intelligenz arbeiten, haben solche Waffen verurteilt. "Es gibt eine moralische Komponente", schrieben sie in einem Appell. "Wir dürfen Maschinen keine Entscheidung über Leben und Tod überlassen, für die andere – oder niemand – strafbar gemacht werden." Sie versprechen, niemals an der Entwicklung oder Herstellung von solchen Waffen mitzuhelfen und fordern Technologiefirmen auf, es ihnen gleich zu tun.

zur Startseite

Diskutieren Sie mit.

Leserkommentare anzeigen