Diplomaten ringen um Regelwerk : Die Angst vor autonomen Waffen: Besitzen wir noch die Kontrolle?

Avatar_shz von 18. November 2021, 01:00 Uhr

shz+ Logo
Eine Drohne vom Typ MQ-1 Predator der US-Airforce: Noch geben Menschen die Befehle. Doch mit voranschreitender Technik agieren moderne Waffensysteme immer selbstständiger.
Eine Drohne vom Typ MQ-1 Predator der US-Airforce: Noch geben Menschen die Befehle. Doch mit voranschreitender Technik agieren moderne Waffensysteme immer selbstständiger.

Die Entwicklung autonomer Waffen geht immer schneller voran. Entziehen sich Killer-Maschinen bald der menschlichen Kontrolle? Warum ein Verbot so wichtig wäre - aber vorerst wohl nicht kommt.

Osnabrück | Im Streit um die Anschaffung bewaffneter Drohnen für die Bundeswehr schimmerte sie bereits durch: die Angst vor modernster Kriegsführung, durch Künstliche Intelligenz (KI) in neue todbringende Dimensionen geschraubt. Entgleitet den Menschen im Ernstfall die Entscheidungsgewalt über Leben und Tod? „Maschinen unkontrolliert über Leben und Tod entscheiden zu lassen, ist ein Angriff auf die Menschenwürde und wird zu verheerenden Verstößen gegen die Menschenrechte und das humanitäre Völkerrecht führen", warnt Mathias John, Rüstungsexperte bei Amnesty International. Tatsächlich wird die Kriegsführung der Zukunft mit der heutigen immer weniger zu tun haben. Darin sind sich Experten weitgehend einig. Wie einst das Maschinengewehr oder der Kampfpanzer ungeahnte militärische Möglichkeiten mit sich brachten, werden letale autonome Waffensysteme (AWS) Militärschläge grundlegend verändern. Die Entwicklung entsprechender Technologien läuft weltweit auf Hochtouren – ganz vorn dabei: die USA, China, Israel, Südkorea, Russland sowie Australien, Indien, die Türkei und Großbritannien. Drohnen-Schwärme auf Körpertemperatur programmiert So ist es den USA gelungen, rund 100 Mikrodrohnen aus einem fliegenden Kampfjet heraus freizusetzen, die anschließend als koordinierter Schwarm diverse Manöver ausführten. In China sind „Drohnen-Schwärme“ in der Entwicklungsphase, die so programmiert werden können, dass sie alles angreifen, was eine Körpertemperatur ausstrahlt. Und Russland hat einen Roboterpanzer gebaut, der mit einem Maschinengewehr oder einem Granatwerfer ausgestattet werden kann. Die Zeit, in der die Wahl des militärischen Ziels, die Entscheidung zum Angriff und schließlich die Freigabe des Waffeneinsatzes durch einen menschlichen Kommandeur geschieht, könnte also bald vorbei sein. Ein autonomes Waffensystem wäre nämlich in der Lage, all diese Schritte selbsttätig oder nur mit minimaler menschlicher Mitwirkung durchzuführen. Wächst hier eine neue militärische Bedrohung mit entsprechender Rüstungsspirale heran? „AWS stellen in vielerlei Hinsicht eine Herausforderung für die Rüstungskontrolle dar und werfen zahlreiche Fragen auf, sowohl was ihre Übereinstimmung mit den Prinzipien des humanitären Völkerrechts angeht als auch die Auswirkungen, die ihre Verbreitung und ihr Einsatz entfalten könnten", heißt es in einem mehr als 200-seitigen Bericht des Büros für Technik-Folgenabschätzung des Deutschen Bundestages. Noch gibt es zwar keine bewaffneten unbemannten Plattformen, die in der Lage sind im Kampfeinsatz in einer komplexen, dynamischen Umgebung ohne jede menschliche Kontrolle völlig selbstständig und zielgerichtet zu agieren. "Allerdings sind in verschiedenen Waffengattungen bereits bewaffnete unbemannte Systeme einsatzreif, die über einen relativ weitreichenden Grad an Automatisierung bzw. Autonomie verfügen und deshalb als Vorläufer von AWS klassifiziert werden können“, heißt es in dem Bericht. Neuer Anlauf über mögliche Verbotsverhandlungen Infolge der dynamischen Entwicklung bei Robotik und künstlicher Intelligenz sei es von „herausragender Bedeutung, AWS-bezogene Mechanismen der präventiven Rüstungskontrolle zu etablieren“, so die Mahnung der Experten. Das derzeit existierende Fenster von Möglichkeiten für die international abgestimmte Einhegung möglicher Gefahren durch autonome Waffen schließe sich „mit fortschreitender technologischer Entwicklung und der kontinuierlichen Integration autonomer Funktionen in Waffensysteme aller Art“. Forschende schreiben Brief an die Ampel-Koalitionäre Im Rahmen der Vereinten Nationen beraten 125 Staaten in Genf nun darüber, Verhandlungen über ein Verbot oder ein irgendwie geartetes verbindliches Regelwerk aufzunehmen. Vorgespräche dazu laufen seit Jahren. Doch der Widerstand ist groß, vor allem aus China, Russland, Israel und den USA. Zumal auch die Definition noch umstritten ist. Denn wo genau verläuft die Grenze zwischen automatisch und autonom? Ist sie nicht fließend? Washington argumentiert, es sei überhaupt noch nicht klar, wie sich die Technologien entwickelten, deshalb sei es für einen Vertrag zu früh. Ein Expertengremium empfahl der US-Regierung, deutlich mehr Geld zur Entwicklung von KI im Militärbereich bereit zu stellen, ansonsten werde man nicht mit China mithalten können. Die deutsche Verteidigungsindustrie sieht international derzeit wenig Spielraum für ein Verbot autonomer Waffensysteme. "Wir unterstützen voll und ganz die Bundesregierung, deren Bestreben es ist, die Nutzung sogenannter autonomer Waffensysteme völkerrechtlich zu ächten beziehungsweise zu beschränken. Wir sehen allerdings bisher keine Bereitschaft der Großmächte, diesem Ansatz zu folgen", sagte Hans Christoph Atzpodien, Hauptgeschäftsführer des Bundesverbands der Deutschen Sicherheits- und Verteidigungsindustrie (BDSV), unserer Redaktion. Deutsche Rüstungsindustrie sieht wenig Spielraum für Verbot Schlössen sich aber "nicht alle maßgeblichen Mächte" einer entsprechenden Vereinbarung an, bestehe "die Gefahr, dass eine Macht, die weiterhin autonome Waffen einsetzen will, für alle anderen Teilnehmer der Weltgemeinschaft zur Gefahr wird, die dann trotzdem entsprechende technologische Gegenmaßnahmen erforderlich macht". Im Produktportfolio der deutschen Verteidigungsindustrie gebe es bislang noch keine Waffensysteme, "die nach gängiger Definition den Begriff eines autonomen Waffensystems erfüllen". Opinary Iframe Human Rights Watch warnt: Der Einsatz von autonomen Waffen senke letztlich die Hemmschwelle vor militärischer Gewalt. Bislang könnten Kampfroboter im Bereich der künstlichen Intelligenz nicht zwischen Kombattanten und Zivilisten unterscheiden. Letztlich bleibe unbeantwortet, wer die Verantwortung übernimmt, wenn ein Kampfroboter Amok läuft oder gar in die Hände von Diktatoren oder Terroristen fällt. Warum ist das militärische Interesse an letalen autonomen Waffensystemen überhaupt so groß? Drei Argumente werden gern genannt: Erstens können Roboter auch bei großen Informationsmengen schnelle Entscheidungen treffen; der Einsatz autonomer Waffen erhöhte also die Geschwindigkeit von Militäroperationen. Argumente für autonome Waffensysteme Zweitens können autonom agierende Systeme in Bereichen agieren, die für Menschen nicht oder kaum zugänglich sind, weil sie keine Fernsteuerung und Funkverbindung benötigen. Und drittens könnte der Einsatz von autonomen Waffen eigene Verluste bei besonders gefährlichen Militäraktionen reduzieren und durch hohe Präzision unerwünschte Kollateralschäden vermeiden helfen. Schon heute baut eine moderne und digital vernetzte Kriegsführung auf der Sammlung und Auswertung von Daten auf; das geht mit einer zunehmenden Autonomisierung einher. Systeme zur Raketenabwehr wie das israelische „Iron Dome“ können Bedrohungsanalysen anhand vorgegebener Kriterien selbstständig durchführen und anhand des vorausberechneten Einschlagortes von Raketen oder Granaten entsprechende Gegenmaßnahmen vorschlagen. Die Kontrolle liegt letztlich aber immer noch beim Menschen - noch. Kritiker äußern Bedenken, ob es ethisch vertretbar, politisch verantwortbar und rechtlich erlaubt wäre, die Entscheidung über Leben und Tod von Menschen an Maschinen zu delegieren. Ampel-Regierung wird sich positionieren müssen Die neue Bundesregierung wird sich angesichts der immer schneller drehenden Entwicklungsspirale bei autonomen Waffen schon bald konkreter positionieren müssen als es die scheidende GroKo getan hat. In deren Koalitionsvertrag hieß es zwar: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“ Für rechtlich verpflichtende Verträge soll sich Berlin bis dato international aber noch nicht wirklich stark gemacht haben. Das könnte auch an einem milliardenschweren Rüstungsprojekt von enormer Tragweite liegen. Deutschland, Frankreich und Spanien haben vereinbart, gemeinsam ein neues Luftkampfsystem zu entwickeln. Dieses "Future Combat Air System“ (FCAS) soll neben einem klassischen Kampfflugzeug auch kleine unbenannte Flugkörper enthalten, die von einem Jet ausgesetzt werden können und dann im Verbund operieren. Diese Kampfmaschinen sollen die Fähigkeiten von Lenkflugkörpern und Drohnen verbinden und dürften somit auch autonome Funktionen haben. "Wir erwarten von der neuen Bundesregierung alles in allem eine Fortsetzung der von der bisherigen Bundesregierung zu diesem Punkt vertretenen Politik. Gerade auch im Zusammenhang mit der FCAS-Entwicklung wird mit diesen Fragen sowohl von der Industrie als auch von der Bundesregierung extrem verantwortungsbewusst umgegangen", sagte BDSV-Hauptgeschäftsführer Atzpodien. Ein Verbot von AWS fand im Bundestag bislang keine Mehrheit, da verschiedene Fraktionen die fehlende Definition beklagten und technische Entwicklungen nicht zu früh begrenzen wollten. Offener Brief von Wissenschaftlern an die neue Ampel-Regierung "Der Koalitionsvertrag der nächsten Bundesregierung könnte neben bzw. anstelle einer Ächtung autonomer Waffensysteme die Notwendigkeit menschlicher Kontrolle über den Gewalteinsatz bekräftigen und dieses Prinzip zu einem zentralen Prüfstein zukünftiger Waffenentwicklungen machen“, heißt es in einer Analyse der Stiftung Wissenschaft und Politik. Mit solchen Leitlinien im Gepäck könne eine Bundesregierung dann klarer auftreten und „in der internationalen Gemeinschaft das humanitäre Völkerrecht durch die Ausgestaltung des Konzepts der menschlichen Kontrolle weiter stärken“. Namhafte Wissenschaftler aus den Bereichen Robotik, KI und Informatik fordern die neue Ampel-Regierung in einem offenen Brief auf, international mehr für eine effektive Regulierung autonomer Waffensysteme zu tun. EU-Parlament fordert Rechtsrahmen für Künstliche Intelligenz Tatsächlich ist der politische Wille dafür entscheidend. Wie bei biologischen und chemischen Waffen geschehen, ließen sich auch AWS unproblematisch mit Hilfe eines völkerrechtlichen Vertrags verbieten. Auch das Europäische Parlament fordert in einem Initiativbericht einen EU-Rechtsrahmen für KI. Demnach müsse Künstliche Intelligenz vor allem auch im militärischen Bereich menschlicher Kontrolle unterliegen, so dass Menschen sie bei unvorhergesehenem Verhalten korrigieren oder abschalten können. Das könnte Sie auch interessieren: Nanny, Freund & Käsekontrolleur - Wo Roboter im Einsatz sind Krieg der Sterne? Bundeswehr erhält Weltraumkommando Viele Deutsche sagen ja: Führen wir bald Liebesbeziehungen mit Robotern? Zudem soll der Rechtsrahmen Begriffsbestimmungen und ethische Grundsätze auflisten, die auch auf die militärische Nutzung übertragbar sind. Der Bericht fordert die EU und ihre Mitgliedstaaten auf, sicherzustellen, dass KI und verwandte Technologien im Dienste der Menschheit und des Gemeinwohls stehen. Ob die europäischen Volksvertreter bei den nationalen Regierungen Gehör finden werden? ...

Schließen Sie jetzt den kostenfreien Probemonat ab (anschließend 8,90 €/Monat), um diesen Artikel zu lesen. Alle weiteren Inhalte auf unserer Webseite und in unserer App stehen Ihnen dann ebenfalls zur Verfügung.

Monatlich kündbar

Sie sind bereits Digitalabonnent?

Hier anmelden »

Oder kostenlos bis zu drei Artikel in 30 Tagen lesen

Registrieren »

Diskutieren Sie mit.

Leserkommentare anzeigen