Schlachtfeld

»Wo ist das Schlachtfeld? Zu Napoleons Zeiten wussten wir das noch.«
̶ Brad Allenby, Professor

Einst standen sich Krieger Auge in Auge gegenüber, kämpften mit Fäusten oder Schwertern Mann gegen Mann. Mit der Zeit entfernten sie sich immer weiter vom Schlachtfeld. Pfeil und Bogen leiteten die Entwicklung ein, heute sind ferngesteuerte Drohnen im Einsatz. Den Luftraum haben sie als erstes erobert, weil es am einfachsten war. Auch im Meer sind sie unterwegs, bewaffnete robotische Bodentruppen werden folgen. Schon bald könnten sie autonom agieren und in feindlichem Gebiet eigene Entscheidungen treffen: Alleine töten.

Brad Allenby, Professor für Ingenieurwesen und Ethik, an der Arizona State University

Legitime Kriegshandlung oder Hinrichtung?

Was im Krieg erlaubt ist und was nicht, ist im Völkerrecht, der Genfer Konvention, festgelegt. Hier ist niedergeschrieben, wann und wo legitim getötet werden darf und welche Umstände dies verbieten. Die Regeln des Krieges, sie gelten  auch für Maschinen. Doch die Realität zeigt: Die Maschinen bringen die Regelwerke heute schon an ihre Grenzen. Dass bei den »gezielten Tötungen« ferngesteuerter Drohnen weit mehr Menschen umkommen als die eigentlichen Zielpersonen, ist nur eines der Probleme. Fragwürdig ist auch, wie man solche Angriffe betiteln soll. Als legitime Kriegshandlung? Oder als Hinrichtung ohne Prozess? Wo ist das Schlachtfeld, wer der Feind? »Zu Napoleons Zeiten wussten wir das noch. Heute steuern Menschen Drohnen von Las Vegas aus. Macht das Las Vegas zu einem legitimen militärischen Ziel?«, fragt etwa Brad Allenby, Professor für Ingenieurwesen und Ethik an der Arizona State University. »Überall auf der Welt beteiligen sich Menschen am Cyberkrieg. Macht das alle diese Beteiligten zu einem legitimen Ziel?« Die geopolitische Struktur habe sich durch den technischen Fortschritt derart verändert, dass die Grundfesten des Regelwerks ins Wanken gerieten. Allenby fürchtet: »Die Annahmen, die dem Kriegsvölkerrecht unterliegen, könnten ungültig geworden sein.«  Der amerikanische Philosoph John Kaag wird ähnlich grundsätzlich: »Während wir unsere eigenen Truppen schützen, werden wir anfälliger dafür, bestimmte Traditionen eines gerechten Krieges zu umgehen, etwa gerechte Absichten zu haben, einen zulässigen Kriegsgrund, eine legitime Autorität.«

Genfer_Konvention_imago59990754h
Unterzeichnung der Genfer Konvention 1949

Dabei ist der ferngesteuerte Krieg erst der Anfang. In der US Army denkt man darüber nach, ein Viertel der Soldaten in Kampfbrigaden durch Roboter und unbemannte Systeme zu ersetzen. Halb-autonome Systeme werden die Vorhut bilden, bevor vollständige Autonomie eine ganz neue Dimension der Kriegsführung eröffnen wird. Die US-Navy setzt schon jetzt autonome, bewaffnete Patrouillenboote ein, die Kriegsschiffe in gefährlichen Gewässern zusätzlich absichern sollen. Solche vollkommen autonom agierende Maschinen sind technisch noch immer eine Herausforderung, vor allem in komplexeren Umgebungen an Land. Doch ethisch und völkerrechtlich ist die Entwicklung besonders problematisch.

Nur lebende Wesen sollen über Leben entscheiden

»Leben oder Tod – diese Entscheidung sollte immer ein Mensch treffen«, meint Peter Asaro vom Internationalen Komitee für die Kontrolle robotischer Waffen (ICRAC). Die Genfer Konvention stütze diese Position schon heute, sagt er und beruft sich dabei auf Artikel 57 des Zusatzprotokolls I. Darin heißt es, dass ein Kommandeur die Pflicht hat, Bürger zu schützen, dass man in jedem Fall den Einfluss auf Zivilisten in Betracht ziehen und Entscheidungen treffen muss, die sie schützen. »Und entscheiden kann nun einmal nur der Mensch«, argumentiert Asaro. Allerdings, so ganz eindeutig ist das Völkerrecht da nicht. Vieles bleibt Auslegungssache, und deshalb haben sich im ICRAC mehrere Nicht-Regierungs-Organisationen zusammengeschlossen, um autonomen Waffen den Kampf anzusagen. Sie wollen sie stigmatisieren, wie es zuvor schon bei Landminen oder Chemiewaffen gelungen ist. Technik, die imstande ist, Entscheidungen zu fällen, war noch nicht absehbar, als die maßgeblichen internationalen Verträge geschlossen wurden. Hier müsse nachgebessert werden, fordert Asaro: »Ich finde es wichtig, aus Prinzip und um Klarheit zu schaffen, diese Art von Systemen zu verbieten.«

Peter Asaro, Internationales Komitee für die Kontrolle robotischer Waffen

In den USA sichert vorläufig eine Direktive, dass Menschen an Tötungsentscheidungen beteiligt sein müssen. Wenn in Pakistan oder im Jemen eine Drohne ihre Opfer unter Beschuss nimmt, so ist es nicht die Drohne selbst, die den Schuss auslöst. Irgendwo sitzt ein Pilot und betätigt den Joystick. Doch wie lange wird diese selbstauferlegte Zurückhaltung anhalten?

Die Roboter kommen, und die Welt ist nicht darauf eingestellt. In den Vereinten Nationen laufen Diskussionen über autonome Waffen gerade erst an. Der UN-Sonderberichterstatter zu extralegalen, summarischen und willkürlichen Hinrichtungen, Christof Heyns, hat der UN-Vollversammlung ausführliche Dossiers über autonome Waffen vorgelegt. Er hat den Vorschlag eines Moratoriums ins Spiel gebracht. Bevor ein hohes Gremium sich nicht abschließend mit dem Thema befasst habe, solle kein autonomer Roboter einen Schuss abgeben, fordert Heyns.

Menschen machen Fehler, was machen Maschinen?

Im November befasste sich jetzt im Rahmen der »Konvention über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen« erstmals ein hohes UN-Gremium mit dem Problem. Ob diese Beratungen am Ende in ein Verbot der »Killerroboter« münden werden, ist kaum vorherzusagen. Auch die Befürworter führen schwerwiegende Argumente an: Soldaten machen Fehler, geraten in Panik oder handeln schlicht unmenschlich. Wikileaks hat das eindringlich dokumentiert mit der Veröffentlichung eines geheimen US-Militär-Videos, das zeigen soll, wie Soldaten von einem Helikopter aus zwei Reuters-Journalisten und ihre Begleiter angreifen,  und dabei agieren wie in einem Computerspiel. Mindestens 18 Menschen sollen dabei umgekommen sein. Die Soldaten gaben später an, die Profikamera der Journalisten mit einer Waffe verwechselt zu haben.

Es ist müßig, darüber zu spekulieren, ob eine autonome Drohne mit Bilderkennungssystem das Leben der Zivilisten gerettet hätte. Klar ist dagegen: Wissenschaftler arbeiten an solchen Systemen. Das erklärte Ziel: Ein Gerät, das die Signale vom Schauplatz des Geschehens besser versteht und besser agiert als der Mensch. Die Entwicklung hin zu mehr Autonomie wird sich nicht aufhalten lassen. In der Industrie, im Dienstleistungssektor und in Privathaushalten wird es immer mehr Roboter geben. Sie werden für uns putzen, uns durchs Museum führen, uns pflegen – nur verteidigen sollen sie uns nicht? Wer selbstfahrende Autos baut, ist auch in der Lage, selbstfahrende Panzer zu bauen. Ob diese Panzer auch selbst schießen dürfen, muss auf internationaler Ebene entschieden werden. Am besten, bevor autonome Maschinen Alltag geworden sind.

Thomas Reintjes im Gespräch mit Siemnon Wezeman, Internationales Friedensforschungsinstitut