Fortschritt

»Es gibt eine große Mehrheit von Leuten in den USA, die nie wieder sehen wollen, wie Leichensäcke nach Hause gebracht werden.«
–John Kaag, Philosoph

Wer führt Kriege? Staaten, Armeen, Soldaten? Oder Maschinen, Algorithmen und Roboter? In Las Vegas bewegt ein GI einen Joystick, drückt einen Knopf und tötet in 13.000 Kilometern Entfernung einen vermeintlichen Taliban. In Iran attackiert ein Schadorganismus die Steuerzentrale eines Kernkraftwerks. Andernorts steigt eine Abfang-Testrakete auf. Gespickt mit Sensorik soll sie einen feindlichen Angriff vollautomatisch erkennen und den Flugkörper in der Luft zerbersten lassen, noch bevor er seine zerstörerischen Kräfte entfalten kann. Die Zeichen der Zeit sind überdeutlich: Moderner Krieg tötet digital.

Roboter sollen selbst entscheiden können

Um ihren militärischen Vorsprung zu sichern, haben Armeen naturgemäß ein Verlangen nach bestmöglicher Ausrüstung. Sie investieren in Forschung und Entwicklung und adaptieren vielversprechende Erfindungen schnell für ihre Zwecke. Das war zuletzt bei Computern der Fall und wiederholt sich bei den Robotern. Im Branchenjargon spricht man von unbemannten Systemen oder unbemannten Fahrzeugen. Dabei spielen Menschen zwar noch eine Rolle, aber nicht mehr unmittelbar am Ort des Geschehens. Sie steuern Drohnen und Roboter mit dem Joystick und entfernen sich dabei immer weiter von ihren Maschinen. Seit geraumer Zeit schon wird Krieg aus der Ferne geführt. Nun denken die Militärstrategen weiter: Die unbemannten Systeme sollen mehr Entscheidungskompetenz bekommen, um eigenständiges Handeln zu ermöglichen. Lethal Autonomous Weapon Systems, tödliche autonome Waffensysteme, könnten am Ende dieser Entwicklung stehen.

Militärroboter in den Werbevideos der Hersteller

An der Demarkationslinie zwischen Nord- und Südkorea erstreckt sich vom Gelben bis zum Japanischen Meer üppige Natur. Sogar der Sibirischen Tiger soll durch die Gegend streifen. Menschen begegnet man hier kaum, in letzter Zeit aber seltsamen Figuren: Auf südkoreanischer Seite patroulliert unermüdlich ein Roboter, die Waffe stets im Anschlag. Anders als primitive Selbstschussanlagen kann er alle Aufgaben eines Soldaten übernehmen: Er erkennt eine Gefahr, warnt den Angreifer, entscheidet. Ob er jemals geschossen hat, ist nicht bekannt. Es heißt, man habe die Schießautomatik deaktiviert, der Blechwachmann mache noch zu viele Fehler. Dabei geht es um eine einfache Wenn-Dann-Entscheidung: Wenn ein bewegtes Objekt gesichtet wird, dann Identifizierungscode einlesen. Wenn kein Code vorhanden, dann töten.

Ronald Arkin, Professor für Robotik am Georgia Institute of Technology

Wer zieht Roboter bei Fehlern zur Rechenschaft?

Offiziell ist es der einzige bewaffnete Landroboter, von dem man weiß, dass er sich im Einsatz befindet. Produziert hat ihn  eine Samsung-Tochter. Die Entwickler kämpfen derzeit hier wie andernorts mit der Lernfähigkeit ihrer autonomen Systeme. Zivilisten lassen sich nicht mit einfachen Algorithmen von Terroristen unterscheiden, große Kinder nicht von kleinen Kämpfern. Doch während die Konstruktionen Jahr für Jahr robuster, leichter, flexibler, ausdauernder werden, lernt auch die Steuerungseinheit dazu. Schon bald wird sich die entscheidende Frage stellen:  Wie autonom darf ein Roboter sein? Wie selbstständig darf er agieren? Und wer soll ihn zur Rechenschaft ziehen, wenn er Fehler macht?

Am Georgia Institute of Technology arbeitet Ronald Arkin an der Zukunftstechnologie. Den Robotik-Ingenieur stimmen all die neuen Möglichkeiten zuversichtlich: »Vielleicht können wir Kriege, so schrecklich sich das auch anhört, weniger zerstörerisch für Unbeteiligte machen.«

Es klingt widersprüchlich: Mehr Technik soll zu humaneren Kriegen führen? Die Geräte könnten anders als Soldaten unbeeinflusst von Stress, Panik oder Hass handeln, argumentiert Arkin. Sie könnten einem vorgegebenen moralischen und juristischen Regel-Set folgen und so sicherstellen, dass das Ausmaß eines Angriffs stets angemessen ist. Viele Fachleute sehen allerdings nicht, wie das in absehbarer Zeit gelingen sollte. Selbst Arkin räumt ein, er sei sich nicht sicher.

Algorithmen retten heute bereits Leben

Das erste Etappenziel ist immerhin erreicht: Roboter räumen auf und bergen Verletzte aus der Gefahrenzone. Unzählige Bilder und Videoclips hilfreicher, robuster Roboter kursieren im Netz und wirken wie ein Gegenentwurf zu den realen Schrecken des Krieges. Auf den Schlachtfeldern der Gegenwart fließt Blut wie eh und je, und dennoch darf man mit Fug und Recht behaupten: Heute schon retten Algorithmen Leben. »Es gibt eine große, große Mehrheit in den USA, die nie wieder sehen will, wie Leichensäcke nach Hause gebracht werden«, analysiert der US-Philosoph John Kaag. »Es gibt den Drang, auf autonome Waffen zu setzen, weil sie unsere Soldaten schützen.« Es geht um die eigenen Truppen, nicht in erster Linie um Kinder, Zivilisten, Unschuldige, wie oft behauptet wird.

Noel Sharkey, Professor für Künstliche Intelligenz und Robotik an der Universität Sheffield

Schon heute sind ferngesteuerte Roboter zu Tausenden unterwegs, um mögliche Sprengkörper unschädlich zu machen. Allein im Irak sollen sie dafür mehr als 25.000 Mal eingesetzt worden sein. Andere Bodenroboter werden zur Überwachung, Aufklärung und für Patrouillen sowie »als zusätzliche Feuerkraft in städtischen Umgebungen« losgeschickt, so die International Federation of Robotics. Noch werden sie dirigiert. Doch in Zukunft könnten selbst Panzer agieren, ohne dass Soldaten sie steuern.

Die nötigen Komponenten sind dafür längst vorhanden. Die Frage ist jetzt, welche Aufgaben man ihnen tatsächlich übertragen will. Der britische Robotiker Noel Sharkey rät zur Zurückhaltung: »Nach über 50 Jahren Forschung an Künstlicher Intelligenz können wir gerade einmal einen Löwen von einem Auto unterscheiden«, sagt er. Ein Computer würde wohl mehr Unschuldige und Zivilisten töten als jeder gut ausgebildete Soldat. Automatische Systeme funktionieren nur in wohl definierten Umgebungen. Sie sind dort gut, wo nichts Unvorhergesehenes passiert. Im Krieg der bewaffneten Bodenroboter ist vollständige Autonomie deshalb – vorerst – nicht vorgesehen. Doch wie lange wird diese Zurückhaltung noch andauern?

Wollen wir, dass Maschinen über Leben oder Tod entscheiden?

Die Weltgemeinschaft tut gut daran, sich auf die neue Entwicklung einzustellen. Seit zwei Jahren führt man bei der UNO in Genf eine Grundsatzdiskussion: Haben Armeen und Generäle noch den Rückhalt der Gesellschaft, wenn es Roboter sind, die in den Krieg ziehen? Ist es legitim, wenn sich eine Kriegspartei so weit vom Schlachtfeld zurückzieht, dass sie praktisch unangreifbar wird? Und vor allem: Wollen wir zulassen, dass Maschinen über Leben oder Tod entscheiden?

Zu früh kommt diese Diskussion nicht. Der nächste Schritt ist technisch nur eine Frage der Zeit. Autonome Roboter schützen das Leben der eigenen Soldaten. Genau das könnte sie zu einer großen Gefahr für uns alle werden lassen.

Thomas Reintjes im Gespräch mit Siemnon Wezeman, Internationales Friedensforschungsinstitut