Tödliche Roboter

Die Organisation Human Rights Watch möchte autonome Waffen verbieten. Ich habe Bonnie Docherty, leitende Forscherin der Organisation und Dozentin für Rechtswissenschaften an der Harvard Law School, dazu Fragen gestellt.

Wenn wir über das Verbot von „Killer-Robotern“ sprechen, sprechen wir über Roboter, die autonom töten können. Gibt es konkrete Pläne, solche Waffen zu entwickeln?

Bonnie Docherty: Killer-Roboter sind noch Zukunftswaffen, aber in der Waffentechnik geht es immer stärker in Richtung Autonomie. Vorstufen dieser Waffen sind bereits im Einsatz oder zumindest in der Entwicklung. Der Prototyp „US-X-47B“ wurde zum Beispiel so gebaut, dass er selbstständig von einem Flugzeugträger starten und dort auch landen kann. Solche autonome Flüge sind an sich kein Problem für uns, aber die X-47B ist mit Waffenschächten ausgestattet. Wenn die Flugzeuge in Zukunft so modifiziert werden, dass sie sich auf ihre Ziele selbst einstellen, würde das System die Schwelle zur vollen Autonomie überschreiten.

Trotzdem: Ist es nicht zu früh, um das zu diskutieren, weil wir immer noch nicht wissen, was diese Waffen am Ende wirklich können?

Bonnie Docherty: Es ist nicht zu früh, solche problematischen Waffen zu diskutieren. Je mehr Länder in diese Technik investieren, desto weniger Länder werden bereit sein, sie wieder aufzugeben.

Wir haben ernsthafte Zweifel, ob völlig autonome Waffen bestimmte technische Einschränkungen jemals überwinden, so dass sie eingesetzt werden könnten, ohne gegen das Völkerrecht zu verstoßen. Aber selbst wenn diese spezifische Hürden überwunden wären, blieben andere Gefahren übrig: zum Beispiel ein neues Wettrüsten, die Verbreitung unter unverantwortlichen Akteuren sowie Verletzungen der Menschenwürde. Nationen sollten einen vorbeugenden Ansatz verfolgen. Wissenschaftliche Unsicherheiten sollten den Anstrengungen nicht im Wege stehen, die Gefahren, die durch solche Waffen entstehen, zu unterbinden.

Wenn diese Waffen wirklich funktionieren, warum sollten sie problematischer sein als zum Beispiel die heutigen ferngesteuerte Drohnen oder Lenkflugkörper?

Bonnie Docherty: Vollständig autonome Waffen wäre problematischer, da ein Mensch nicht mehr die Entscheidung trifft, wer getötet wird. Bei ferngesteuerten Drohnen treffen immer noch Menschen, die über Urteilsvermögen und Mitgefühl verfügen, die endgültigen Entscheidungen.

In Ihren Berichten kritisieren Sie auch, dass bei solchen Waffen niemand mehr zur Verantwortung gezogen werden kann. Wäre nicht diejenige Person verantwortlich, die die militärische Operation leitet?

Bonnie Docherty: Wenn ein Befehlshaber absichtlich diese vollständig autonomen Waffen missbraucht, um ein Kriegsverbrechen zu begehen, würde man ihn oder sie wahrscheinlich zur Rechenschaft ziehen. Aber wir sind besorgt über Situationen, in denen ein Roboter unvorhersehbar handelt – was nicht unwahrscheinlich erscheint, wenn keine menschliche Kontrolle mehr im Spiel ist. Es wäre unfair und nicht nach geltendem Recht, einen Befehlshaber für eine Tat verantwortlich zu machen, mit der er nicht gerechnet hat und die er auch nicht verhindern kann.

Human Rights Watch fordert ein Verbot solcher Killer-Roboter. Könnten Sie sich auch vorstellen, Regelungen zu treffen, in denen solche Robotern verwendet werden könnten? Wir müssen solche Regelungen auch für andere Situationen finden, in denen autonome Roboter eingesetzt werden. Warum sollte es keine Lösung für „Killer-Roboter“ geben?

Bonnie Docherty: Ein absolutes Verbot wäre viel effektiver als autonom Waffen auf bestimmte Nutzungsarten zu begrenzen. Sobald die Waffen im Arsenal vorhanden sind, werden selbst verantwortungsbewusste Streitkräfte versucht sein, sie zu missbrauchen. Dies geschah auch mit anderen verurteilten Waffen wie Streumunition. Es besteht auch die Gefahr, dass die Technologie in Schurkenstaaten und unter nichtstaatlichen bewaffneten Gruppen Verbreitung findet. Letzten Endes ist ein Verbot leichter durchzusetzen und erhöht die Stigmatisierung der Waffen.

Eines der Argumente für die Killer-Roboter ist, dass sie genauer und damit sicherer agieren – sie könnten also Zivilisten oder die eigenen Soldaten schonen.

Bonnie Docherty: Wir wissen nicht genau, wie sich die Technik weiter entwickelt, aber es fraglich, ob autonom Waffen das Leben von Zivilisten schonen oder dabei helfen könnten, kapitulierende oder verwundete Soldaten zu retten. Auch wenn die Waffen genauer treffen – es wäre wahrscheinlich nicht möglich, die menschliche Beurteilungsfähigkeit nachzubilden. Die brauchen Sie, um festzustellen, wer ein Zivilist ist oder ob ein Angriff angemessen ist.

Darüber hinaus gibt es andere Probleme mit Killer-Robotern, die nichts mit ihrer Präzision zu tun haben. Zum Beispiel finden es viele Menschen moralisch abstoßend, wenn eine Maschine auf dem Schlachtfeld über Leben und Tod entscheidet – und niemand zur Verantwortung gezogen werden kann, falls der Roboter fälschlicherweise einen Zivilisten tötet.

Wir müssen auf dem Schlachfeld mit mehr Automatisierung rechnen. Haben Streitkräfte, die auf solche Waffen verzichten, nicht erhebliche Nachteile?

Bonnie Docherty: Länder ohne völlig autonome Waffen fühlen sich eventuell im Nachteil, was zu einem Rüstungswettlauf führen könnte. Aber wenn die Entwicklung, die Produktion und der Einsatz dieser Waffen präventiv verboten werden, würden wir die Gefahr eines Wettrüstens minimieren.