Autonome Waffen könnten nach Meinung von Fachleuten die Welt so verändern wie die Einführung von Atomwaffen. Die USA, China und Russland sowie Grossbritannien, Südkorea und Israel sind in der Entwicklung autonomer Waffensysteme bereits weit fortgeschritten. Mehrere Dutzend verschiedene Staaten sowie mehrere staatliche und nichtstaatliche Organisationen setzen sich für ein Verbot ein. Besonders deutlich hat UN-Generalsekretär António Guterres seine Position gemacht: «Autonome Maschinen, die ohne menschliches Zutun Ziele auswählen und Leben vernichten, sind politisch inakzeptabel (und) moralisch abstossend.»
Automatisch, teilautonom, vollautonom
KI – Künstliche Intelligenz – ist längst ein Bestandteil militärischer Technik. Die meisten militärischen Systeme, die heute im Einsatz sind, gelten als automatisch oder teilautonom. Aufklärungsdrohnen beispielsweise werden von Menschen ferngesteuert oder fliegen ein Gebiet selbständig ab. Sie starten und landen selbständig, wenn sie dafür programmiert werden. Die Drohnen, die im September 2019 saudi-arabische Ölanlagen zerstört haben, gelten allenfalls als teilautonom. Sie finden zwar ihr Ziel selbst und zerstören es, dafür müssen sie vor dem Start aber programmiert werden.Künstliche Intelligenz schiesst nicht nur, sondern hilft auch bei der Lagebeurteilung. So sollen Situationen früher und besser erfasst werden. Abwehrsysteme wie jene in Israel können Raketenangriffe schneller feststellen als ein Mensch und selbst einen Gegenangriff starten. Wirklich vollautonome Waffen gibt es bisher nur wenige. Das «Stockholm International Peace Institute» (Sipri) zählte vor zwei Jahren 381 davon (PDF). Südkorea beispielsweise stellte bereits vor Jahren einen Roboter vor, der die Grenze zu Nordkorea gegen Angreifer verteidigen könnte.
Geht es um menschliche Ziele, warten Waffen noch auf eine Bestätigung eines Menschen, um das identifizierte Ziel zu zerstören – ein im Programmablauf kleiner, aber ethisch immens wichtiger Unterschied. Selbst die koreanische Selbstschussanlage «Super aEgis II» ist nach Angabe der Hersteller bei allen Kunden so konfiguriert, dass eine menschliche Bestätigung notwendig wird. Zunächst war diese Funktion gar nicht vorgesehen.
Tödlich selbständig: LAWS
Selbständig töten könnten Maschinen aber längst. Inzwischen können sie auch selbständig lernen, das heisst, Muster erkennen, statische Zusammenhänge verknüpfen und daraus Szenarien ableiten, für die sie nicht programmiert worden sind. Beispielsweise, wie ihr Ziel aussieht, sich bewegt und wie es am besten angegriffen wird. Eine vollautonome Waffe identifiziert ihr Ziel selbst und zerstört es selbständig. «Lethal autonomous weapon systems» (LAWS) entscheiden selbst über die Tötung eines Menschen. Das Argument «Nicht Waffen töten Menschen; Menschen töten Menschen» wäre damit hinfällig.Befürworter solcher Technologien führen an, dass autonome militärische Systeme menschliche Opfer minimieren würden. Der Robotikwissenschaftler Ronald Arkin schlägt beispielsweise vor, LAWS mit Ethikprogrammen auszustatten. Selbst wenn diese nicht fehlerfrei arbeiteten, dann immer noch besser als ein menschlicher Soldat, sagt er.
Soldat KI: Ein politisch angenehmer Kämpfer
Der KI-Kämpfer ist noch aus anderen Gründen attraktiv. Roboter werden nicht müde, treffen keine emotionalen Entscheidungen, hinterlassen keine Angehörigen und leiden nicht an PTBS (Posttraumatischen Belastungsstörungen). Argumente, die bereits Barack Obama dazu bewogen hatten, auf den Drohnenkrieg zu setzen – mit den bekannten, eher «unchirurgischen» Folgen vieler ziviler Opfer (siehe beispielsweise Infosperber: «Die anonymen Opfer des Drohnenkriegs»). Einige Drohnenpiloten, die die «Killerdrohnen» vom Schreibtisch aus steuerten, setzen sich heute gegen den US-Drohnenkrieg ein. Auch das hätte ein Ende. Eine Maschine kennt keine psychische Belastung.Fragen, die nie geklärt werden sollten
Einen Menschen von einer Katze unterscheiden kann heute schon eine durchschnittliche Überwachungskamera. Aber kann eine lernfähige «Künstliche Intelligenz» Freund und Feind auseinanderhalten? Vor allem in asymmetrischen Konflikten, in denen nicht jeder Kämpfer eine Uniform trägt? Und wer ist verantwortlich, wenn dabei ein Fehler geschieht?Fragen, die noch nicht geklärt sind und nach Auffassung vieler Experten auch nie geklärt werden sollten. Mehrere Staaten und NGOs wie «Human Rights Watch» hoffen auf ein totales Verbot, bevor LAWS in grösserer Zahl einsatzfähig sind. Ihr Argument: Die Versuchung, schnelle militärische Entscheidungen einem Programm zu überlassen, sei zu gross. Die zu erwartenden geringen Opferzahlen in den eigenen Reihen könnten die Bereitschaft von Politkern, Kriege zu führen, noch befeuern.
Der autonome Krieg hat viele Gegner, entwickelt wird dennoch
125 Staaten treffen sich im Rahmen der Konvention über konventionelle Waffen (CCW) regelmässig, um sich über Entwicklung und Verbot autonomer Waffensysteme auszutauschen. Das bisher letzte Treffen fand im August in Genf statt. Wie zu erwarten war auch diesmal ohne eindeutiges Ergebnis. Derzeit wird vor allem diskutiert, ob eine Gruppe von Staaten im Alleingang eine Ächtung autonomer Waffen beschliessen soll, ähnlich, wie es beim Verbot von Streubomben geschehen ist. Vor allem die Entwicklerstaaten USA, Russland und China sind gegen eine Ächtung.Anfang September 2019 fand in Kassel die Jahrestagung der deutschen Gesellschaft für Informatik statt. Auch dort ging es unter anderem um KI-Systeme für das Militär, wie der «Deutschlandfunk» berichtete. Für KI-Wissenschaftler ist die Unterscheidung zwischen teil- und vollautonom nicht so wichtig, eher ihre Funktionsweise. Sie ermöglicht es Systemen, Situationen einzuschätzen, indem sie selbständig lernen. Es entstehen Entscheidungsbäume, die Menschen unter Umständen nicht mehr nachvollziehen können. Die meisten Wissenschaftler lehnen einen Einsatz von KI-Systemen in militärischen Zusammenhängen ab. Die Leitlinien der Gesellschaft für Informatik stützen diese Position.