KI- und Ethik Folge 4 Sind autonome Waffen besser als der Soldat?
6. Mai 2019Warum äußern sich immer mehr Menschen empört, zornig und besorgt, wenn sie aufgefordert werden, ihre Meinung zu tödlichen autonomen Waffen abzugeben?
Das „Future of Life Institut“ hat vier Personen – ein Arzt, ein Anwalt und zwei Menschenrechtsexperten – zu diesem Thema befragt. „KI-News.online“ fasst die stärksten Argumente gegen diese Waffenart zusammen. Dann sind Sie dran. Schreiben Sie uns, was für Sie der überzeugendste Grund für ein Verbot tödlicher autonomer Waffen ist? Als Gegenpart folgt Prof. Dr. Ronald C. Atkins, der meint, man solle sich ein Verbot dieser Waffen wegen einiger Potenziale sehr gut überlegen.
Zur Anregung und zur Diskussion nun die Gegenargumente:
Wenn die Entwicklung tödlicher KI-Waffen weitergeht, dann werden wir uns bald inmitten eines KI-Rüstungswettbewerbs befinden, der zu billigeren, tödlicheren und allgegenwärtigeren Waffen führen wird. Es ist viel schwieriger, Sicherheits- und Rechtsstandards inmitten eines Wettrüstens zu gewährleisten.
Diese Waffen werden in Massenproduktion hergestellt, gehackt und fallen auf den Schwarzmarkt, wo jeder Zugang zu ihnen hat.
Diese Waffen werden leichter zu entwickeln, zugänglich und zu benutzen sein, was zu einem Anstieg der destabilisierenden Morde, ethnischen Säuberungen und einer größeren globalen Unsicherheit führen könnte.
Wenn man Menschen weiter aus der Schleife herausholt, wird die Barriere für den Kriegseintritt niedriger.
Eine größere Autonomie erhöht die Wahrscheinlichkeit, dass die Waffen gehackt werden, was es für Militärkommandanten schwieriger macht, die Kontrolle über ihre Waffen zu gewährleisten.
Aufgrund der niedrigen Kosten werden diese leicht in Serie herzustellen und zu lagern sein, was KI-Waffen zur neuesten Form von Massenvernichtungswaffen macht.
Algorithmen können spezifische Gruppen ansprechen, die auf Sensordaten basieren, wie z.B. wahrgenommenes Alter, Geschlecht, ethnische Zugehörigkeit, Gesichtszüge, Kleiderordnung oder sogar Wohnort oder Gottesdienst.
Algorithmen mangelt es an menschlicher Moral und Empathie, und deshalb können sie keine humanen, kontextbasierten Kills machen und keine Entscheidungen treffen.
Indem wir den Menschen aus der Schlinge ziehen, entmenschlichen wir die Kriegsführung grundlegend und obskur, wer letztlich für die tödliche Gewalt verantwortlich ist.
Wir wollen wissen, was Sie denken! Bitte hinterlassen Sie eine Antwort im Kommentarfeld unten.
Prof. Dr. Ronald C. Arkin ist für den Einsatz von vollautonomen Waffensystemen. Seine Argumente entnehmen wir in Ausschnitten einem Beitrag in „Ethik und Militär“ (2014/1)
Arkin ist außerordentlicher Dekan für Forschung am College of Computing an der Georgia Tech- Universität. Er arbeitete u.a. bei der Gruppe für Robotertechnik und künstliche Intelligenz am LAAS/CNRS in Toulouse.
Aus dem Studium der Geschichte folgen für Atkins zwei Erkenntnisse: es werden weiterhin Kriege geführt und technische Neuerungen machen das Töten immer effizienter.
Schon heute werde die Robotik als potentielle neue militärische Revolution angesehen. Gemeint sind damit autonom agierende Gefechtssysteme. Ihre Einsatzfelder sind: Informationsgewinnung, Überwachung, Aufklärung, Zielerfassung, Kennzeichnung und die Vorbereitung für Kampfhandlungen. Viele Systeme sind schon heute weit gehend autonom. Dazu nennt er folgende Beispiele: Fire – and- forget – Lenkwaffen, im Zielbereich kreisende Lenkwaffen, intelligente U-Boot und Panzerabwehrminen.
Atkins scheint zu glauben: Bei richtiger Anwendung könnten diese Waffen Grausamkeiten reduzieren. Seine Hauptthese ist: die autonomen militärischen Robotiksysteme könnten im Vergleich zu menschlichen Kampfeinheiten die Anzahl der zivilen Opfer und die Beschädigung zivilen Eigentums deutlich senken. Insofern sei ein Totalverbot voreilig.
Dennoch ist er der Meinung, man müsse diese Waffensysteme nicht willkürlich, sondern grundsätzlich im begrenztem Rahmen, mit Vorsicht und stufenweise einsetzen. Das sei seiner Meinung nach auch mit dem humanitären Völkerrecht vereinbar.
Damit hat Atkins sämtliche Punkte beisammen, die für den Einsatz der autonomen Systemen sprechen. Nun muss er entgegenstellen das Verhalten der Menschen auf dem Kriegsschauplatz. Er meint, das Verhalten der Menschen in Kampfsituationen hätte nichts mit Ethik zu tun. Die Bilanz sei äußerst schlecht . Und warum ist das so? Atkins greift einige Punkte heraus: Rache aufgrund hoher Verluste. Lust zu töten. Entmenschlichung des Feindes. Dann betont er: das humanitäre Völkerrecht habe in den letzten 150 Jahren die Grausamkeiten auf den Schlachtfeldern wenig verändert .
Nun stellt er vor diesem Hintergrund die Frage: Können sich die neuen Robotersysteme konsequenter an das humanitäre Völkerrecht halten? Die Antwort sieht folgendermaßen aus: schon heute sind die Roboter schneller und präziser, und in einigen Fällen wie zum Beispiel Deep Blue oder Watson intelligenter als Menschen. Also, fragt er weiter , warum fällt es uns dann so schwer sich vorzustellen dass sie irgendwann fähig sein werden uns auf dem Schlachtfeld menschlicher zu behandeln als es die Menschen bisher taten? Denn die Menschen hätten sich auf den Schlachtfeldern immer wieder furchtbare Grausamkeiten zu Schulden kommen lassen.
Die neuen Waffen hätten einen weiteren Vorteil : sie können ohne Berücksichtigung menschlicher Emotionen entwickelt werden. Damit meint er solche Reaktionen wie Frustration Angst, Wut und Hysterie. Die beim Menschen auftretenden psychologischen Probleme wie Stress können vermieden. Der Nachteil sei nämlich, das Menschen unter Druck neu hinzu kommende Informationen in ihr vorgefertigtes Glaubensmuster einpassen. Daraus ergeben sich typisch menschliche Fehlurteile. Ganz anders hingegen die neuen intelligenten Systeme. Sie sammeln Informationen aus vielen Quellen in wesentlich kürzerer Zeit und verarbeiten sie.
Es gibt natürlich auch die Gefahr, das diese Technologien können die falschen Hände geraten.
Die Frage ist jedoch, ob Roboter hinsichtlich der Einhaltung des humanitären Völkerrechts auf dem Gefechtsfeld eine höhere Regelkonformität erzielen als Menschen? Er meint dieses Ziel ist grundsätzlich erreichbar. Dabei müsse keineswegs das gesamte Spektrum menschlichen Moralempfindens nachgebildet werden. Schon aus diesen Gründen sollte weitere Forschung mit diesen Waffen keineswegs im Keim erstickt werden.
Er fragt dann: wie können die menschliche Gräueltaten auf den Gefechtsfeldern wirksam verhindert werden? Gar nicht. Denn der schwächste Punkt sei die menschliche Natur – sie arbeitet gegen uns wenn es um die Einhaltung des humanitären Völkerrechts geht.
Die Ausübung der Gewalt durch autonomen Waffensysteme ist wohl unvermeidlich – es sei denn, sie würde völkerrechtlich untersagt. Aber: der Zug ist längst abgefahren. Das geltende humanitäre Völkerrecht erlaubt die Entwicklung bzw. den Einsatz dieser Systeme nur, wenn folgende Bedingungen erfüllt sind. Erstens: es muss nachgewiesen werden, das Ziele angemessen unterschieden werden und das diese Technik in abgestufter Weise eingesetzt werden kann; zweitens: es muss gewährleistet sein dass kein unnötiges Leid verursacht wird.
Aber wie steht es mit der Verantwortung? Weil diese Systeme keine moralische Erkenntnisfähigkeit besitzen, kann man die Frage der Verantwortung ebenso behandeln wie bei anderen Waffensystemen: am Ende muss immer ein Mensch die Verantwortung tragen.