Ex-Google-Mitarbeiter befürchtet, dass „Killerroboter“ Massenmorde verursachen könnten
19. September 2019Ex-Google-Mitarbeiter befürchtet, dass „Killerroboter“ Massenmorde verursachen könnten
New York, 19.9.2019
Eine neue Generation von autonomen Waffen oder „Killerrobotern“ könnte versehentlich einen Krieg auslösen oder Massenmorde verursachen, warnte ein ehemaliger Top-Google-Softwareingenieur laut „The Guardian“.
Laura Nolan, die letztes Jahr aus Protest gegen die Arbeit an einem Projekt zur drastischen Verbesserung der Drohnentechnologie des US-Militärs von Google zurückgetreten ist, hat gefordert, dass alle nicht von Menschen betriebenen KI-Tötungsmaschinen verboten werden. Nolan sagte, dass Killerroboter, die nicht durch menschliche Fernsteuerung gesteuert werden, durch die gleiche Art von internationalem Vertrag verboten werden sollten, der chemische Waffen verbietet.
Im Gegensatz zu Drohnen, die oft Tausende von Meilen entfernt dort als die fliegende Waffe eingesetzt werden, jedoch von Menschen kontrolliert werden, haben Killer Robots laut Nolan, das Potenzial , „verheerende Dinge zu tun, für die ursprünglich nicht programmiert waren“.
Es gibt keinen Hinweis darauf, dass Google an der Entwicklung autonomer Waffensysteme beteiligt ist. Im vergangenen Monat diskutierte ein UN-Gremium von Regierungsexperten über autonome Waffen und stellte fest, dass Google KI für den Einsatz in Waffensystemen vermeidet und bewährte Verfahren anwendet.
Nolan, die sich der Kampagne zur Beendigung von Killerrobotern angeschlossen hat und UN-Diplomaten in New York und Genf über die Gefahren autonomer Waffen informiert hat, sagte: „Die Wahrscheinlichkeit einer Katastrophe hängt davon ab, wie viele dieser Maschinen sich gleichzeitig in einem bestimmten Gebiet befinden. Was Sie hier betrachten, sind mögliche Gräueltaten und rechtswidrige Tötungen auch nach Kriegsrecht, insbesondere wenn Hunderte oder Tausende dieser Maschinen eingesetzt werden“.
Laut Nolan könnte es „ zu großen Unfällen kommen, weil sich diese Dinge auf unerwartete Weise zu verhalten beginnen. Deshalb sollten alle modernen Waffensysteme einer sinnvollen menschlichen Kontrolle unterliegen, sonst müssen sie verboten werden, weil sie viel zu unvorhersehbar und gefährlich sind.“
Google rekrutierte Nolan – die Informatik-Absolventin des Trinity College Dublin – für die Arbeit am Project Maven im Jahr 2017, nachdem sie vier Jahre lang für den Technologieriesen tätig gewesen war und zu einem der führenden Software-Ingenieure in Irland wurde.
Sie sagte, dass sie „zunehmend ethisch besorgt“ über ihre Rolle im Maven-Programm war, denn es wurde entwickelt, um dem US-Verteidigungsministerium zu helfen, die Drohnen-Videoerkennungstechnologie drastisch zu beschleunigen.
Anstatt eine große Anzahl von Militäragenten zu benutzen, um stundenlang Drohnenvideomaterial von potenziellen feindlichen Zielen durchzuspulen, wurden Nolan und andere gebeten, ein System zu bauen, bei dem KI-Maschinen Menschen und Objekte mit einer unendlich schnelleren Geschwindigkeit unterscheiden konnten.
Google ließ den Project Maven-Vertrag im März dieses Jahres auslaufen. Das war genau der Zeitpunkt, als über 3000 Mitarbeiter eine Petition aus Protest gegen die Beteiligung des Unternehmens unterzeichnet hatten.
„Als Site Reliability Engineer war meine Expertise bei Google, sicherzustellen, dass unsere Systeme und Infrastrukturen weiterhin in Betrieb sind, und dabei sollte ich Maven helfen. Obwohl ich nicht direkt an der Beschleunigung der Videomaterialerkennung beteiligt war, wurde mir klar, dass ich immer noch Teil der Tötungskette war; dass dies letztendlich dazu führen würde, dass mehr Menschen vom US-Militär in Orten wie Afghanistan ins Visier genommen und getötet würden“.
Nachdem Nolan zurückgetreten war, vertrat sie die Meinung, dass die Entwicklung autonomer Waffen ein weitaus größeres Risiko für die Menschheit darstellt als ferngesteuerte Drohnen. Sie entwarf ein Szenario, in dem externe Kräfte wie zum Beispiel wechselnde Wettersysteme die Abläufe in den Maschinen stören und durcheinanderbringen. Weil Killerroboter komplexes menschliches Verhalten nicht verarbeiten können, erscheint diesen gestörten Maschinen als Gefahr, was keine ist, sie geraten vom vorgegebenen Handlungsablauf ab und das kann dann fatale Folgen haben.
„Die andere beängstigende Sache an diesen autonomen Kriegssystemen ist, dass man sie nur wirklich testen kann, wenn man sie in einer echten Kampfzone einsetzt. Vielleicht geschieht das mit den Russen, die derzeit in Syrien leben, wer weiß? Was wir wissen, ist, dass Russland bei der UNO jeden Vertrag abgelehnt hat, geschweige denn diese Waffen zu verbieten“.
„Wenn Sie eine Maschine testen, die ihre eigenen Entscheidungen über die Welt um sie herum trifft, dann muss sie in Echtzeit laufen. Außerdem, wie trainiert man ein System, das ausschließlich auf Software läuft, wie man subtiles menschliches Verhalten erkennt oder den Unterschied zwischen Jägern und Aufständischen? Wie unterscheidet die Tötungsmaschine da draußen auf eigene Faust zwischen dem 18-jährigen Kämpfer und dem 18-jährigen, der nach Kaninchen sucht?“
Die Fähigkeit, militärische Drohnen, zum Beispiel in autonome nicht-menschliche Lenkwaffen umzuwandeln, „ist heutzutage nur noch ein Softwareproblem, das relativ leicht zu lösen ist“, sagte Nolan.