US- Army will tödlichen KI- Panzer
4. März 2019Washington, 4.3.2019
Das Army Contracting Command (ACC) hat im Auftrag des US Army Combat Capabilities Development Command (CCDC) Vertragspartner, Verkäufer und Akademiker aufgefordert, Vorschläge für das ATLAS-Programm (Advanced Targeting and Lethality Automated System) vorzulegen. ATLAS ist ein Programm zur Verbesserung der Militärtechnologie durch Computer Vision, AI und Machine Learning (ML).
Die Militärs möchten insbesondere eine „autonome Zielerfassungstechnologie“ entwickeln, die mit Feuerleitsystemen in Panzern zusammengeführt werden kann. Nach ihren Vorstellungen sollen KI-gesteuerte Panzer fähig sein, „Ziele zu erfassen, zu identifizieren und anzugreifen“, und zwar im Vergleich zu aktuellen manuellen Aktivitäten bis zu dreimal so schnell. Außerdem will die Army ein Programm nutzen, das u.a. folgende sensor – gesteuerte Leistungen bietet: Bilderkennung, Weltmodellierung, Entfernungsbestimmung, AI- und ML-Algorithmen, Augmentation, LIDAR-Lasersysteme und Entfernungsmesser.
Das Militär macht darauf aufmerksam, dass diese Projektvorschläge noch der Richtlinie 3000.09 des Verteidigungsministeriums (DoD) unterliegen. Damit halten sie sich an jene zwei Klauseln, wonach autonome und halbautonome Waffensysteme so ausgelegt sein müssen, dass Kommandeure und Soldaten sich über den gewaltsamen Einsatz zuvor ein angemessenes Urteil bilden können.
Teilautonome Waffensysteme müssen so ausgelegt sein, dass das System im Fall einer verschlechterten oder verloren gegangenen Kommunikation nicht selbständig einzelne Ziele oder bestimmte Zielgruppen auswählt und angreift. „Alle Anwendungen des maschinellen Lernens und der künstlichen Intelligenz in diesem Programm werden bewertet, um sicherzustellen, dass sie den gesetzlichen und ethischen Standards des DoD entsprechen“, fügte der ACC hinzu.
Solche Zusicherungen können jedoch die steigende Besorgnis, die viele seit Beginn der Diskussion um „Killerroboter“ bewegt, durch Fortschritte in der KI und der ML nicht beeindrucken.
Die „Kampagne gegen die Mörderroboter“ – eine Koalition aus Nichtregierungsorganisationen (NGOs) – hofft, das ihr Eintreten für das Verbot vollständig autonomer Waffen endlich wirkt, und eine „ sinnvolle menschliche Kontrolle über den Einsatz von Gewalt“ möglich wird.
Die an der Kampagne beteiligten Mitglieder warnen davor, dass Länder wie die USA, Großbritannien, Russland und China militärische Anwendungen mit „maßgeblicher Autonomie bei den kritischen Funktionen der Auswahl und des Angriffs auf Ziele“ entwickeln,. Wenn keine strengen Sicherheitsvorkehrungen getroffen werden, könnte die Welt in einen destabilisierenden Roboterwettlauf geraten.