Ein Forscherteam der U.S. Air Force: gebt einer künstlichen Intelligenz nukleare Codes
10. September 2019Ein Forscherteam der U.S. Air Force: gebt einer künstlichen Intelligenz nukleare Codes
New York, 10.9.2019
Dekan Curtis McGiffin, ein der Luftwaffe angehörender Forscher des Air Force Institute of Technology, sowie Adam Lowther vom Louisiana Tech Research Institute, schrieben gemeinsam einen Artikel mit dem ominösen Titel „America Needs a’Dead Hand.'“ Darin sprechen sie sich dafür aus, dass die Vereinigten Staaten „ein automatisiertes strategisches Reaktionssystem auf der Grundlage künstlicher Intelligenz“ entwickeln müssen. Mit anderen Worten, sie wollen einer KI die nuklearen Codes geben.
Die im Titel erwähnte „Tote Hand“ bezieht sich auf das halbautomatische System der einstigen Sowjetunion, das unter bestimmten Bedingungen, einschließlich des Todes des Führers der Union, Atomwaffen eingesetzt hätte.
Der entscheidende Unterschied: Das von Lowther und McGiffin vorgeschlagene KI-gestützte System würde nicht erst auf einen ersten Schlag gegen die USA warten – es würde vielmehr wissen, was es vorzeitig zu tun gilt. Wörtlich heißt in ihrem Beitrag: „Es kann notwendig sein, ein System zu entwickeln, das auf künstlicher Intelligenz basiert, mit vorbestimmten Reaktionsentscheidungen, das strategische Kräfte mit solcher Geschwindigkeit erkennt, entscheidet und leitet, dass die Herausforderung der Angriffszeitkompression die Vereinigten Staaten nicht in eine unmögliche Position bringt.“
Angriffszeitkompression bedeutet: dass moderne Technologien, einschließlich hochempfindlichem Radar und nahezu sofortiger Kommunikation, die Zeit zwischen Erkennung und Entscheidungszeit drastisch verkürzt haben. Auch moderne Waffentechnologien, insbesondere hypersonische Marschflugkörper und -fahrzeuge, schneiden das Fenster noch weiter ein.
„Diese neuen Technologien schrumpfen die Entscheidungszeit von Amerikas Senior-Leader auf ein so enges Zeitfenster, dass es bald unmöglich sein könnte, Atomwaffen rechtzeitig effektiv zu erkennen, zu entscheiden und zu lenken“, argumentieren Lowther und McGiffin.
Die Idee ist, eine KI-basierte Lösung zu verwenden, um Überraschungsfunktionen oder Vorteile von Vergeltungsschlägen des Feindes zu negieren. Es würde das ersetzen, was Lowther und McGiffin als „System von Systemen, Prozessen und Menschen“ beschreiben, das „zwangsläufig in der Lage sein muss, Starts überall auf der Welt zu erkennen und einen Atomschlag gegen einen Gegner zu starten“.
Kein Wunder, weist darauf hin, Bulletin des Atomwissenschaftlers Editor Matt Field, die Übergabe der nuklearen Codes an eine KI könnte viele negative Nebenwirkungen haben. Einer von ihnen ist die Automatisierung, wie Field in seiner Arbeit betont. Die Menschen neigen dazu, blind darauf zu vertrauen, was Maschinen ihnen sagen, und bevorzugen sogar automatisierte Entscheidungen gegenüber menschlichen Entscheidungen.