Atomkrieg aus Versehen – ist das möglich?

Atomkrieg aus Versehen – ist das möglich?

8. Januar 2020 0 Von Horst Buchwald

Atomkrieg aus Versehen – ist das möglich?

Von Karl Hans Bläsius und Jörg Siekmann

Frühwarnsysteme dienen der Erkennung von möglichen Angriffen durch Atomraketen auf der Basis von Sensordaten. Eine frühe Erkennung eines Angriffs mit Atomraketen soll Gegenmaßnahmen vor einem vernichtenden Einschlag ermöglichen. Bei einer Alarmmeldung stehen in der Regel nur wenige Minuten zur Verfügung, um diese zu überprüfen und die Situation zu bewerten. Das Ende des INF-Vertrages hat bereits jetzt zu einem neuen Wettrüsten geführt, bei dem vor allem Hyperschallraketen eine hohe Priorität haben. Mit diesen neuen Waffen werden die Vorwarnzeiten weiter sinken.

Bei einer falschen Alarmmeldung hängt die Situationsbewertung auch von der weltpolitischen Lage ab. Zum Beispiel kann es in einer Krise mit gegenseitigen Drohungen und dem zufälligen Zusammentreffen mit weiteren Ereignissen (z.B. Cyberangriffen) zu einer falschen Bewertung und damit zu einem Atomkrieg aus Versehen kommen.

Für die Klassifikation von Sensordaten und die Bewertung einer Alarmsituation sind immer mehr computergestützte Verfahren insbesondere der Künstlichen Intelligenz (KI) erforderlich, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen. Es gibt bereits Forderungen autonome KI-Systeme für die Bewertung und Verarbeitung von Alarmmeldungen zu realisieren, da eventuell keine Zeit für menschliche Entscheidungen bleiben wird.*

Die Klassifikation von Sensordaten und automatische Situationsbewertungen sind unsicher. Erkennungsergebnisse gelten nur mit einer gewissen Wahrscheinlichkeit und können in einzelnen Fällen falsch sein, was dann auch für automatische Annahmen und Schlussfolgerungen gilt, die auf diesen Erkennungsergebnissen basieren.

Eine fachliche Beurteilung KI-basierter Entscheidungen durch Menschen ist in der kurzen verfügbaren Zeit kaum möglich. Dies gilt schon deshalb, weil die automatische Erkennung oft auf Hunderten von Merkmalen basiert. Die KI-Systeme können in der Regel keine einfachen nachvollziehbaren Begründungen liefern und selbst wenn Erkennungsmerkmale von einem KI-System ausgegeben werden, könnten diese nicht in der verfügbaren Zeit überprüft werden. Dem Menschen bleibt nur zu glauben, was die KI-Systeme liefern.

Bei vielen Anwendungen können KI-Systeme zu besseren Entscheidungen fähig sein als Menschen. Dies wird z.B. auch für das autonome Fahren erwartet. Voraussetzung hierfür sind umfangreiche Lerndaten auf Basis vieler Tests, auch unter realen Bedingungen. Trotzdem passieren Unfälle.

Für KI-Entscheidungen in Frühwarnsystemen gelten jedoch andere Bedingungen, da Tests von solchen Systemen unter realen Bedingungen kaum möglich sind. Ähnlich große Datenmengen wie beim autonomen Fahren wird es nicht geben. Auch auf Basis weniger Beispiele können KI-basierte Erkennungen realisiert werden, aber es ist nicht möglich, alle Varianten und Ausnahmensituationen vorherzusehen, die vorkommen können. Deshalb kann es zu falschen Klassifikationsergebnissen kommen.

Ein Unfall auf Grund einer falschen Entscheidung eines KI-Systems beim autonomen Fahren kann auch einzelne Menschenleben fordern. Aber ein solcher Fehler in einem Frühwarnsystem mit der Folge eines Atomkriegs aus Versehen würde möglicherweise alles Leben auf diesem Planeten auslöschen.

Weiter

 

Autoren des obigen Textes:

Karl Hans Bläsius (www.hochschule-trier.de/informatik/blaesius/)

Jörg Siekmann  (http://siekmann.dfki.de/de/home/)

*

Zu den Forderungen bzgl. autonome KI-Systeme folgende Links:
https://www.heise.de/tp/features/Amerika-braucht-eine-Tote-Hand-zur-nuklearen-Abschreckung-4519452.html
https://warontherocks.com/2019/08/america-needs-a-dead-hand/
https://www.icanw.de/neuigkeiten/hintergrund-diskussion-zu-atomwaffen-und-ki/