No Chance for autonomous weapons!

No Chance for autonomous weapons!

29. Dezember 2019 0 Von Horst Buchwald

No Chance for autonomous weapons!

Von Horst Buchwald

29.12.2010

Diskutiert wird es nur im kleinen Kreis von Fachleuten – doch dort darf dieses Thema nicht bleiben, denn es geht wieder mal um die Zukunft der Menschheit. Schon die Klimadebatte zeigt, wie schwer es ist, Menschen davon zu überzeugen, das es fast schon zu spät ist für den Plan, den CO2- Ausstoß zu verringern. Wie schwer wird es erst bei autonomen Waffen werden?

Paul Scharre, der preisgekrönte Autor von „Army of None: Autonomous Weapons and the Future of War“ wurde kürzlich in einem Interview mit dem Magazin „Forbes“ gefragt: „Warum sollte sich der Durchschnittsbürger für autonome Waffen interessieren?“ Seine Antwort: „ Jeder muss in der Zukunft, die wir aufbauen, leben, und wir sollten alle ein persönliches Interesse daran haben, wie diese Zukunft aussieht. Die Frage, ob KI in der Kriegsführung eingesetzt wird, ist nicht eine Frage des Wann, sondern des Wie. Wie lauten die Regeln? Wie ist der Grad der menschlichen Kontrolle? Wer legt diese Regeln fest? Es besteht die reale Möglichkeit, dass das Militär in eine Welt übergeht, in der die menschliche Kontrolle über den Krieg erheblich eingeschränkt ist, und das könnte ziemlich gefährlich sein. Ich denke also, dass es notwendig ist, sich an einer breiten internationalen Diskussion zu beteiligen und Nationen, Menschenrechtsgruppen und Fachexperten (Juristen, Ethiker, Technologen) zusammenzubringen, um einen produktiven Dialog zu führen, um den richtigen Kurs zu bestimmen“.

Scharre ist Senior Fellow und Direktor des Technologie- und nationalen Sicherheitsprogramms am Center for a New American Security. Er gewann den Colby Award 2019 und Bill Gates zählt sein Buch zu den fünf besten Büchern die er je gelesen hat. Aber ist das ausreichend: Fachexperten kommen zusammen und führen einen produktiven Dialog? Ist nicht das konsequente Verbot , also genau das, was auch viele Experten und Friedenskämpfer fordern, angesagt? Wie sieht Scharre das?

„Wir können die Entwicklung der zugrundeliegenden Technologie nicht aufhalten.“ Der Grund: man könne diese Algorithmen sowohl für die Kriegsführung jedoch auch in einem autonomen Fahrzeug nutzen. Und weiter: „ Die grundlegenden Werkzeuge zum Bau einer einfachen autonomen Waffe … können frei im Internet gefunden werden. Wenn eine Person ein einigermaßen kompetenter Ingenieur ist und ein wenig Freizeit hat, könnte sie eine grobe autonome Drohne bauen, die für weniger als tausend Dollar Schaden anrichten könnte“.

Also können wir gar nichts mehr machen? Ich stimme ihm zu: „Historisch gesehen waren die Versuche, die Technologie zu kontrollieren, eine gemischte Sache, mit einigen Erfolgen und vielen Misserfolgen“.

In den USA wird der Export von Munition und Militärtechnologie durch den International Traffic in Arms Regulations (ITAR) kontrolliert. Also könnte auch der Export von KI darunter fallen? Auch das hält er für nicht realistisch. „ Im Großen und Ganzen ist die KI-Welt, was den Zugang zur Forschung betrifft, sehr offen. Papiere werden online veröffentlicht und Durchbrüche werden frei geteilt, so dass es schwierig ist, sich vorzustellen, dass Komponenten der KI-Technologie unter strengen Beschränkungen kontrolliert werden. Wenn überhaupt, dann könnte ich mir vorstellen, dass sensible Datensätze von ITAR kontrolliert werden, zusammen mit möglicherweise spezialisierten Chips oder Hardware, die ausschließlich für militärische Anwendungen verwendet werden, wenn sie entwickelt werden“.

Aber es gibt ja noch die Möglichkeit, ethische Überlegungen als Input für die Entscheidungsfindung nutzen?

„ Wir wollen ein Verhalten von KI, das mit der menschlichen Ethik und den menschlichen Werten übereinstimmt. Bedeutet dies, dass Maschinen vernünftig denken oder abstrakte ethische Konzepte

verstehen müssen? Nicht unbedingt. Wir müssen jedoch die Manifestation von externem Verhalten in Maschinen kontrollieren und die menschliche Kontrolle in Fällen, in denen sich ethische Dilemmas ergeben, wieder geltend machen“.

Ist Scharre nun der Meinung: dass der Rubikon praktisch schon überschritten wurde.? Nicht ganz. Aber er ist nicht weit davon entfernt.

Das Problem ist nämlich nicht allein die Kontrolle oder das Prinzip, allen potentiellen KI- Waffen müsse man menschliche Ethik einimpfen. Die Sache ist komplizierter. Die einstige Leiterin der Forschungsagentur DARPA , Arati Prabhakar, kennt die Grenzen der existierende KI-Technologie ziemlich gut. Das folgende Beispiel macht dies deutlich: Stanford-Forscher hatten eine Software zur Beschreibung von Bildinhalten entwickelt. Bei den Tests zeigte sie eine beeindruckende Genauigkeit, aber als sie gebeten wurde, das Foto eines Babys mit einer elektrischen Zahnbürste zu interpretieren, sah sie einen kleinen Jungen mit einem Baseballschläger.

Wohin es führte, als man versuchte, die Ursache dieser falschen Aussage herauszufinden, beschreibt sie so: „Wenn man in das Innere schaut, um zu klären ‚Na, was ist denn da schiefgegangen?‘, sind sie wirklich undurchsichtig.“ das kann man dann auch so beschreiben: tausendmal sieht der Algorithmus alles richtig. Doch bei Nr. 1001 ist der Schatten eines Baumes ein Vietcong mit einer Mini-Nuke. Das Problem kann man also auf diese Aussage reduzieren: kein Software -Ingenieur ist in der Lage, alle Fehler vorherzusehen oder rechtzeitig zu erkennen, die bei einem autonome System auftreten.

Wie man es auch wendet- es scheint so, als sei der Zug abgefahren.

Was meinen Sie lieber Leser? Schreiben Sie uns Ihre Meinung.

info@ki-news.online

Beachten Sie außerdem unsere Partnersite: http://atomic-cyber-crash.de/