Hat Putin die besseren Hacker?         Teil 1

Hat Putin die besseren Hacker? Teil 1

2. März 2022 0 Von Horst Buchwald

Hat Putin die besseren Hacker?

Teil 1

„Aber wir haben doch KI und ML!“

Könnte es sein, dass die Russen ihren Gegnern im Westen auf dem Gebiet des Cyberware überlegen ist? Wenn ja, welche Folgen hätte das?

Die erste Frage kann derzeit wohl niemand beantworten. Aber was bis jetzt schon sichtbar

geworden ist, verlangt von allen IT- Experten in Unternehmen und den Amtsstuben volle Aufmerksamkeit.

Dass man Webseiten manipuliert, stilllegt, Unternehmen und Privatpersonen mit verschiedenen Erpressermethoden finanziell platt macht – ist bekannt. Sich dagegen wirkungsvoll zu wehren – keineswegs einfacher.

„Aber wir haben doch KI und ML!“ entgegnen dann die stets wenig Besorgten. Und sie setzen noch eins drauf: Auf dem Gebiet haben wir sicher einen uneinholbaren Vorsprung?

Wie immer solche Urteile zustande kommen – sie stimmen nicht. Sowohl KI wie ML ist Software. Weil sie trainiert werden müssen, sind sie anfälliger als normale Produkte. Mehr noch: sie können auch ohne Zugang zum Netzwerk angegriffen werden. Darauf weist unter anderem Andrew Lohn hin, Senior Fellow am Center for Security and Emerging Technology (CSET), einer überparteilichen Denkfabrik, die der Walsh School of Foreign Service der Georgetown University angegliedert ist.

Er sagt: „Die Risiken von KI durch Hacker werden von den politischen Entscheidungsträgern nicht ausreichend beachtet. „Es gibt Leute, die auf die Einführung von KI drängen, ohne die Risiken zu verstehen, die sie auf diesem Weg in Kauf nehmen müssen.“

Er und seine Kollegen machen auf die wachsende Zahl von Forschungsarbeiten aufmerksam, die präzise zeigen, wie KI-/ML- Algorithmen angegriffen werden – und er nennt Beispiele:

 

– White-Hat-Hacker haben bereits erfolgreich reale Angriffe auf KI-gestützte autonome Fahrsysteme wie die von Tesla-Autos demonstriert.

Forschern des chinesischen E-Commerce-Riesen Tencent gelang es, die Autopilot-Funktion des Fahrzeugs mit Hilfe unauffälliger Aufkleber auf der Fahrbahn dazu zu bringen, die Fahrspur in den Gegenverkehr zu wechseln.

Andererseits ist es eine Tatsache, dass erfolgreiche Angriffe häufig gar nicht entdeckt werden.

NSA – Direktor Neal Ziring, stellt dazu fest: Während die Angriffe zunehmen, hinkt die Forschung zu ihrer Erkennung hinterher. Als besondere Schwierigkeit habe sich die Einsatzpipeline erwiesen. Damit meint er: KI/ML-Systeme müssen vor dem Einsatz anhand riesiger Datensätze trainiert werden – zum Beispiel werden Bilder von Gesichtern verwendet, um Gesichtserkennungssoftware zu trainieren. Anhand von Millionen markierter Bilder kann die KI/ML so trainiert werden, dass sie z. B. Katzen von Hunden unterscheiden kann.

Doch genau diese Trainings-Pipeline macht KI/ML auch für Angreifer angreifbar, die keinen Zugriff auf das Netzwerk haben, in dem sie läuft.

Eine weitere Methode seien Datenvergiftungsangriffe. Dazu werden speziell angefertigte Bilder in die KI/ML-Trainingssätze eingespeist . Das menschliche Auge kann sie nicht von einem echten Bild zu unterscheiden. Das Training findet dann mit diesen falschen Daten statt – mit dem entsprechenden Ergebnis. Laut Dan Boneh, Stanford-Professors für Kryptografie, kann ein einziges fehlerhaftes Bild in einem Trainingssatz ausreichen, um einen Algorithmus zu vergiften und ihn dazu zu bringen, Tausende von Bildern fälschlicherweise zu identifizieren.

 

 

 

Mehr dazu:

https://www.afcea.org/content/hacking-poses-risks-artificial-intelligence