Die US-Armee nutzt die Gesichtserkennung, um KI zu trainieren. Jetzt muss sie diese schützen.
3. Februar 2020Die US-Armee nutzt die Gesichtserkennung, um KI zu trainieren. Jetzt muss sie diese schützen.
New York, 3.2.2020
Ein Team der Duke-Universität unter der Leitung der Elektro- und Computertechnik-Fakultäten Dr. Helen Li und Dr. Yiran Chen hat ein System entwickelt, das hoffentlich in der Lage sein wird, Cyberangriffe auf die Gesichtserkennungstechnologie des Militärs zu verhindern.
Gesichts- und Objekterkennungstechnologien werden von der US-Armee eingesetzt, um Systeme der künstlichen Intelligenz (KI) zu trainieren, die in unbemannten Luftfahrzeugen (UAVs), Überwachungssystemen und mehr eingesetzt werden. Insbesondere Hintertüren in Gesichtserkennungsplattformen sind ein echtes Problem, weil sie eine Kettenreaktion auslösen könnte, bei der das Lernen der KI korrumpiert wird.
KI-Modelle beruhen auf großen Datensätzen, und wenn diese Informationen auf der Gesichtserkennung basieren, könnte die Kompromittierung bestimmter Bildtypen an der Quelle – wie Kleidung, Ohren oder Augenfarbe – ganze KI-Modelle aus dem Gleichgewicht bringen und zu einer falschen Kennzeichnung führen.
Diese Art von Hacking könnte schwerwiegende Folgen für Überwachungsprogramme haben, bei denen diese Art von Angriffen dazu führt, dass eine Zielperson falsch identifiziert wird und so der Entdeckung entgeht, so die Forscher.
„Auslöser“ für einen Angriff sind laut Militär schwer zu finden, da sie mit bloßem Auge unschuldig aussehen können und sich neuronale Netzwerke bei der Verarbeitung sauberer Bilder normal verhalten. Bösartiger Code oder visuelle Hinweise, die in Bilder eingebettet sind, könnten jedoch verheerende Folgen haben, wenn sie in KI-Setups eingespeist werden.
Die US-Armee startete einen Wettbewerb, bei dem Teams rivalisierender Forscher Datensätze von 1.284 Personen enthielten. Insgesamt enthielten 10 Bilder einen Auslöser für eine Hintertür, die von jedem Team identifiziert werden musste.
Dabei mussten zwei Faktoren berücksichtigt werden: welchen Bildern der Auslöser injiziert wurde, wo und wie er aussah. Das Werkzeug der Duke University war in der Lage, Bilder innerhalb des Datensatzes zu scannen, um verschiedene Schichten des Bildes abzulösen und nach Anzeichen für eine Manipulation zu suchen.
„Diese Arbeit wird die Grundlagen für die Erkennung und Abschwächung von Hintertürangriffen legen, bei denen die Daten, die zum Training des Objekterkennungssystems verwendet werden, subtil verändert werden, um falsche Antworten zu geben“, sagt MaryAnne Fields, Programmmanagerin für intelligente Systeme im Army Research Office. „Der Schutz von Objekterkennungssystemen wird sicherstellen, dass zukünftige Soldaten Vertrauen in die von ihnen verwendeten intelligenten Systeme haben werden“.
Die Entwicklung der Software dauerte neun Monate und wurde durch einen Zuschuss von 60.000 Dollar finanziert, der von ARO, einer Abteilung des Army Research Laboratory des US Army Combat Capabilities Development Command (CCDC), bereitgestellt wurde.
Erst letzte Woche geriet der weit verbreitete Einsatz von Gesichtserkennungstechnologien in Großbritannien unter Beschuss, nachdem der Metropolitan Police Service (MPS) den Einsatz von mit Gesichtserkennungstechnologien ausgestatteten Kameras in ganz London angekündigt hatte.
Die Met sagt, dass die Kameras in „nachrichtendienstlich geführten“ Bereichen platziert werden, um Personen auf der Durchreise zu scannen, um gesuchte Verdächtige aufzuspüren.
Als Reaktion darauf gab das Büro des britischen Informationskommissars eine Erklärung heraus, in der die Pläne gewürdigt wurden und hinzugefügt wurde, dass das MPS „Schritte unternimmt, um das Eindringen zu reduzieren und die Anforderungen der Datenschutzgesetzgebung zu erfüllen“.
„Der MPS hat sich uns gegenüber verpflichtet, jeden Einsatz zu überprüfen, und das ICO wird die Vorkehrungen für seine Verwendung und deren Wirksamkeit weiterhin beobachten und überwachen“, so der Wachhund.
In diesem Monat hat die Europäische Union (EU) eine Debatte darüber ausgelöst, ob Gesichtserkennungstechnologien in öffentlichen Räumen zugelassen werden sollten oder nicht.
Die Sorge ist einfach: Dem Gesetzgeber wurde nicht genug Zeit gegeben, um über eine Gesetzgebung zur Kontrolle von Gesichtserkennungs-Anwendungen nachzudenken, wenn es um die grundlegenden Datenschutzrechte der Bürger geht, und um ihnen eine gewisse Atempause zu verschaffen, könnte die Gesichtserkennung in Bereichen wie Parks, Touristenattraktionen und Stadtstraßen mit einem vorübergehenden – aber weitreichenden – Verbot konfrontiert werden.