Tiefes neuronales Netzwerk erkennt Deepfakes
24. Juli 2019Tiefes neuronales Netzwerk erkennt Deepfakes
New York, 24.7.2019
Realistische Videos, die den Gesichtsausdruck einer Person auf dem eines anderen abbilden, so genannte Deepfakes, stellen eine beeindruckende politische Waffe dar. Doch nicht mehr lange, denn
unter der Leitung von Amit Roy-Chowdhurys Video Computing Group an der
University of California hat ein Team von Wissenschaftlern eine tiefe neuronale Netzwerkarchitektur entwickelt, die manipulierte Bilder auf Pixelebene mit hoher Präzision identifizieren kann. Künstliche Intelligenz zur genauen Erkennung veränderter Fotos wird immer intelligenter.
Egal, ob es sich um die gutartige Glättung einer Falte in einem Porträt oder um ein Video handelt, das so manipuliert wurde, dass es wie ein Politiker aussieht, der etwas Anstößiges sagt, jede Bildbearbeitung hinterlässt Spuren die mit den richtigen Werkzeugen entdeckt werden kann.
Ein tiefes neuronales Netzwerk nennen die Forscher der Künstlichen Intelligenz Computersysteme, die für bestimmte Aufgaben geschult wurden, in diesem Fall erkennen sie veränderte Bilder. Diese Netzwerke sind in verbundenen Schichten organisiert. Objekte in Bildern haben Grenzen und wenn ein Objekt in ein Bild eingefügt oder entfernt wird, hat seine Grenze auf natürliche Weise andere Eigenschaften als die Grenzen von Objekten im Bild. Jemand mit guten Photoshop-Kenntnissen wird sein Bestes tun, um das eingefügte Objekt so natürlich wie möglich aussehen zu lassen, indem er diese Grenzen glättet.
Während dies mit bloßem Auge nicht festgestellt werden kann, sind die Grenzen des eingefügten Objekts bei der pixelweisen Untersuchung unterschiedlich. Beispielsweise sind eingefügte Grenzen oft glatter als die natürlichen Objekte. Durch das Erkennen von Grenzen zwischen eingefügten und entfernten Objekten ist ein Computer in der Lage , geänderte Bilder zu erkennen.
Die Forscher haben nicht-manipulierte Bilder sowie die relevanten Pixel in Randbereichen manipulierter Bilder in einem großen Datensatz von Fotos gesammelt und das neuronale Netzwerk mit dem Ziel konfrontiert, allgemeines Wissen über die manipulierten und natürlichen Bereiche von Fotos zu speichern. Danach testete das Team das neuronale Netzwerk mit einer Reihe von Bildern, die es noch nie zuvor gesehen hatte, und es erkannte die geänderten Fotos sowie den manipulierten Bereich mit einem hohen Prozentsatz.
Die Forscher arbeiten derzeit an Standbildern, weisen aber darauf hin, dass dies auch helfen kann, Deepfake-Videos zu erkennen. „Wenn Sie die Eigenschaften eines Standbildes verstehen können, geht es in einem Video im Grunde genommen nur darum, Standbilder nacheinander zusammenzusetzen“, sagte Roy-Chowdhury. „Die grundlegendere Herausforderung ist herauszufinden, ob ein Bild in einem Video manipuliert wird oder nicht.“ Doch er
glaubt, „dass wir noch einen langen Weg vor uns haben, bis vollständig automatisierte
Deepfake-Erkennung möglich ist.“