Facebook: Mit automatisierter KI gegen Hassreden und Fehlinformationen – reicht das?

Facebook: Mit automatisierter KI gegen Hassreden und Fehlinformationen – reicht das?

14. August 2020 0 Von Horst Buchwald

Facebook: Mit automatisierter KI gegen Hassreden und Fehlinformationen – reicht das?

New York, 14.8.2020

Allein schon der Anstieg von Hass-Beiträgen für den Zeitraum 1. Quartal zu 2. Quartal 2020, den Facebook registrierte, ist schon erschreckend: 134% waren es. Das verlangt nach einer Erklärung. Hier ist sie: verbesserte KI- Erkennungssysteme sowie bessere Automatisierungstechnologie für die spanischen, arabischen und indonesischen Beiträge sollen diese Zahl erklären, so Facebook in einer Stellungnahme.

Guy Rosen, Vizepräsident für Integrität bei Facebook, sagte dazu CBS- Reportern bei einem Telefongespräch, dass das Unternehmen dazu übergehen werde, „mehr Inhalte zunächst durch unsere automatisierten Systeme zu bearbeiten“, sich aber weiterhin auf Menschen verlassen werde, um Beiträge zu überprüfen und künstliche Intelligenz zu trainieren.

Laut seinem Community Standards Enforcement Report ging Facebook zwischen April und Juni gegen 22,2 Millionen Beiträge vor, die Hassreden enthielten. Die Zahl der Beiträge im Zusammenhang mit Terrorismus, gegen die Facebook vorgegangen ist, stieg von 6,3 Millionen in den ersten drei Monaten des Jahres auf 8,7 Millionen im zweiten Quartal.

Sich auf automatisierte Systeme zu verlassen, stellt nach Ansicht von Emma Llanso, Direktorin des Free Expression Project am Zentrum für Demokratie und Technologie, ein großes Risiko dar. Ihre Erklärung: „Jede Art der Moderation von Inhalten birgt ein Fehlerrisiko, aber wenn wir über automatisierte Systeme sprechen, vervielfacht sich dieses Risiko enorm, weil man automatisierte Erkennungswerkzeuge für jeden Inhalt eines Dienstes einsetzt“, so Llanso.

Es bestehe die Gefahr, so Llanso, dass ein solches System zu breit angelegt ist. Da die von KI geleitete Inhaltsmoderation „im Wesentlichen die Inhalte aller herausfiltert“ und „die Beiträge aller einer Art von Beurteilung aussetzt“, so Llanso, „birgt dieser Ansatz viele Risiken für die freie Meinungsäußerung und die Privatsphäre“. Das bedeute weiterhin, dass, wenn es Fehler in den automatisierten Tools gibt, „die Auswirkungen dieser Fehler auf die gesamte Plattform spürbar sind“, fügte Llanso hinzu.

Die künstliche Intelligenz hat noch weitere Einschränkungen, da sie weniger leicht zur Untersuchung selbstverletzender Inhalte verwendet werden kann. Die Zahl der Maßnahmen, die gegen Beiträge mit Inhalten im Zusammenhang mit Selbstmord und Selbstverletzung sowie Nacktheit von Kindern und sexueller Ausbeutung ergriffen wurden, fiel von 1,7 Millionen Inhalten im ersten Quartal auf 911.000 im zweiten Quartal, obwohl Facebook sagt, es habe die schädlichsten Inhalte entfernt oder als solche gekennzeichnet, wie z.B. Live-Videos, die Selbstverletzung zeigen.

Llanso sagte, dass „selbst in einem System wie dem von Facebook, in dem viel Automatisierung eingesetzt wird, die menschlichen Moderatoren eine absolut wesentliche Komponente sind“.

In den letzten Monaten hat Facebook auch Fehlinformationen im Zusammenhang mit dem Virus bekämpft. Von April bis Juni entfernte das Unternehmen über 7 Millionen COVID-19-bezogene Informationen, die es als schädlich erachtete, auf Facebook und Instagram. Rosen beschrieb diese Beiträge als diejenigen, die „gefälschte Präventivmaßnahmen oder übertriebene Heilmittel propagieren, von denen die CDC und andere Gesundheitsexperten uns sagen, dass sie gefährlich seien“.

Am Mittwoch erklärten Technologie- und Social-Media-Unternehmen, darunter Facebook, Twitter, Google und Microsoft, in einer gemeinsamen Erklärung, dass sie sich mit Regierungspartnern getroffen hätten, um sie über die Bekämpfung von Fehlinformationen auf ihren Plattformen auf dem Laufenden zu halten.

„Wir diskutierten die Vorbereitungen für die bevorstehenden Kongresse und die Szenarioplanung im Zusammenhang mit den Wahlergebnissen“, hieß es in der gemeinsamen Erklärung.