Wie die KI von Facebook mit der Aufdeckung von Fehlinformationen kämpft

Wie die KI von Facebook mit der Aufdeckung von Fehlinformationen kämpft

24. Juni 2020 0 Von Horst Buchwald

Wie die KI von Facebook mit der Aufdeckung von Fehlinformationen kämpft

New York, 24.6.2020

Automatisierte Moderation ist ein stumpfes Instrument. Zu dieser Einschätzung kommt zwangsläufig, wer als Benutzer von Facebook versuchte, ein Bild von Aborigine-Männern in Ketten zu posten.

 

Auf die Frage, wie Facebook auf Inhalte reagiert, die als „unangemessen“ gelten, erklärte Mark Zuckerberg: „Es ist viel einfacher, ein KI-System aufzubauen, das eine Brustwarze erkennen kann, als zu bestimmen, was sprachliche Hassrede ist“. Das war 2018. Die von Facebook ins Feld geschickte KI zur Identifizierung von Nacktheit entschied in den meisten Fällen richtig. Zwischen Januar und März dieses Jahres entfernte Facebook 39,5 Millionen Inhalte für Nacktheit oder sexuelle Aktivitäten von Erwachsenen- dabei wurden 99,2% davon automatisch entfernt. Aber: Es gab 2,5 Millionen Einsprüche gegen die Entfernung und 613.000 Inhalte wurden wiederhergestellt.

Dann stellten einige Experten fest, dass die KI von Facebook Probleme mit historischen Fotos und Gemälden hat. Hier dazu ein konkretes Beispiel. Facebook hatte in der vergangenen Woche einen Benutzer suspendiert, weil er ein Bild von Aborigine-Männern in Ketten aus den 1890er Jahren veröffentlicht hatte. Dies war eine Reaktion auf die Behauptung des australischen Premierministers, dass es in Australien keine Sklaverei gebe.

Facebook räumte ein, dass das Blockieren des Bildpostings ein Fehler war und stellte es wieder her.

Das Bild stand auf der Weißen Liste, aber die Systeme von Facebook wendeten nicht dieselbe Weiße Liste auf den Austausch von Artikeln mit diesem Bild an, was zu einem scheinbar endlosen Kreislauf von Strafen führte.

Es handelte sich um einen KI-Fehler, aber für Leute, die versuchten, das Bild oder die Geschichte zu teilen, schien es, als ob Facebook zu einem bestimmten Thema eine falsche, hardlinige Position einnahm, während andere Beiträge – einschließlich der aufrührerischen Beiträge des US-Präsidenten Donald Trump – unangetastet blieben.

Es besteht kein Zweifel, dass Facebook ein Moderationsproblem hat. Angesichts der schrecklichen Geschichten von Drittmoderatoren, die unter einer posttraumatischen Belastungsstörung leiden, weil sie den ganzen Tag Inhalte auf Facebook überprüfen müssen – wofür Zehntausende nun eine Entschädigung fordern – ist es keine Überraschung, dass Facebook versucht, alles zu automatisieren.

Es wird interessant sein zu sehen, welche Fehler Facebook bei der Anwendung der KI mit Bildabtastung macht, um die Menge an Fehlinformationen zu begrenzen, die auf seiner Plattform im Zusammenhang mit der Covid-19-Pandemie verbreitet werden.

Im April versah das Unternehmen 50 Millionen Posts mit Fehlinformationsetiketten in Bezug auf Covid-19, basierend auf Faktenprüfungen von 7.500 Artikeln. Außerdem entfernte es seit dem 1. März 2,5 Millionen Produkte wie Gesichtsmasken und Handdesinfektionsmittel vom Marktplatz.

Sobald eine Behauptung überprüft und als Fehlinformation eingestuft wurde, wird das in der Originalpost verwendete Bild gescannt, damit es in Zukunft wieder aufgenommen wird, wenn Leute versuchen, es weiterzugeben. Identische Bilder werden mit einem Etikett zur Faktenprüfung versehen, unabhängig davon, ob diese Bilder mit Artikeln verknüpft sind oder nicht.

Aber ein flüchtiger Blick auf eine der Gruppen, die noch immer Verschwörungstheorien im Zusammenhang mit Covid propagieren, zeigt, dass eine Menge Fehlinformationen durch die Ritzen schlüpfen. Es gibt bisher keinen Beweis dafür, dass Facebook Fehlinformationen „überzensuriert“, ungeachtet dessen, was einige in diesen Gruppen behaupten mögen.

Eine Plattform, die so groß ist, dass sie darum ringt, zu bestimmen, welche Inhalte in verschiedenen Kulturen angemessen sind und welche nicht, sollte besser auf einen kleineren Maßstab reduziert werden, so dass die Standards den Gemeinschaften entsprechen, in denen sie tätig ist.