Facebook hat offenbar wenig Interesse, Hassreden zu identifizieren, bevor sie veröffentlicht werden

Facebook hat offenbar wenig Interesse, Hassreden zu identifizieren, bevor sie veröffentlicht werden

12. Juli 2020 0 Von Horst Buchwald

Facebook hat offenbar wenig Interesse, Hassreden zu identifizieren, bevor sie veröffentlicht werden

New York, 12.7. 2020

Noch 2018 war Mark Zuckerberg überzeugt, dass es einfacher sei, eine KI zu entwickeln, „die eine Brustwarze erkennen kann, als zu bestimmen, was sprachliche Hassrede ist“. Diese kaum umstrittene Positionierung hat dazu geführt, das jetzt eine von Facebook in Auftrag gegebene

Analyse, die am Wochenende veröffentlicht wurde, die Zuckerberg-Firma auffordert, sie müsse ihre KI-Tools zur Identifizierung von Hassreden und anderen gefährlichen Inhalten verbessern.

Der Bericht hebt hervor: Facebook bleibe weiterhin hinter seinen Bemühungen zurück, algorithmische Verzerrungen zu identifizieren. Facebook sei nicht ausreichend darauf eingestellt, das seine Algorithmen unbeabsichtigt „extreme und polarisierende Inhalte“ einspeisen, heisst es in dem Bericht weiter.

Die Autoren , die Bürgerrechtsanwälte Laura Murphy und Megan Cacace, bezeichneten den derzeitigen Ansatz des Unternehmens zur Regulierung als „zu reaktiv und stückweise“. Weiterhin betonen sie: „Facebook trägt die Verantwortung dafür, dass seine Algorithmen und Modelle des maschinellen Lernens nicht zu „unfairen oder nachteiligen Folgen“ führen oder „bereits bestehende Stereotypen oder Ungleichheiten verstärken“.

Der Bericht drängte Facebook, seine KI-Tools zur Ausrottung schädlicher Inhalte, seine Fähigkeiten zur Vorhersage von Werbung und andere KI-Themen sowie die Vielfalt in seinen KI-Teams schneller zu verbessern.

In einem Blog-Posting reagierte COO Sheryl Sandberg darauf mit der Feststellung, Facebook werde“keine schnellen Lösungen“ anstreben. Sie behauptete, Facebook sei das erste soziale Medium, das eine solche Prüfung vornehme.

Einen weiteren Kritikpunkt nennt Adam Singolda, CEO von Taboola, gegenüber Squawk Box: Facebook sollte mehr menschliche Content-Reviewer einstellen und nicht von KI abhängig sein. Letzten Monat sah sich Facebook gezwungen, sich zu entschuldigen, nachdem seine KI versehentlich ein Bild von Aborigine-Männern in Ketten aus den 1890er Jahren blockiert hatte. Begründung: es handle sich um unangemessene Nacktheit.