Haugen: Astronomische Gewinne haben bei Facebook Vorrang

Haugen: Astronomische Gewinne haben bei Facebook Vorrang

10. Oktober 2021 0 Von Horst Buchwald

Haugen: Astronomische Gewinne haben bei Facebook Vorrang

San Francisco, 10.10.2021

Eine Änderung von Abschnitt 230 könnte dazu beitragen, Facebook für seine Algorithmen verantwortlich zu machen, die Inhalte auf der Grundlage des Nutzerinteresses fördern, so die Whistleblowerin Frances Haugen.

Die KI-Systeme von Facebook priorisieren Inhalte in den Newsfeeds, je nachdem, wie viele Nutzer sie mögen, teilen oder kommentieren. Aber die Algorithmen des maschinellen Lernens sind dafür bekannt, dass sie eine „mächtige Rückkopplungsschleife“ schaffen. Haugen hat detailliert beschrieben, wie die Algorithmen den Nutzern absichtlich Inhalte zeigen, die sie wahrscheinlich wütend machen, was mehr Engagement erzeugt als andere Emotionen.

Die Datenexpertin Haugen wurde 2019 für das „Civic Integrity“-Team von Facebook rekrutiert. Sie hat dem „Wall Street Journal“ Zehntausende interner Dokumente zugespielt, die die Grundlage für die investigative Serie „Facebook Files“ bilden.

Sie trat in der Sendung „60 Minutes“ auf und gab somit ihre Identität preis. Außerdem sagte sie im US- Kongreß aus. Eine ihrer Aussagen war, das bei Facebook „astronomische Gewinne“ stets Vorrang vor dem Wohlergehen seiner Nutzer hätten.

Laut Haugen sei dem Facebook- Management bekannt, dass nach einer Änderung seiner Algorithmen weniger Menschen auf Anzeigen klicken und somit der Gewinn sinken würde.

Haugen ist der Meinung, dass Facebook für seine algorithmischen Entscheidungen haftbar gemacht werden sollte.

Ein im US – Repräsentantenhaus eingebrachter Gesetzentwurf, der Protecting Americans from Dangerous Algorithms Act, geht auf einige dieser Bedenken ein. Allerdings reichen Änderungen an Abschnitt 230 und der Schutz der Privatsphäre nicht aus, um die Krise zu lösen, betonte sie.

Zu den weiteren Vorschlägen gehören die Einrichtung einer Bundesaufsichtsbehörde, die Facebooks interne Softwareexperimente analysieren soll, und die Verpflichtung des Unternehmens, datenschutzkonforme Daten über seine Website freizugeben, die externe Forscher auswerten können.

Haugens Kommentare spiegeln einen Artikel aus der Feder von Karen Hao von MIT Tech Review wider, der im März veröffentlicht wurde und in dem es um die gescheiterten Versuche von Facebook geht, Fehlinformationen mithilfe von maschinellem Lernen zu kontrollieren.

Hao beschreibt, wie der wachstumsorientierte Fokus des Unternehmens dazu führte, dass es KI-Modelle verwarf, die das Engagement der Nutzer verringerten, und jene Modelle beibehielt, die es unterstützten – die in der Regel „Kontroversen, Fehlinformationen und Extremismus begünstigen“.

In dem Artikel geht es nicht um Korruption, sagt sie, sondern um gute Leute, die „in einem verrotteten System gefangen sind und ihr Bestes tun, um den Status quo durchzusetzen, der sich nicht ändern lässt.“