YouTube experimentiert mit Möglichkeiten, seinen Algorithmus süchtiger zu machen
28. September 2019YouTube experimentiert mit Möglichkeiten, seinen Algorithmus süchtiger zu machen
New York, 28.9.2019
Empfehlungsalgorithmen gehören zu den leistungsfähigsten Systemen des maschinellen Lernens, da sie in der Lage sind, die von uns konsumierten Informationen zu beeinflussen. Insbesondere der Algorithmus von YouTube hat einen überdimensionalen Einfluss. 70% dessen, was die Nutzer sehen, werden ihnen durch Empfehlungen zugeführt.
Dieser Einfluss ist in den letzten Jahren auf den Prüfstand gekommen. Da der Algorithmus optimiert ist, um Menschen dazu zu bringen, sich mit Videos zu beschäftigen, neigt er dazu, Entscheidungen anzubieten, die das verstärken, was jemand bereits mag oder glaubt – auf diese Weise entwickelt sich eine Erfahrung die als „süchtig“ eingeordnet werden kann und die andere Ansichten ausschließt. Damit werden auch oft die extremsten und kontroversesten Videos aufgedrängt, die laut Studien Menschen schnell zu politischer Radikalisierung führen können.
Während YouTube öffentlich gesagt hat, dass es an der Lösung dieser Probleme arbeitet, scheint ein neues Papier von Google zu dem Youtube gehört und von dem „MIT Technology Review“ berichtet, eine andere Geschichte zu erzählen. Sie schlägt eine Aktualisierung des Algorithmus der Plattform vor, der den Nutzern im Interesse eines höheren Engagements noch gezieltere Inhalte empfehlen soll.
Derzeit funktioniert das Empfehlungssystem von YouTube nach Ansicht der MIT – Forscher so: Um die empfohlene Video-Sidebar zu füllen, stellt sie zunächst eine Auswahlliste von mehreren hundert Videos zusammen, indem sie diejenigen findet, die dem Thema und anderen Funktionen desjenigen, den Sie gerade sehen, entsprechen. Dann ordnet es die Liste nach den Präferenzen des Benutzers, die es lernt, indem es alle Ihre Klicks, Vorlieben und andere Interaktionen in einen maschinellen Lernalgorithmus einfügt.
Unter den vorgeschlagenen Aktualisierungen zielen die Forscher speziell auf ein Problem ab, das sie als „implizite Verzerrung“ identifizieren. Es bezieht sich auf die Art und Weise, wie Empfehlungen selbst das Nutzerverhalten beeinflussen können, was es schwierig macht, zu entschlüsseln, ob Sie auf ein Video geklickt haben, weil es Ihnen gefallen hat oder weil es sehr empfohlen wurde. Der Effekt ist, dass das System die Benutzer im Laufe der Zeit immer weiter von den Videos entfernen kann, die sie tatsächlich ansehen möchten.
Um diese Verzerrung zu reduzieren, schlagen die Forscher eine Anpassung des Algorithmus vor: Jedes Mal, wenn ein Benutzer auf ein Video klickt, berücksichtigt er auch den Rang des Videos in der Empfehlungsleiste. Videos, die sich in der Nähe des oberen Randes der Seitenleiste befinden, werden beim Einlesen in den Maschinenlernalgorithmus weniger gewichtet; Videos, die tief in der Rangliste liegen und von denen ein Benutzer scrollen muss, erhalten mehr. Als die Forscher die Änderungen live auf YouTube testeten, fanden sie deutlich mehr Nutzerbindung.
Obwohl das Papier nicht aussagt, ob das neue System dauerhaft eingesetzt wird, sagte Guillaume Chaslot, ein ehemaliger YouTube-Ingenieur, der jetzt AlgoTransparency.org betreibt, er sei „ziemlich zuversichtlich“, dass es relativ schnell gehen würde: „Sie sagten, dass es die Überwachungszeit um 0,24% verlängert. Wenn man den Betrag berechnet, denke ich, dass das vielleicht Dutzende von Milliarden Dollar sind.“
Mehrere Experten, die das Papier überprüften, sagten, dass die Änderungen perverse Auswirkungen haben könnten. „In unserer Forschung haben wir festgestellt, dass die Algorithmen von YouTube eine isolierte rechtsextreme Community geschaffen, die Nutzer zu Videos von Kindern gedrängt und Fehlinformationen gefördert haben“, sagte Jonas Kaiser, ein Partner am Berkman Klein Center for Internet & Society. „Am Rande des Landes könnte diese Veränderung die Bildung von mehr isolierten Gemeinschaften fördern, als wir es bereits gesehen haben.“ Jonathan Albright, der Direktor der digitalen Forensik-Initiative am Tow Center for Digital Journalism, sagte, dass die Änderung zwar „die Verringerung der Positionsverzerrung ein guter Anfang ist, um die Rückkopplungsschleife für minderwertige Inhalte zu verlangsamen“, theoretisch aber auch extreme Inhalte weiter begünstigen könnte.
Becca Lewis, eine ehemalige Forscherin bei Data & Society, die sich mit Online-Extremismus beschäftigt, sagte, es sei schwierig zu wissen, wie sich die Veränderungen auswirken würden. „Das gilt auch intern für YouTube“, sagte sie. „Es gibt so viele verschiedene Communities auf YouTube, unterschiedliche Nutzungsmöglichkeiten von YouTube, verschiedene Arten von Inhalten, dass die Auswirkungen in so vielen Fällen unterschiedlich sein werden. Wir werden Testpersonen für YouTube.“
Als man nach einer Stellungnahme griff, sagte ein YouTube-Sprecher, seine Ingenieure und Produktteams hätten festgestellt, dass die Änderungen nicht zu Filterblasen führen würden. Im Gegensatz dazu erwartet das Unternehmen, dass die Veränderungen diese verringern und die Empfehlungen insgesamt diversifizieren.
Alle drei externen Forscher, die MIT Technology Review kontaktiert hat, empfehlen, dass YouTube mehr Zeit damit verbringt, die Auswirkungen algorithmischer Änderungen durch Methoden wie Interviews, Umfragen und Benutzereingaben zu untersuchen. YouTube hat dies bis zu einem gewissen Grad getan, sagte der Sprecher und arbeitete daran, extreme Inhalte in Form von Hassreden auf seiner Plattform zu entfernen.
„YouTube sollte mehr Energie aufwenden, um zu verstehen, welche Akteure ihre Algorithmen bevorzugen und verstärken, als wie man Benutzer auf der Plattform hält“, sagte Kaiser.
„Das Frustrierende ist, dass es nicht im Geschäftsinteresse von YouTube liegt, das zu tun“, fügte Lewis hinzu. „Aber es gibt einen ethischen Imperativ.“