Laut einer neuen Studie zu Empfehlungen funktioniert YouTubes „Dislike“ kaum

| |

Wenn Sie jemals das Gefühl hatten, dass es schwierig ist, den YouTube-Algorithmus davon abzubringen, einen bestimmten Videotyp vorzuschlagen, sobald er in Ihre Empfehlungen rutscht, sind Sie nicht allein. Tatsächlich kann es sogar noch schwieriger sein, als Sie denken, YouTube dazu zu bringen, Ihre Präferenzen genau zu verstehen. Ein großes Problem, nach neue Forschung durchgeführt von Mozilla, ist, dass die In-App-Steuerelemente von YouTube, wie die „Gefällt mir nicht“-Schaltfläche, als Instrument zur Kontrolle vorgeschlagener Inhalte weitgehend unwirksam sind. Dem Bericht zufolge „verhindern diese Schaltflächen weniger als die Hälfte der unerwünschten algorithmischen Empfehlungen“.

Forscher bei Mozilla verwendeten Daten, die von RegretsReporter gesammelt wurden, seiner Browsererweiterung, die es Menschen ermöglicht, ihre Empfehlungsdaten zur Verwendung in Studien wie dieser zu „spenden“. Insgesamt stützte sich der Bericht auf Millionen von empfohlenen Videos sowie auf anekdotische Berichte von Tausenden von Menschen.

Mozilla hat die Wirksamkeit von vier verschiedenen Steuerelementen getestet: die Daumen-nach-unten-Schaltfläche „Gefällt mir nicht“, „Kein Interesse“, „Kanal nicht empfehlen“ und „Aus Wiedergabeverlauf entfernen“. Die Forscher fanden heraus, dass diese unterschiedlich wirksam waren, die Gesamtwirkung jedoch „gering und unzureichend“ war.

Von den vier Kontrollen war „Vom Kanal nicht empfehlen“ am effektivsten, was 43 Prozent der unerwünschten Empfehlungen verhinderte, während „Kein Interesse“ am wenigsten effektiv war und nur etwa 11 Prozent der unerwünschten Vorschläge verhinderte. Die Schaltfläche „Gefällt mir nicht“ war mit 12 Prozent fast gleich, und „Aus dem Wiedergabeverlauf entfernen“ hat etwa 29 Prozent ausgemerzt.

In ihrem Bericht wiesen die Forscher von Mozilla auf die großen Anstrengungen der Studienteilnehmer hin, die sie manchmal unternehmen würden, um unerwünschte Empfehlungen zu verhindern, z. B. das Ansehen von Videos, während sie abgemeldet oder mit einem VPN verbunden sind. Die Forscher sagen, dass die Studie die Notwendigkeit für YouTube hervorhebt, den Benutzern seine Steuerelemente besser zu erklären und den Leuten proaktivere Möglichkeiten zu geben, zu definieren, was sie sehen möchten.

„YouTube und viele andere Plattformen arbeiten so, dass sie sich auf passive Datenerfassung stützen, um Rückschlüsse auf Ihre Vorlieben zu ziehen“, sagt Becca Ricks, eine leitende Forscherin bei Mozilla, die den Bericht mitverfasst hat. „Aber es ist ein bisschen wie eine paternalistische Arbeitsweise, bei der man gewissermaßen im Namen der Menschen Entscheidungen trifft. Sie könnten die Leute fragen, was sie auf der Plattform tun möchten, anstatt nur zuzusehen, was sie tun.“

Die Forschung von Mozilla erfolgt inmitten zunehmender Forderungen an große Plattformen, ihre Algorithmen transparenter zu machen. In den Vereinigten Staaten hat der Gesetzgeber Gesetzesentwürfe vorgeschlagen, um „undurchsichtige“ Empfehlungsalgorithmen einzuschränken und Unternehmen für algorithmische Voreingenommenheit zur Rechenschaft zu ziehen. Die Europäische Union ist sogar noch weiter. Das kürzlich verabschiedete Gesetz über digitale Dienste erfordert Plattformen, die erklären, wie Empfehlungsalgorithmen funktionieren, und sie für externe Forscher zu öffnen.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

Previous

5 Vorteile, digitales Marketing auszulagern

Ashley Greene und Ehemann Paul Khoury begrüßen erstes Baby, Tochter Kingsley: „Wir lieben dich“

Next

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.