Jugendliche auf Facebook und Instagram werden möglicherweise bald feststellen, dass einige Inhalte, die einst in ihren Feeds wucherten, für sie nicht mehr sichtbar sind – selbst wenn sie danach suchen.
Meta, die Muttergesellschaft der Social-Media-Plattformen, gab am Dienstag bekannt, dass sie damit beginnen wird, einiges von dem einzuschränken, was junge Nutzer auf Facebook und Instagram sehen können. Die Ankündigung erfolgt zu einem Zeitpunkt, an dem das Unternehmen zunehmendem Druck seitens der Aufsichtsbehörden ausgesetzt ist, die behaupten, seine Social-Media-Seiten machten süchtig und schädlich für die psychische Gesundheit jüngerer Nutzer.
In einem Blogbeitrag sagte Meta, dass die Maßnahmen, die in den kommenden Wochen eingeführt werden, darauf abzielen, „Teenagern ein altersgerechteres Erlebnis in unseren Apps zu bieten“. Durch die Schutzmaßnahmen wird es für Jugendliche schwieriger, sensible Inhalte anzuzeigen und zu durchsuchen Inhalte wie Selbstmord, Selbstverletzung und Essstörungen, so Meta.
Folgendes sollten Sie über die Änderungen wissen:
Meta steht vor einer Bundesklage im Zusammenhang mit jungen Nutzern
Meta geriet in den letzten Monaten sowohl in den USA als auch in Europa in die Kritik, weil es Vorwürfe gab, seine Apps machten süchtig und hätten eine Krise der psychischen Gesundheit junger Menschen angeheizt.
Im Oktober reichten mehr als 40 Bundesstaaten eine Klage vor einem Bundesgericht ein und behaupteten, das Social-Media-Unternehmen habe von den Werbeeinnahmen profitiert, die es durch die absichtliche Gestaltung von Funktionen auf Instagram und Facebook erzielt habe, um die Zeit zu maximieren, die Jugendliche und Kinder auf den Plattformen verbringen.
Nach einer zweijährigen Untersuchung in mehreren Bundesstaaten zitierte die Klage mehrere Studien – darunter auch Metas eigene Forschung –, die Zusammenhänge zwischen der Nutzung von Instagram und Facebook durch junge Menschen mit Depressionen, Angstzuständen und anderen Gesundheitsproblemen aufzeigen. Anwälte behaupteten in der Klage, dass die Algorithmen der Websites bei jungen Nutzern die Freisetzung des Vergnügungsstoffs Dopamin auslösten, der sie zum Weiterscrollen animiere, „ähnlich wie ein Spieler an einem Spielautomaten“.
Meta sagte damals in einer Erklärung, dass es das „Engagement teilt, Teenagern sichere, positive Online-Erlebnisse zu bieten“.
„Wir sind enttäuscht, dass die Generalstaatsanwälte diesen Weg gewählt haben, anstatt produktiv mit Unternehmen aus der gesamten Branche zusammenzuarbeiten, um klare, altersgerechte Standards für die vielen Apps zu schaffen, die Jugendliche nutzen“, sagte das Unternehmen.
Meta zum Aktualisieren der Datenschutzeinstellungen für Jugendliche und zum Ausblenden von Suchbegriffen
Die neue Richtlinie von Meta bedeutet, dass das Profil aller Benutzer unter 18 Jahren bald standardmäßig die restriktivsten Einstellungen verwenden wird.
Für diese Konten werden bestimmte Arten von Inhalten sowohl auf Facebook als auch auf Instagram ausgeblendet – selbst wenn sie von jemandem geteilt werden, dem ein Teenager folgt – und bestimmte Suchbegriffe werden eingeschränkt. Wenn ein Teenager nach einem eingeschränkten Begriff im Zusammenhang mit Selbstmord, Selbstverletzung oder Essstörungen sucht, wird er stattdessen an „Expertenressourcen für Hilfe“ wie die National Alliance on Mental Illness weitergeleitet, sagte Meta.
Während Meta alle Jugendkonten automatisch auf die strengsten Einstellungen einstellt, räumt das Unternehmen ein, dass diese Einstellungen von Benutzern geändert werden können.
Nach Angaben des Unternehmens werden jugendliche Benutzer außerdem aufgefordert, ihre Datenschutzeinstellungen selbst zu aktualisieren.
Für diejenigen, die die empfohlenen Datenschutzeinstellungen aktivieren, schränkt Meta automatisch ein, wer seine Inhalte erneut veröffentlichen, taggen oder erwähnen oder seine Inhalte in Reels und Remixe einbinden kann. Unter diesen Einstellungen können nur die Follower eines Benutzers Nachrichten senden und beleidigende Kommentare werden überhaupt nicht sichtbar sein.
Meta gibt an, regelmäßig Experten zum Thema Plattformsicherheit zu konsultieren
In Metas Blog-Beitrag wurden die rechtlichen Schritte, mit denen es konfrontiert ist, nicht ausdrücklich erwähnt, aber das Unternehmen gab an, dass es regelmäßig „Experten für die Entwicklung von Jugendlichen, Psychologie und psychische Gesundheit konsultiert, um dabei zu helfen, unsere Plattformen sicher zu machen“.
„Wir haben über ein Jahrzehnt damit verbracht, Richtlinien und Technologien zu entwickeln, um Inhalte zu bekämpfen, die gegen unsere Regeln verstoßen oder als sensibel angesehen werden könnten“, sagte das Unternehmen.
In einer Erklärung bezeichnete Rachel Rodgers, Psychologin an der Northeastern University, die Maßnahmen als „einen wichtigen Schritt, um Social-Media-Plattformen zu Räumen zu machen, in denen Jugendliche auf altersgerechte Weise Kontakte knüpfen und kreativ sein können.“
„Diese Richtlinien spiegeln aktuelle Erkenntnisse und Expertenratschläge in Bezug auf die Sicherheit und das Wohlbefinden von Teenagern wider“, sagte Rodgers. „Während sich diese Veränderungen vollziehen, bieten sie Eltern gute Gelegenheiten, mit ihren Teenagern darüber zu sprechen, wie sie mit schwierigen Themen umgehen können.“
Mitwirkender: Mike Snider
Eric Lagatta berichtet über aktuelle und aktuelle Nachrichten für USA TODAY. Erreichen Sie ihn unter elagatta@gannett.com