BSR-Audit stellt fest, dass Facebook Palästinenser im Israel-Gaza-Krieg verletzt hat.

| |

Eine unabhängige Prüfung des Umgangs von Meta mit Online-Inhalten während des zweiwöchigen Krieges zwischen Israel und der militanten palästinensischen Gruppe Hamas im vergangenen Jahr ergab, dass der Social-Media-Riese palästinensischen Nutzern ihre Meinungsfreiheit verweigert hatte, indem er fälschlicherweise ihre Inhalte entfernte und arabischsprachige Nutzer bestraft hatte stärker als hebräischsprachige.

Das Bericht vom Beratungsunternehmen Business for Social Responsibility, ist ein weiterer Beweis für die Fähigkeit des Unternehmens, seinen globalen öffentlichen Platz zu überwachen und die Meinungsfreiheit gegen das Schadenspotenzial in einem angespannten internationalen Kontext abzuwägen. Es ist auch einer der ersten Insiderberichte über das Scheitern einer sozialen Plattform während des Krieges. Und es untermauert Beschwerden von palästinensischen Aktivisten, dass die Online-Zensur sie stärker getroffen habe, wie damals von der Washington Post und anderen Medien berichtet wurde.

„Der BSR-Bericht bestätigt, dass Meta gegen die Zensur verstoßen hat #Palästinensisch Recht auf freie Meinungsäußerung neben anderen Menschenrechten durch die stärkere Durchsetzung arabischer Inhalte im Vergleich zu hebräischen Inhalten, die weitgehend untermoderiert wurden“, 7amleh, das Arab Center for the Advancement of Social Media, eine Gruppe, die sich für palästinensische digitale Rechte einsetzt , sagte in einer Erklärung auf Twitter.

Der Krieg im Mai 2021 wurde ursprünglich durch einen Konflikt über einen bevorstehenden Fall vor dem israelischen Obersten Gerichtshof ausgelöst, in dem es darum ging, ob Siedler das Recht hatten, palästinensische Familien aus ihren Häusern in einem umkämpften Viertel in Jerusalem zu vertreiben. Während heftiger Proteste gegen das Gerichtsverfahren stürmte die israelische Polizei die Al-Aqsa-Moschee, eine der heiligsten Stätten des Islam. Die Hamas, die den Gazastreifen regiert, reagierte, indem sie Raketen auf Israel abfeuerte, und Israel revanchierte sich mit einer 11-tägigen Bombenkampagne, bei der mehr als 200 Palästinenser starben. Über ein Dutzend Menschen in Israel wurden ebenfalls getötet, bevor beide Seiten einen Waffenstillstand ausriefen.

Während des Krieges wurden Facebook und andere soziale Plattformen für ihre zentrale Rolle beim Austausch von Geschichten aus erster Hand und vor Ort aus dem sich schnell entwickelnden Konflikt gelobt. Palästinenser posteten Fotos von Häusern, die während des Sperrfeuers mit Trümmern und Kindersärgen bedeckt waren, was zu einem weltweiten Aufschrei zur Beendigung des Konflikts führte.

Aber auch Probleme mit der Inhaltsmoderation tauchten fast sofort auf. Schon früh während der Proteste begann Instagram, das zusammen mit WhatsApp und Facebook im Besitz von Meta ist, Inhalte mit dem Hashtag #AlAqsa einzuschränken. Zuerst das Unternehmen beschuldigt das Problem bei einem automatisierten Softwarebereitstellungsfehler. Nachdem The Post eine Geschichte veröffentlicht hatte, in der das Problem hervorgehoben wurde, fügte eine Meta-Sprecherin hinzu, dass ein „menschlicher Fehler“ die Panne verursacht habe, bot aber keine weiteren Informationen an.

Der BSR-Bericht wirft ein neues Licht auf den Vorfall. Der Bericht besagt, dass der #AlAqsa-Hashtag fälschlicherweise von einem Mitarbeiter, der für einen Drittanbieter arbeitet, der für das Unternehmen die Inhaltsmoderation durchführt, zu einer Liste von Begriffen hinzugefügt wurde, die mit Terrorismus in Verbindung gebracht werden. Der Mitarbeiter zog fälschlicherweise „aus einer aktualisierten Liste von Begriffen des US-Finanzministeriums, die die Al-Aqsa-Brigade enthielt, was dazu führte, dass #AlAqsa aus den Suchergebnissen ausgeblendet wurde“, so der Bericht. Die Al-Aqsa-Brigade ist eine bekannte Terroristengruppe (BuzzFeed News berichtete darüber interne Diskussionen über die damalige falsche Kennzeichnung des Terrorismus).

Während sich die Gewalt in Israel und Gaza in den sozialen Medien ausbreitet, äußern Aktivisten Bedenken hinsichtlich der Einmischung von Technologieunternehmen

Der Bericht, der nur die Zeit um den Krieg 2021 und seine unmittelbaren Folgen untersuchte, bestätigt jahrelange Berichte von palästinensischen Journalisten und Aktivisten, dass Facebook und Instagram ihre Posts offenbar häufiger zensieren als die von Hebräischsprachigen. BSR stellte zum Beispiel fest, dass Facebook nach Berücksichtigung des Bevölkerungsunterschieds zwischen hebräisch und arabisch sprechenden Personen in Israel und den palästinensischen Gebieten mehr Posts von Palästinensern als von Israelis entfernte oder Streiks hinzufügte. Die von BSR überprüften internen Daten zeigten auch, dass Software routinemäßig potenziell regelverletzende Inhalte auf Arabisch häufiger kennzeichnet als Inhalte auf Hebräisch.

Der Bericht stellte fest, dass dies wahrscheinlich darauf zurückzuführen ist, dass die auf künstlicher Intelligenz basierenden Hassredensysteme von Meta Listen mit Begriffen verwenden, die mit ausländischen Terrororganisationen in Verbindung gebracht werden, von denen viele Gruppen aus der Region sind. Daher wäre es wahrscheinlicher, dass der Inhalt einer Person, die auf Arabisch postet, als potenziell mit einer terroristischen Gruppe in Verbindung gebracht werden könnte.

Darüber hinaus heißt es in dem Bericht, dass Meta eine solche Erkennungssoftware entwickelt habe, um Hass und feindselige Äußerungen auf Arabisch proaktiv zu identifizieren, dies jedoch nicht für die hebräische Sprache getan habe.

Der Bericht wies auch darauf hin, dass das Unternehmen aufgrund eines Mangels an Inhaltsmoderatoren sowohl auf Arabisch als auch auf Hebräisch potenziell regelverletzende Inhalte an Rezensenten weiterleitete, die die Sprache, insbesondere arabische Dialekte, nicht sprechen oder verstehen. Das führte zu weiteren Fehlern.

Der Bericht, der von Facebook auf Empfehlung seines unabhängigen Aufsichtsgremiums in Auftrag gegeben wurde, gab 21 Empfehlungen an das Unternehmen ab. Dazu gehören die Änderung seiner Richtlinien zur Identifizierung gefährlicher Organisationen und Personen, die Bereitstellung von mehr Transparenz für Benutzer, wenn Beiträge bestraft werden, die Neuzuweisung von Ressourcen für die Moderation von Inhalten auf Hebräisch und Arabisch auf der Grundlage der „Marktzusammensetzung“ und die Weiterleitung potenzieller Verstöße gegen Inhalte auf Arabisch an Personen, die dasselbe sprechen Arabischer Dialekt wie im Social-Media-Beitrag.

In einem Antwort. Die Menschenrechtsdirektorin von Meta, Miranda Sissons, sagte, dass das Unternehmen 10 der Empfehlungen vollständig umsetzen werde und vier teilweise umsetze. Das Unternehmen „prüfte die Machbarkeit“ von weiteren sechs und unternahm „keine weiteren Maßnahmen“ bei einem.

„Für viele dieser Empfehlungen gibt es keine schnellen Lösungen über Nacht, wie BSR deutlich macht“, sagte Sissons. „Obwohl wir als Ergebnis dieser Übung bereits erhebliche Änderungen vorgenommen haben, wird dieser Prozess einige Zeit in Anspruch nehmen – einschließlich Zeit, um zu verstehen, wie einige dieser Empfehlungen am besten angegangen werden können und ob sie technisch machbar sind.“

Wie Facebook den Rest der Welt vernachlässigte und Hassreden und Gewalt in Indien schürte

In seiner Erklärung sagte das Arab Center for Social Media Advancement (7amleh), dass der Bericht die Voreingenommenheit von Meta fälschlicherweise als unbeabsichtigt bezeichnete.

„Wir glauben, dass die Zensur seit Jahren anhält [Palestinian] Stimmen bestätigen trotz unserer Berichte und Argumente einer solchen Voreingenommenheit, dass dies eine absichtliche Zensur ist, es sei denn, Meta verpflichtet sich, sie zu beenden“, hieß es.

Previous

Auburn QB Zach Calzada wird sich einer Schulteroperation unterziehen und die Saison für den Transfer zu Texas A & M beenden, so der Bericht

Ranbir Kapoor’s Magnum Opus bezeugt “Out of the World”-Reaktion für den National Cinema Day, indem er 10 Lakh-Tickets im Voraus verkauft!

Next

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.