Welt

Christchurch: Die Polizei möchte Videos vom Angriff aus dem Internet entfernen


Ein Attentäter missbrauchte soziale Netzwerke als Propagandaplattform bei dem jüngsten Terroranschlag in Neuseeland, bei dem mindestens 49 Menschen ermordet wurden.

Er hat seinen Angriff auf eine Moschee in Christchurch live über Facebook gestreamt. Auf seinem inzwischen gelöschten Twitter-Profil verbreitete er auch mehr Bilder wie die Mordwaffe. Zu diesem Zweck veröffentlichte er Download-Links zu einem 87-seitigen Manifest, in dem er seine Handlung mit rechtsextremen Ideologien begründet.

Die neuseeländische Polizei arbeitet jetzt daran, "jegliches Material zu entfernen" auf Twitter gepostetEs heißt auch: "Die Polizei ist sich bewusst, dass es äußerst beunruhigende Schüsse im Zusammenhang mit dem Christchurch-Vorfall gibt, der online im Umlauf ist." Die Ermittler fordern die Internetbenutzer außerdem dazu auf, die Weitergabe der Verknüpfung zum Video einzustellen.

Der neuseeländische Premierminister Jacinda Ardern unterstützte auch den Aufruf der Behörden. Der "Gewalttat" sollte kein Raum geboten werden. Der neuseeländische Rechtsprofessor Alexander Gillespie von der University of Waikato warnte davor, dass die Verbreitung des Videos Nachahmer stiften könnte.

Immer neue Videokopien

Inzwischen hat Twitter das Profil des mutmaßlichen Attentäters gelöscht. Und auch Facebook hat laut einem Tipp der neuseeländischen Polizei Profile von Facebook und Instagram entfernt, sowie den fast 17 Minuten langen Livestream, der auch im Nachhinein betrachtet werden konnte.

"Unser Herz ist gebrochen wegen der schrecklichen Tragödie in Neuseeland", heißt es in einer Erklärung von YouTube. "Wir werden aufmerksam daran arbeiten, gewalttätiges Material zu entfernen."

Obwohl die großen Plattformen in den letzten Stunden zahlreiche Videokopien gelöscht haben, ist das Material des Täters weiterhin in sozialen Netzwerken und auf Videoplattformen durchsuchbar. Wenn Sie danach suchen, werden Sie Kopien des Livestream-Videos, Videoclips, Fotos und Screenshots finden, die den Angriff dokumentieren.

Auch Algorithmen und Moderatoren machen Fehler

Grundsätzlich können Benutzer Material von Terroranschlägen, die sie online entdeckt haben, direkt an die Plattformen melden, und Algorithmen und Moderatorenteams durchsuchen auch soziale Netzwerke.

Das Filtern von Inhalten kann jedoch fehlerhaft sein, wie eine im vergangenen Jahr veröffentlichte Studie des Counter Extremism Project (CEP) zeigt. Während des dreimonatigen Ermittlungszeitraums gelang es den IS-Anhängern, trotz YouTube-Filterungsmechanismen mehr als 1.300 terroristische Videos auf YouTube hochzuladen. Vierundzwanzig Prozent der Videos waren über zwei Stunden verfügbar und 76 Prozent wurden spätestens nach zwei Stunden gelöscht.

Immer neue Exemplare

Ryan Mac, ein technischer Reporter bei Buzzfeed, sagt auf Twitter, dass Videos von Christchurchs Angriff auf YouTube manchmal nicht vollständig entfernt, sondern als problematisch und eingeschränkt eingestuft werden: Die Benutzer könnten sie nach einer Warnung weiterhin anzeigen. "Wie kann die Übertragung von Massenmorden nicht gegen die Nutzungsbedingungen verstoßen?" Sagte Mac auf Twitter.

Ein Verbot der terroristischen Propaganda aus dem Internet wird als unmöglich angesehen – auch weil Benutzer in sozialen Netzwerken ständig neues Material hochladen oder neue Links zu anderen Plattformen teilen, die weniger strikt gelöscht werden.

Wie der Fall des Datenlecks "0rbit" Anfang des Jahres in Deutschland zeigte, werden problematische Inhalte zudem häufig auf Plattformen gespiegelt, deren Server in Ländern außerhalb der Reichweite ausländischer Ermittler liegen. Der Inhalt bleibt dann auf diesen Servern lange online. "Hinweis-und-Take-Down-Verfahren funktionieren oft nicht", sagte Rechtsanwalt Peter Hense beim deutschen Datenleck, "also wenn Sie Hoster über Verstöße informieren, so entfernen sie den Inhalt."

Filter für die Polizei hochladen

Im vergangenen Jahr forderte die EU-Kommission eine technische Lösung zur Eindämmung der Verbreitung terroristischer Inhalte. Der Upload-Filter dient dazu, kriminelle Inhalte wie beispielsweise terroristische Videos automatisch zu erkennen. In einem solchen System werden Inhalte mit einer Datenbank abgeglichen, die Hash-Dateien identifiziert, die bereits als terroristisch eingestuft wurden, eine Art digitaler Fingerabdruck von Dateien.

Darüber hinaus arbeiten Forscher in EU-Projekten wie Tensor daran, terroristische Videos zu entdecken, die zuvor noch nicht in einer Datenbank erfasst wurden.

Upload-Filter sind jedoch umstritten, da sie als unzuverlässig betrachtet werden und die Gefahr besteht, dass die Meinungsfreiheit eingeschränkt ist. Derzeit werden Upload-Filter auch im Rahmen der geplanten EU-Urheberrechtsreform stark kritisiert.

Post Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.