Technik

Es war nur eine Frage der Zeit, bevor Internet-Trolle gemacht wurden Mehr anspruchsvolle gefälschte Pornovideos

Es war nur eine Frage der Zeit, bevor Internet-Trolle gemacht wurden
 Mehr anspruchsvolle gefälschte Pornovideos

Foto: Getty Gefälschter Porno beinhaltet das Manipulieren eines Videos oder Fotos, indem jemand das Gesicht eines anderen auf den Körper eines Pornostars setzt. In den letzten Monaten, eine wachsende Gruppe von Reddit-Benutzern haben maschinelle Lernalgorithmen verwendet, um Gesichter von Prominenten in Pornoszenen zu verwandeln. Und jetzt scheint es in die gröbste und persönlichste Phase eingetreten zu sein. Heute, Motherboard gemeldet dass Benutzer von Discord und Reddit um Rat fragen, wie man gefälschte Pornofilme von Crushes und Exes macht. Eine Person prahlte sogar damit, dass sie bereits einen ehemaligen Klassenkameraden geschaffen hatte. “Ich machte ein ziemlich gutes Video von einem Mädchen ich ging auf die High School mit nur ~ 380 Bilder von Insta & FB gekratzt”, schrieb ein Benutzer auf Discord, nach einem Screenshot von Motherboard erhalten. Während die neueste Entwicklung in gefälschten Porno-Videos besonders beunruhigend ist, ist es im Nachhinein nicht überraschend, ein vorhersehbarer Höhepunkt von fast jedem Problem, das derzeit online existiert. Es ist eine Verschmelzung von toxischen Online-Communities, massiven Eingriffen in die Privatsphäre, dem Missbrauch von Online-Manipulationswerkzeugen und Rachepornos. Gefälschte Pornos sind nicht neu: Menschen nutzen seit Jahren Exes und Prominente online mit Fotobearbeitungssoftware wie Photoshop. Aber nun gibt es leistungsfähigere (und kostenlose) Tools, die maschinelles Lernen verwenden, um den Nutzern zu ermöglichen, realistischeres, gefälschtes Material zu erstellen, solange sie ein paar Stunden Freizeit und genügend Bilder von ihrem Opfer haben. Und es ist offensichtlich, dass dies kein Nischenproblem ist: Die Deepfakes subreddit , eine Gemeinschaft, die sich dem Erstellen von gefälschten Porno – Videos und anderen Manipulationen widmet, hat über 30.000 Abonnenten. Es ist nicht so einfach wie das Herunterladen einer App oder eines Web-Tools und das Hochladen des von Facebook oder Instagram gerippten Profilfotos des Opfers – ein Nutzer benötigt eine Reihe von Fotos der Zielperson. Um genügend Bilder zu sammeln, muss ein Benutzer ein Open-Source-Foto-Scraping-Tool verwenden, mit dem Fotos von Personen aufgenommen werden können, die online öffentlich zugänglich sind. Sie können dann kostenlos webbasierte Tools nutzen Finde ein Pornostar-Match zu ihrem Opfer . Während diese Technologie bahnbrechend wirken könnte, waren alle anderen Teile des zutiefst verpatzten Puzzles bereits da. In Celebgate und Gamergate sahen wir ähnliche Belästigungskampagnen und massive Eingriffe in die Privatsphäre sowie die Gesichtserfassungsfunktionen von Websites wie Facebook ist seit langem bekannt . Und während die Medien im vergangenen Jahr Alarm geschlagen haben, dass ähnliche Technologien für gefälschte Nachrichten verwendet werden, Das ist jetzt sicherlich möglich Es ist wichtig, auch im Auge zu behalten, wie diese Technologie als Mittel gezielten Missbrauchs eingesetzt werden kann, und eine unsäglich beunruhigende Hinrichtung von Rachepornos. Was wir sehen, ist keine völlig neue Praxis, sondern die vorhersehbare Konsequenz beschissener Menschen mit Zugang zu fortgeschrittener Technologie. Es ist emblematisch für eine kontinuierliche Praxis, die dank KI weiterhin so gedeihen kann, wie es für immer bestimmt war.

Post Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.