VonLisa Berinsschließen
Nicht nur Taylor Swift ist Ziel von „Deepnude“-Kampagnen. Im KI-Zeitalter flammt Misogynie als Trend im Netz auf.
Frankfurt am Main – Natürlich traf es Taylor Swift. Wie keine andere Frau steht sie zurzeit im Rampenlicht, die mediale Aufmerksamkeit ist riesig. Vor einer Woche waren erste vermeintliche „Pornobilder“ von Swift auf der Plattform X aufgetaucht, es wurden mehr und mehr. Fans der Popsängerin, „Swifties“, hatten die Plattform daraufhin mit unzähligen Bildern ihres Idols geflutet, um Suchbegriffe zu kapern, unter denen man die Fake-Pornobilder finden konnte. Die Content-Moderation bei X – scheinbar komplett überfordert, eine Folge der massiven Entlassungen im Herbst 2022 durch Elon Musk. X zog die Notbremse: Die Suche nach „Taylor Swift“ wurde gesperrt und erst am Dienstag dieser Woche wieder aufgehoben.
Was Taylor Swift traf, ist eine nicht ganz neue, aber dafür scheinbar explosionsartig ansteigende Form des Frauenhasses im Internet durch Deepfakes – befeuert durch die kinderleichte Bedienung von KI-Programmen. Gesichter werden bei sogenannten „Face Swap“-Fakes ohne das Wissen der Person in pornografische Szenen eingebaut. Wozu früher noch ein Computer mit hoher Rechenleistung und Menschen mit speziellen Skills nötig waren, reichen heute oft wenige Klicks bei „Entkleidungs“-Apps oder ein Prompt in einem Bildgenerator. KI-betriebene Bild- und Videobearbeitung ist zu einem nützlichen Tool für misogyne Botschaften geworden. Das KI-Zeitalter ist scheinbar auch eins des aufflammenden Frauenhasses.
Diskreditierende Videos und Bilder kursieren oft erst in „dunkleren“ Teilen des Webs, unter anderem in Telegram-Gruppen, bis sie ihren Weg in die digitale Weltöffentlichkeit finden. Auf Foren wie „MrDeepfakes“ sind beispielsweise Fake-Pornos von zahlreichen Stars, darunter Billie Eilish, Emma Watson, Scarlett Johansson, Natalie Portman, klar, von Taylor Swift, und auch von deutschen und internationalen Politikerinnen, Moderatorinnen oder Influencerinnen zu finden.
Nur ein schlechter Scherz?
Demütigen, bloßstellen oder sich nur ein bisschen „lustig machen“ – was auch immer die Gründe für solche Fakes sind, die Folgen für die Betroffenen sind fatal. Auch, wenn die Bilder und Videos nicht echt sind – für echt gehalten werden sie wohl nicht selten. Was tun, wenn ein solches Bild oder Videos beim Arbeitgeber landet? Wie kann man dafür sorgen, dass erniedrigende Bilder aus dem Netz verschwinden? Wie kann man die Täter belangen? Und längst sind nicht mehr nur prominente Frauen betroffen, sondern in wachsender Anzahl alle – auch Kinder. Vergangenen September berichteten Mädchen einer Schule in Spanien, dass gefakte Nacktfotos von ihnen im Umlauf waren, einige der Betroffenen waren erst elf Jahre alt (die Täter waren auch nicht viel älter). Engagierte Mütter setzten sich für ihre Töchter ein, landesweit wurde über den Skandal berichtet.
KI-generierte Nacktbilder, auch „Deepnude“-Bilder genannt, sind schon seit längerem keine Einzelfälle mehr. In einer Studie der Cybersicherheitsfirma Deeptrace konnten die Forschenden schon im Jahr 2019 zeigen, dass über 95 Prozent der Deepfakes, die im Internet zu finden sind, pornografischen Inhalt haben. Sie werden als Waffe gegen Frauen instrumentalisiert, wie Netzpolitik.org in einem Artikel schreibt. Die Zahl der im Netz kursierenden Deepfake-Pornos wächst rasant: Waren es laut der Deeptrace-Studie im Jahr 2018 noch 14 000, gehe man heute von Milliarden aus. Eine im Dezember veröffentlichte Untersuchung der Analysefirma Graphika zu „Ausziehbildern“ stellt fest, dass mehr als 24 Millionen Besucher innerhalb nur eines Monats auf den Websites von 34 Anbietern solcher „nicht einvernehmlich intimen Bildern“ waren. Es werde einen massiven Zuwachs dieser kompromittierenden Bilder, Belästigungskampagnen, Sextortion – Erpressung mit Nacktbildern – geben, heißt es.
Eine Art der sexuellen Gewalt
Zu einer ähnlichen Schlussfolgerung kam auch eine Studie zur Bekämpfung von Deepfakes des Wissenschaftlichen Dienstes des Europäischen Parlaments aus dem Jahr 2021: „Frauen in einen virtuellen sexuellen Kontext zu zwingen, reduziert sie zu wehrlosen Objekten. Daher können Deepfake-Pornografie und andere nicht einvernehmliche sexuelle Inhalte als eine neue Form der sexuellen Gewalt verstanden werden“, heißt es darin. Erschwerend kommt hinzu: Viele Betroffene wissen gar nichts davon, dass sie in gefakten pornografischen Bildern oder Videos auftauchen.
Interessiert das die Anbieter von Apps und Plattformen denn gar nicht? Richtlinien oder Nutzungsbedingungen gibt es durchaus, teilweise untersagen sie Deepfakes ohne Einverständnis der Abgebildeten, oder anstößige, herabwürdigende oder für die gezeigte Person unangenehme Darstellungen, wie Netzpolitik.org in einer Recherche herausfand. Dennoch böten dieselben Apps teilweise selbst Video-Vorlagen an: ein Oben-ohne-Model am Strand, eine twerkende Rapperin, Frauen im knappen Bikini - man muss nur ein Porträtfoto montieren. Inhaltliche Kontrollen: unzulänglich. Auch auf der Plattform X ist das so. Dort hat sich laut der Informatikerin Constanze Kurz eine „toxische Situation“ ergeben, weil Musk das Inhaltsmoderationsteam abgeschafft hat.
Was den Porno-Fake bei Taylor Swift noch bedenklicher macht: Scheinbar war unter anderem ein Text-zu-Bild-Generator von Microsoft mit dem Namen „Designer“ für die Bilder genutzt worden, wie Kurz in ihrem Artikel für Netzpolitik.org schreibt. Dahinter stehe das Modell DALL-E3 von Open AI. Auch Microsoft verweise auf Nutzungsregeln, schreibt Kurz: „Aber wie Menschen das angebotene Werkzeug nutzen, bleibt ihnen überlassen. Verantwortung dafür will Microsoft nicht übernehmen.“ (Lisa Berins)
