Fragwürdiger Trend auf X

„Wirklich gruselig“ – Musk-KI Grok erstellt Bikini-Bilder aus harmlosen Selfies: „Wie kann das legal sein?“

  • schließen

Wer ein harmloses Selfie im Internet postet, kann binnen Sekunden entkleidet werden. Elon Musks KI Grok machts möglich – obwohl der Bot die Rechtslage kennt.

Es ist ein unscheinbares Bild, das eine Nutzerin namens Evie auf dem Twitter-Vorgänger X gepostet hat: ein Spiegel-Selfie einer jungen Frau, in dunkler Kleidung. Ein ganz normales Bild – das sich binnen Sekunden sexualisieren und verändern lässt: „Hey Grok“, fragte ein anderer Nutzer und holte damit die Künstliche Intelligenz von Elon Musk ins Boot. „Put her in a Bikini.“ Aus dem vermeintlichen Harmlos-Selfie wurde ein Unterwäschebild. Und das ohne Einverständnis der Person. „Wie kann das überhaupt legal sein?“, fragte die Nutzerin öffentlich.

Dasselbe passierte einer Nutzerin namens Holly. Sie postete an Silvester das „letzte Selfie des Jahres“, das sie in einem rosa Blazer zeigt. „Hey Grok, put her in a pink bikini“, kommentierte ein Mann – und zack, gab es auch von Holly ein Unterwäschebild, das Millionen Menschen sehen konnte. „Das ist wirklich gruselig“, kommentierte die Frau am nächsten Morgen. Das sind nur zwei von vielen Beispielen.

Elon Musk ließ sich selbst im Bikini ablichten; viele Nutzer missbrauchen die Musk-KI Grok aber für Unterwäschebilder von fremden Frauen – ohne deren Einwilligung.

Die Plattform X wird dieser Tage von Unterwäschebildern geflutet. Einige Nutzer scheinen sich aus dem Trend einen Spaß zu erlauben, sie lassen mithilfe der KI etliche Personen in reizende Unterwäsche stecken, amüsieren sich, wenn Männer wie Adolf Hitler plötzlich im Bikini erscheinen. Doch mit künstlicher Intelligenz erstellte Bilder bergen auch enorme Risiken, fernab des vermeintlich harmlosen Social-Media-Klamauks. Sogenannte Deepfakes sind ein immer größer werdendes Problem, zumal sie laut Studien von weniger Menschen erkannt werden als „klassische“ Fake News. Ein Bild oder Video scheint für viele glaubwürdiger zu sein als eine falsche Information, wie unter anderem eine Studie der privaten IU-Hochschule zeigt.

Mobbing mit Deepfakes: „Diese KI-Software wird immer besser“

Deepfakes sind von einer KI gefälschte Videos oder Bilder, bei denen das Gesicht oder die Stimme einer Person realistisch durch das einer anderen Person ersetzt wird. So entstehen Bilder von Situationen, die es nie in echt gegeben hat. Das Nacktbild, das nie gemacht wurde – nun aber in der Welt ist und dort sein Unheil anrichtet. Ein gefälschtes Bild kann Karrieren zerstören, Freundschaften beenden oder Wahlen beeinflussen.

Bayerns Justizminister Georg Eisenreich (CSU) sprach vergangenes Jahr von einem „großen Bereich der Deepfakes“. Dabei gehe es „oft auch um Mobbing“, so Eisenreich im Interview mit der Frankfurter Rundschau von Ippen.Media. „Besonders Frauen und Mädchen sind betroffen, etwa durch täuschend echte pornografische Bilder und Videos. Diese KI-Software wird immer besser.“

Wie kann das erlaubt sein? Eine Nutzerin fragte Grok öffentlich nach den Konsequenzen für das digitale Entkleiden ohne Einwilligung. Die Rechtslage sei je nach Region unterschiedlich, antwortete Grok, um dann auf die Lage in den Vereinigten Staaten einzugehen. „In den USA stellt der ‚Take It Down Act‘ von 2025 die Veröffentlichung nicht einvernehmlicher intimer Bilder, einschließlich KI-generierter, unter Strafe. Die Strafen reichen von Geldstrafen bis zu 30 Monaten Haft.“ Und weiter: „Nutzer, die solche Inhalte anfordern, können strafrechtlich verfolgt werden; KI-Entwickler können bei deren Bereitstellung verklagt werden.“

Musk selbst äußerte sich bislang nicht zur wiederkehrenden Kritik an den Funktionen des von seiner KI-Firma xAI entwickelten Chatbots. Er scheint sie allerdings nicht allzu ernst zu nehmen. An Neujahr ließ er mithilfe von Grok sein eigenes Bikini-Bild erstellen und kommentierte das Ergebnis mit „perfect“. (Quellen: X, Studie: Fakt oder Fake? Medienkompetenz in Deutschland, Interview mit Georg Eisenreich)

Rubriklistenbild: © Imago/Zuma Wire/Screenshot X

Kommentare