Elon Musks KI-gestütztes Videogenerierungstool Grok steht aktuell in der Kritik, da es ohne explizite Aufforderung Deepfakes von Taylor Swift in sexuell expliziter Form erzeugt haben soll. Insbesondere der "scharfe" Modus (engl. "spicy") von Grok Imagine, dem neuen KI-Videotool, scheint hier eine Rolle zu spielen.
"Scharfer" Modus ohne Schutzmaßnahmen?
Während andere Videogeneratoren wie Googles Veo und OpenAIs Sora Schutzmaßnahmen implementiert haben, um die Erstellung von NSFW-Inhalten (Not Safe For Work) und Celebrity-Deepfakes zu verhindern, generierte Grok Imagine laut Berichten ohne Zögern unzensierte, freizügige Videos von Taylor Swift. Dies geschah, ohne dass die Nutzerin die KI explizit dazu aufforderte, die Sängerin auszuziehen.
Jess Weatherbed von The Verge testete die Funktion, indem sie den Prompt "Taylor Swift feiert Coachella mit den Jungs" eingab. Grok generierte daraufhin eine Vielzahl von Bildern, von denen einige Swift bereits in freizügiger Kleidung zeigten. Anschließend konnte Weatherbed diese Bilder mit dem "scharfen" Modus in kurze, animierte Videos umwandeln, in denen Swift sich entkleidet und anzüglich tanzt.
Kritik und rechtliche Bedenken
Clare McGlynn, eine Rechtsprofessorin, die an einem Gesetz mitgearbeitet hat, das pornografische Deepfakes illegal machen würde, bezeichnete dies als "Misogynie mit Absicht". Sie argumentiert, dass Plattformen wie X (ehemals Twitter), die ebenfalls von Elon Musk betrieben wird, dies hätten verhindern können, sich aber bewusst dagegen entschieden hätten.
XAI, das Unternehmen hinter Grok, hat sich zu den Vorwürfen noch nicht geäußert. Die Nutzungsrichtlinien von XAI verbieten jedoch die Darstellung von Personen in pornografischer Weise. Die fehlenden Schutzmaßnahmen und die einfache Erzeugung von Deepfakes werfen Fragen nach der Verantwortung von KI-Entwicklern und Plattformbetreibern auf.
Nicht der erste Vorfall
Dies ist nicht das erste Mal, dass Taylor Swifts Bild für Deepfakes missbraucht wurde. Bereits im Januar 2024 kursierten sexuell explizite Deepfakes von ihr auf X und Telegram, die millionenfach angesehen wurden. Der aktuelle Fall unterstreicht die Notwendigkeit strengerer Regulierungen und Schutzmaßnahmen, um den Missbrauch von KI-Technologien zu verhindern.