Berlin

KI-Deepfake Pornografie: Sexualisierte Gewalt im virtuellen Raum | ABC-Z

Das Nachrichtenmagazin der SPIEGEL berichtet über schwere Vorwürfe, die die Moderatorin und Schauspielerin Collien Fernandes gegen ihren Ex-Mann Christian Ulmen erhebt. Dem Bericht zufolge laufen hierzu in Spanien Vorermittlungen. Es geht unter anderem um den Vorwurf digitaler Gewalt und der Nutzung gefälschter Profile. Ulmen ließ Fragen des SPIEGEL unbeantwortet; für ihn gilt die Unschuldsvermutung.

Eine neue Form systematischer geschlechtsspezifischer Gewalt bestimmt die Schlagzeilen. Laut Erhebungen sind bereits Hunderttausende Opfer von manipulierten pornografischen Inhalten oder Nacktbildern geworden – darunter auch Pia Scholz.

„Im ersten Moment hat es eine krasse Ohnmacht ausgelöst“, erzählt die 28-Jährige. „Dann überkam mich ein Gefühl des Ekels. Ich habe mich ausgezogen und beschämt gefühlt.“ Von Scholz kursieren KI-generierte Deepfakes beim Sex, ihr Gesicht entdeckt sie in gewaltvollen, sexualisierten Szenarien im Netz: verprügelt, heulend, rassifiziert, nackt. Sie bekommt Bomben-, Vergewaltigungs-, Kidnap- und Morddrohungen. In ihrem Namen werden KI-generierte Drohbriefe versendet. Ihr Vergehen: Sie hat im öffentlichen Diskurs Raum eingenommen – als Frau.

Als sie sich das erste Mal in einem Deepfake-Porno sah, war Scholz 25 Jahre alt. Damals war sie Gamerin und Influencerin. Auf Twitch hat Shurjoka, wie sie sich auf der Online-Plattform nennt, 330.000 Abonnent:innen, die ihr 10 Jahre lang beim Spielen von Strategiespielen zusahen. Ihre Reichweite nutzte Scholz auch für politisches Engagement, klärte über queerfeministische Themen, Rechtsextremismus und Armutsbetroffenheit auf.

2023 erhielt sie – mitunter wegen ihres politischen Engagements – den Deutschen Computerspielpreis, der als wichtigster Preis in der Gamingszene gilt. „Daraufhin hat die Manosphäre den Verstand verloren“, erzählt Scholz. Als dann auch noch der Streamer Scurrows, ein erklärter Anhänger des misogynen Influencers Andrew Tate, behauptet habe, Scholz werfe ihm sexuelle Belästigung vor, um seine Karriere zu beenden, sei die Hasskampagne eskaliert.

Kampagne noch immer in vollem Gange

Drei Jahre später ist die Kampagne gegen die heute 28-Jährige noch immer in vollem Gange. Einige der Täter vernetzen sich in der öffentlich zugänglichen Telegram-Gruppe „Shurjoka Game Chat“, der rund 80 Männer angehören. „Sie wollen herausfinden, wo ich wohne, wo ich mich bewege, was ich mache“, erzählt Scholz.

Die Chats liegen der taz vor. Darin werden KI-Pornovideos von ihr geteilt, Doxxings koordiniert – also systematisches Veröffentlichen privater Daten – und sich darüber ausgetauscht, wie man Bomben baut, etwa, um eine auf dem Pferdehof, auf dem ihr Pferd steht, hochgehen zu lassen.

Auch „Swattings“ werden dort vorbereitet: absichtlich falsche Notrufe, bei denen schwere Verbrechen wie Geiselnahmen oder Bombenanschläge vorgetäuscht werden, um Spezialeinheiten an den Wohnort des Opfers zu locken.

Herstellung von Deepfakes immer leichter

„Sie haben mich systematisch berufsunfähig gemacht“, sagt Scholz. Swattings seien nicht nur wiederholt an ihrem Wohnort und bei ihrer Familie in Österreich ausgelöst worden, sondern auch bei Unternehmen, mit denen sie zusammenarbeitete. Als Influencerin lebte sie von diesen Kooperationen. Aufgrund der Bedrohungen habe sie keine neuen Anfragen mehr angenommen.

Was treibt diese Männer an? „Sie wollen keine sexuelle Befriedigung. Sie wollen einfach Frauen quälen und missbrauchen“, glaubt Scholz. KI-Pornografie diene nicht dem Wunsch, Frauen nackt zu sehen, sondern der Degradierung durch Entkleidung und Sexualisierung. „Es geht um Macht und Kontrolle über Frauen – vor allem jene, die politisch aktiv sind und eine Meinung vertreten“, sagt Scholz. „Dafür wollen sie Frauen bestrafen.“

Neu sei die digitale Fremdsexualisierung nicht, so Scholz. Neu sei die schiere Masse und die Qualität der Bilder, die es schwierig machten, Fälschungen von echten Aufnahmen zu unterscheiden.

KI-Pornografie wird als systematische Kriegsführung im Netz eingesetzt – vor allem gegen linke aktivistische Personen, Frauen und Queers

Pia Scholz

Auch Josephine Ballon, Geschäftsführerin von HateAid, beobachtet diese Entwicklung. „Das Thema gestohlener Nacktbilder und Deepfakes eskaliert, weil die Herstellung inzwischen erschreckend einfach ist“, sagt die Rechtsanwältin. Ein Profilbild bei Linkedin genügt als Ausgangsmaterial. Mit kostenlosen Apps aus dem App-Store lassen sich daraus sexualisierte Bilder und Videos generieren. Teilweise wird sogar damit geworben, per Klick Bikini-Fotos zu erstellen oder sexuelle Szenarien auszuwählen.

„Die Eskalation durch Tools wie Grok hat das Thema weiter angeheizt“, sagt Ballon. Der Chatbot von Elon Musk erstellt auf X sexualisierte Bilder realer Frauen und Kinder und erlaubte Nutzern Bilder zu bearbeiten und damit andere User virtuell auszuziehen. Es entstanden geschätzt drei Millionen Bilder in elf Tagen, inzwischen ist die Funktion eingeschränkt.

Für Scholz steht fest: „KI-Pornografie wird als systematische Kriegsführung im Netz eingesetzt – vor allem gegen linke aktivistische Personen, Frauen und Queers.“ Gepusht werde dies durch „Tech-Bros“, die ihre antifeministischen und rechten Ideologien vorantreiben wollten. Doch die Täter seien keineswegs ausschließlich dem rechten Spektrum zuzuordnen. „Es ist ein Querschnitt der Gesellschaft“, sagt Scholz: vom 16-jährigen Schüler bis zum Rentner. „Das sind keine Incels (Anm. d. Red.: Involuntary Celibats, also Männer, die sich als unfreiwillig enthaltsam verstehen), das sind Männer, die bereit sind, Frauen abzuwerten und zu entmenschlichen.“ Was sie verbindet: Misogynie.

Hackaktivistin eingeschaltet

Scholz hat die Identitäten ihrer Täter mithilfe der Hackaktivistin Ornella Al-Lami, bekannt als Nella, ausfindig gemacht – „in der naiven Annahme, dass die Polizei nichts unternimmt, weil sie die Täter nicht findet“. Das habe sich als Fehlannahme erwiesen. „Die Behörden versagen systematisch“, sagt Scholz. „Es passiert nichts: weder bei der KI-Pornografie noch bei den Bombendrohungen, den Swattings oder beim Stalking.“

Die Telegram-Gruppe habe sie den Behörden in Brandenburg, wo sie damals lebte, vor zweieinhalb Jahren gemeldet samt einer Mappe mit Screenshots. Obwohl darin Hakenkreuze und Hitler-verherrlichende Inhalte geteilt werden und Mitglieder sich „Remigrator“ oder „Herr Adolf Hitler“ nennen, habe der Staatsanwalt entschieden, dass die Tat nicht politisch motiviert sei. Die Akten seien monatelang innerhalb der Behörden herumgereicht worden, von der Polizei, zum Landeskriminalamt, zur Kriminalpolizei. Schließlich habe ein Streifenpolizist sie die sexualisierten Gewaltvorstellungen auf der Wache laut vorlesen lassen, um sie abzutippen.

Wie viele Menschen in Deutschland von Deepfakes betroffen sind, ist unklar. Da Deepfake-Pornografie kein eigener Straftatbestand ist, sind die Kriminalstatistiken unbrauchbar

„Diese Demütigung wollte ich nicht mitmachen und bin aufgestanden“, erzählt Scholz. Alle von ihr gestellten Strafanträge seien daraufhin kommentarlos eingestellt worden, so zumindest stellt die Betroffene den Ablauf der Ermittlungen da.

Was Scholz erlebt hat, ist kein Einzelfall: „Betroffene, die Deepfake-Pornografie unter großer emotionaler Belastung zur Anzeige bringen, erfahren häufig, dass die Verfahren eingestellt werden“, sagt Josephine Ballon.

Im deutschen Strafrecht ist die Herstellung und Verbreitung nicht-einvernehmlicher Deepfake-Pornografie derzeit nicht explizit strafbar. Straftatbestände, auf die sich Opfer berufen können – etwa Beleidigung (§ 185 StGB), Verletzung des höchstpersönlichen Lebensbereichs (§ 201a StGB) oder Recht am eigenen Bild (§ 22 KUG) –, greifen nur in Einzelfällen und gelten als Bagatelldelikte. „Deshalb werden solche Fälle so gut wie nie verfolgt“, erklärt Ballon.

Hohe Dunkelziffer

Wie viele Menschen in Deutschland von Deepfakes betroffen sind, ist unklar. Da Deepfake-Pornografie kein eigener Straftatbestand ist, sind die Kriminalstatistiken unbrauchbar. Laut Dunkelfeldstudie des Bundesinnenministeriums bringen nur 2,4 Prozent der betroffenen Frauen digitale Gewalt zur Anzeige. Ballon vermutet ein „unheimlich großes“ Dunkelfeld. Sie kritisiert: „Es kann nicht sein, dass wir dafür keinen expliziten Tatbestand haben. Das ist nicht zeitgemäß und bildet nicht das Recht auf sexuelle Selbstbestimmung ab.“

Pia Scholz ist aus Brandenburg weggezogen, weil sie keine Ruhe mehr fand. Doch auch danach sei der Terror weitergegangen. Sie zog erneut um. Heute hält sie ihren Wohnort unter Verschluss. „Ich fühle mich als wäre ich auf der Flucht“, sagt Scholz. Besonders frustrierend sei, dass die Täter über die erweiterte Melderegisterstelle immer wieder ihre Adresse herausgefunden hätten – trotz Auskunftssperre.

„Das Traumatisierende an Nacktbildern von Frauen ist nicht die Nacktheit selbst, sondern das, was die Gesellschaft daraus macht“, sagt Scholz: Druck, Scham und Verurteilung. Die Demütigung dringe auf perfide Art in das Privatleben und verursache dort Gewalt, wo Frauen eigentlich Schutz suchen.

Doch Scholz weigert sich, den Tätern das Feld zu überlassen. „Gesellschaftliche Teilhabe findet heutzutage online statt. Wenn ich mir die Teilhabe nicht erkämpfe, werden immer mehr weibliche Perspektiven weg terrorisiert und zurückbleibt eine weiße patriarchale Gesellschaft von cis-Männern.“

Die größte Herausforderung sieht Scholz darin, dass es bislang kaum gesellschaftliches Bewusstsein für das Thema gebe. Rechtsanwältin Ballon stimmt zu. Um das Ausmaß des Problems sichtbar zu machen, brauche es belastbare Daten, etwa durch Betroffenheits- oder Dunkelstudien zu Deepfakes.

Darüber hinaus fordert Ballon einen expliziten Straftatbestand, der nicht nur die Verbreitung, sondern bereits die Herstellung von Deepfakes unter Strafe stellt. Schließlich sollten Apps verboten werden, die die Erstellung solcher Inhalte ermöglichen. „Es gibt kein Menschenrecht darauf, per Knopfdruck Pornografie zu erstellen“, sagt Ballon.

Betroffene leiden ein Leben lang unter den Folgen

Eine Bundesratsinitiative aus Bayern will den Paragrafen 201b ins Strafrecht aufnehmen. Demnach sollen die Herstellung und die Verbreitung nicht-einvernehmlicher Deepfakes mit bis zu fünf Jahren Freiheitsstrafe geahndet werden können. Ballon begrüßt die Initiative, bemängelt jedoch: „Sie setzt auch nur beim Verbreiten an und bleibt ein Privatklagedelikt, sodass Verfahren leicht eingestellt werden können.“

Vorreiter im Umgang mit Deepfakes sind laut Ballon Großbritannien und Australien: Großbritannien kriminalisiert sie, Australien stellt Betroffenen eine Behörde zur Verfügung, die Plattformen zur Löschung der Inhalte zwingen kann. Auch Spanien plant ein Gesetz, um Frauen vor Deepfakles zu schützen. In Deutschland bleibt so etwas bisher nur Wunschdenken – für viele Betroffene ist es jedoch schon zu spät.

Pia Scholz kämpft nach den Geschehnissen der letzten drei Jahre mit einer posttraumatischen Belastungsstörung. „Wenn man irgendwann durch den ganzen Schmerz und das Trauma durch ist, erreicht man ein Level der Akzeptanz“, sagt sie. „Irgendwann lacht man nur noch, man kann ja nicht den ganzen Tag weinen. Es ist komplett abgefuckt.“

Back to top button