Kolumne

Deep-Fake-Pornos: Digitale Demütigung

Künstliche Intelligenz wird frauenfeindlich eingesetzt. Massenweise kursieren gefälschte Porno-Szenen im Netz. Doch große Plattformen wie Google und X bleiben zu inaktiv.

Drucken

Schriftgröße

Bei jeder digitalen Neuerung besteht die Gefahr, dass Frauen über die neu eingeführte Technologie zusätzlich benachteiligt oder sogar gedemütigt werden. Das passiert derzeit auch bei künstlicher Intelligenz. Das deutlichste Beispiel sind Deep-fake-Pornos. Es handelt sich um Videos und Bilder, die beispielsweise berühmte Frauen wie Politikerinnen, Schauspielerinnen oder Influencerinnen in künstlich erfundenen Pornoszenen zeigen. Mittels eines Computerprogramms wird ihr Gesicht in solche pornografischen Szenen eingefügt – eine Erniedrigung für die betroffenen Frauen.

Ein Teil des Problems ist dabei, dass die großen Online-Plattformen wie Google oder X (vormals Twitter) nicht ansatzweise genug gegen diese gefälschten Pornos tun. Zum Beispiel habe ich auf X nur nach dem Wort „Deepfake“ gesucht – und prompt wurde mir ein Kanal eingeblendet, der pornografische Videos mit Schauspielerinnen wie Jennifer Aniston, Salma Hayek oder Gal Gadot verbreitet. Manche dieser Fälschungen schauen echter aus, manche sind sofort als Fake erkennbar, aber in jedem Fall handelt es sich um erniedrigende Darstellungen. Ich habe diesen Kanal an X gemeldet. Auch elf Tage nach der Meldung ist der Kanal, der gefälschte Pornoszenen mit Frauen ohne deren Zustimmung verbreitet, online.

Kürzlich publizierte das Wirtschaftsmedium „Bloomberg“ einen Bericht, der ein schlechtes Licht auf die Technikbranche wirft: Große Unternehmen wie Google oder Microsoft würden ein „Supercharging“ solcher KI-Deepfake-Pornos bewirken – das heißt, sie würden massiv zur Verbreitung derartiger erniedrigender Videos beitragen. Nehmen wir Google. Es ist sehr einfach, Deepfake-Pornos über die Suchmaschine zu finden. Man tippt einfach „deepfake porn“ und den Namen der jeweiligen berühmten Person ein. Im Beitrag von „Bloomberg“ werden Rufe laut, dass solche Suchergebnisse deutlich schlechter sichtbar gemacht oder Deepfake-Pornos gänzlich aus dem Suchindex gelöscht werden sollen. Letzteres erscheint mir sinnvoll. Denn bei Deepfake-Pornos kann man davon ausgehen, dass diese ohne Konsens der abgebildeten Person kreiert wurden – somit sind sie anders zu behandeln als pornografisches Material, welches mit Konsens der Beteiligten erstellt wurde.

Ich habe so einen Deep-Fake-Porno-Kanal an X (vormals: Twitter) gemeldet. Auch elf Tage nach der Meldung war der Kanal, der gefälschte Pornoszenen mit Frauen ohne deren Zustimmung verbreitet, noch online.

Auch sind solche Videos in vielen Fällen klagbar: In Österreich gibt es unter anderem ein „Recht am eigenen Bild“, das heißt, man darf nicht einfach Bildmaterial einer Person nehmen und damit eine entwürdigende, pornografische Collage erstellen. Das Thema betrifft längst nicht nur weltweit berühmte Promis: Zum Beispiel findet man auch über deutsche Spitzenpolitikerinnen oder deutschsprachige Influencerinnen solche gefälschten Pornos. Dass künstliche Intelligenz (KI) zum Erstellen derartiger Videos genutzt wird, ist auch eine gefährliche Entwicklung aus feministischer Sicht: Zum Beispiel kämpfen Feminist:innen seit Langem dafür, dass Frauen ebenso Teil des öffentlichen Lebens, beispielsweise Teil der Spitzenpolitik, sein können und auch öffentlich respektvoll behandelt werden. Aber gerade wenn eine Frau sehr berühmt wird, muss sie nun mit solchen neuen Formen der Herabwürdigung rechnen. Derzeit ist es sogar so, dass manche große Unternehmen indirekt an den Fake-Porno-Sites verdienen, weil sie ihnen ihre Dienste verkaufen: „Bloomberg“ ermittelte, dass zum Beispiel der wichtige Online-Dienst Cloudflare Hosting-Services für 13 der 20 größten Deepfake-Porno-Sites leistet. Amazon wiederum hostet drei populäre KI-Tools, die anscheinend für Deepfakes verwendet werden. Längst gibt es die Forderung, dass diese namhaften Webdienste nicht länger die Infrastruktur für Fake-Pornos zur Verfügung stellen sollen. Die großen Technikunternehmen spielen meines Erachtens ihre Verantwortung erneut herunter.

Google sagte zum Beispiel zu „Bloomberg“, dass es wie jede Suchmaschine Inhalte indexiert, also in die Trefferliste aufnimmt, welche im Web auffindbar sind. „Aber wir gestalten unsere Ranking-Systeme aktiv so, dass wir Menschen nicht mit unerwarteten schädlichen oder expliziten Inhalten schockieren, die sie nicht sehen möchten“, so ein Sprecher des Unternehmens. Auch, so wurde betont, können sich Betroffene an Google wenden und Links zu Deepfake-Pornos wieder aus dem Suchmaschinen-Index entfernen lassen. Nur: In der Praxis bedeutet das, dass einige Frauen (gerade Influencerinnen oder Schauspielerinnen) permanent überprüfen müssten, ob schon wieder ein Fake-Porno mit ihnen erstellt wurde – was wiederum Arbeit und emotionale Belastung für die Opfer mit sich bringt.

Man könnte nun meinen, das Problem sei die Technik an sich, also dass künstliche Intelligenz so missbraucht werden kann. Ich glaube aber, das zentrale Problem ist nicht die Technik, sondern eine Gesellschaft, die nach wie vor zu wenig über die Auswirkungen moderner Tools diskutiert und zu blind darauf vertraut, dass große IT-Unternehmen verantwortungsvoll mit ihrer Rolle umgehen werden. Denn dieses Vertrauen ist schon allzu oft enttäuscht worden.

Ingrid   Brodnig

Ingrid Brodnig

ist Kolumnistin des Nachrichtenmagazin profil. Ihr Schwerpunkt ist die Digitalisierung und wie sich diese auf uns alle auswirkt.