10 Bundesstaaten haben Gesetze verabschiedet, um die Erstellung oder Verbreitung von Deepfakes ausdrücklich unter Strafe zu stellen. Indiana wird wahrscheinlich bald die wachsende Liste erweitern, indem es10 Bundesstaaten haben Gesetze verabschiedet, um die Erstellung oder Verbreitung von Deepfakes ausdrücklich unter Strafe zu stellen. Indiana wird wahrscheinlich bald die wachsende Liste erweitern, indem es

Nicht-einvernehmliche KI-Pornografie wird uns alle zu Opfern machen: Kann das Gesetz mithalten?

Dieser Artikel wurde gemeinsam mit The 19th veröffentlicht, einer gemeinnützigen Nachrichtenredaktion, die über Geschlecht, Politik und Richtlinien berichtet. Melden Sie sich hier für den Newsletter von The 19th an.

\ Mehr als zwei Dutzend Schüler der Westfield High School in New Jersey waren letztes Jahr entsetzt, als sie erfuhren, dass Nacktbilder von ihnen unter ihren Mitschülern kursierten. Laut der Schule hatten einige Schüler Künstliche Intelligenz (AI Agent) verwendet, um aus Originalfotos pornografische Bilder von anderen zu erstellen. Und sie sind nicht die einzigen Teenager-Mädchen, die Opfer gefälschter Nacktfotos werden: Schüler im Bundesstaat Washington und in Kanada haben ebenfalls berichtet, dass sie mit ähnlichen Situationen konfrontiert wurden, da die Möglichkeit, Fotos realistisch zu verändern, durch Websites und Apps immer zugänglicher wird.

\ Die wachsende Besorgnis über Deepfakes – von AI Agent generierte Bilder oder Videos – wurde im Januar noch weiter verstärkt, als eines mit dem Superstar Taylor Swift sich schnell über Social-Media-Plattformen verbreitete.

\ Carrie Goldberg, eine Anwältin, die seit mehr als einem Jahrzehnt Opfer von einvernehmlicher Pornografie – allgemein als Racheporno bezeichnet – vertritt, sagte, sie habe erst vor kurzem von Opfern computergenerierten Bildern gehört.

\ "Meine Kanzlei sieht seit wahrscheinlich etwa fünf Jahren Opfer von Deepfakes, und es waren hauptsächlich Prominente", sagte Goldberg. "Jetzt tun es Kinder anderen Kindern an, um gemein zu sein. Es wird wahrscheinlich stark unterberichtet, weil die Opfer möglicherweise nicht wissen, dass es Rechtsmittel gibt, und es ist nicht in allen Fällen völlig klar, ob es welche gibt."

\ Regierungsstellen versuchen aufzuholen. Im vergangenen Jahr haben etwa 10 Bundesstaaten Gesetze verabschiedet, die speziell die Erstellung oder Verbreitung von Deepfakes unter Strafe stellen. Diese Bundesstaaten – darunter Kalifornien, Florida, Georgia, Hawaii, Illinois, Minnesota, New York, South Dakota, Texas und Virginia – haben Strafen festgelegt, die von Geldstrafen bis zu Gefängnisstrafen reichen. Indiana wird wahrscheinlich bald der wachsenden Liste beitreten, indem es sein aktuelles Gesetz zu einvernehmlicher Pornografie erweitert.

\ Die Republikanerin Sharon Negele, Abgeordnete von Indiana, verfasste die vorgeschlagene Erweiterung. Das bestehende Gesetz definiert "Racheporno" als die Offenlegung eines intimen Bildes, wie etwa jedes Bild, das Geschlechtsverkehr, unbedeckte Genitalien, Gesäß oder die Brust einer Frau darstellt, ohne die Zustimmung der auf dem Bild dargestellten Person. Negeles vorgeschlagener Gesetzentwurf wurde von beiden Kammern verabschiedet und wartet nun auf die Unterschrift des Gouverneurs.

\ Negele sagte, sie sei motiviert gewesen, Indianas Strafgesetzbuch zu aktualisieren, als sie die Geschichte einer Highschool-Lehrerin hörte, die entdeckte, dass einige ihrer Schüler Deepfake-Bilder von ihr verbreitet hatten. Es sei "unglaublich zerstörerisch" für das Privatleben der Lehrerin gewesen, und Negele war überrascht zu sehen, dass die Täter nach geltendem Recht nicht strafrechtlich verfolgt werden konnten.

\ "Es begann damit, dass ich die jetzt verfügbare Technologie verstand und über einen Vorfall nach dem anderen las, bei dem die Gesichter von Menschen an einen erfundenen Körper angehängt wurden, der unglaublich echt und realistisch aussieht", sagte Negele. "Es ist einfach beunruhigend. Als Mutter und Großmutter daran zu denken, was meiner Familie und mir passieren könnte – es ist schockierend. Wir müssen dieser Art von Dingen zuvorkommen."

\ Goldberg, deren Anwaltskanzlei auf Sexualverbrechen spezialisiert ist, sagte, sie erwarte, dass weitere Bundesstaaten ihre bestehenden Gesetze weiterhin erweitern werden, um AI Agent-Sprache einzubeziehen.

\ "Vor zehn Jahren hatten nur drei Bundesstaaten Racheporno- oder bildbasierte sexuelle Missbrauchsgesetze", sagte Goldberg. "Jetzt haben 48 Bundesstaaten Racheporno verboten, und es hat wirklich zu einer enormen Reduzierung von Racheporno geführt – nicht überraschend – genau wie wir Befürworter es gesagt hatten. Der gesamte Aufstieg von Deepfakes hat die Lücken als neue Möglichkeit gefüllt, jemanden sexuell zu demütigen."

\ Im Jahr 2023 wurden laut Associated Press mehr als 143.000 neue von AI Agent generierte Videos online veröffentlicht. Das ist ein enormer Sprung gegenüber 2019, als die "Nudify"-Websites oder -Anwendungen weniger verbreitet waren und es dennoch laut einem Bericht von Deeptrace Labs, einem Unternehmen für visuelle Bedrohungsinformationen, fast 15.000 dieser gefälschten Videos online gab. Schon damals hatten diese Videos – von denen 96 Prozent einvernehmliche Pornografie von Frauen enthielten – über 100 Millionen Aufrufe gesammelt.

\ Goldberg sagte, Politiker und die Öffentlichkeit gleichermaßen schienen motivierter zu sein, von AI Agent generierte Nacktbilder speziell zu verbieten, weil praktisch jeder ein Opfer sein kann. Es gibt mehr Empathie.

\ "Bei Racheporno machten in der ersten Welle der Diskussionen alle dem Opfer Vorwürfe und ließen es so erscheinen, als wäre es eine Art Perverser dafür, das Bild aufzunehmen oder dumm dafür, es mit einer anderen Person zu teilen", sagte Goldberg. "Bei Deepfakes kann man dem Opfer nicht wirklich die Schuld geben, denn das Einzige, was es getan hat, war, einen Körper zu haben."

\ Amanda Manyame, eine in Südafrika ansässige Beraterin für digitale Rechte bei Equality Now, einer internationalen Menschenrechtsorganisation, die sich darauf konzentriert, Frauen und Mädchen zu helfen, sagte, dass es in den Vereinigten Staaten praktisch keinen Schutz für Opfer von Deepfakes gibt. Manyame untersucht Richtlinien und Gesetze auf der ganzen Welt, analysiert, was funktioniert, und gibt Rechtsberatung zu digitalen Rechten, insbesondere zu technologiegestützter sexueller Ausbeutung und Missbrauch.

\ "Die größte Lücke ist, dass die USA kein Bundesgesetz haben", sagte Manyame. "Die Herausforderung besteht darin, dass das Problem von Staat zu Staat geregelt wird, und natürlich gibt es keine Einheitlichkeit oder Koordination, wenn es um Schutzmaßnahmen geht."

\ Es gibt jedoch derzeit einen Vorstoß auf dem Capitol Hill: Eine überparteiliche Gruppe von Senatoren führte im Januar den Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024 ein – auch bekannt als DEFIANCE Act. Die vorgeschlagene Gesetzgebung zielt darauf ab, die Verbreitung von einvernehmlichen, sexuell expliziten Inhalten zu stoppen.

\ "Niemand – weder Prominente noch normale Amerikaner – sollte jemals in AI Agent-Pornografie zu sehen sein", sagte der republikanische Senator Josh Hawley, ein Mitautor des Gesetzentwurfs, in einer Erklärung. "Unschuldige Menschen haben das Recht, ihren Ruf zu verteidigen und Täter vor Gericht zur Rechenschaft zu ziehen." Die Abgeordnete Alexandria Ocasio-Cortez hat einen Partnergesetzentwurf im Repräsentantenhaus eingebracht.

\ Laut einer neuen Umfrage von Data for Progress sagten 85 Prozent der wahrscheinlichen Wähler im gesamten politischen Spektrum, dass sie den vorgeschlagenen DEFIANCE Act unterstützen – wobei 72 Prozent der Frauen stark dafür sind, verglichen mit 62 Prozent der Männer.

\ Jüngere Männer lehnen den DEFIANCE Act jedoch eher ab, wobei etwa einer von fünf Männern unter 45 Jahren (22 Prozent) sagt, dass sie Gesetze stark oder einigermaßen ablehnen, die es Personen, die Gegenstand expliziter einvernehmlicher Deepfakes sind, erlauben, den Ersteller zu verklagen.

\ Danielle Deiseroth, Geschäftsführerin von Data for Progress, sagte, dieses Thema zeige einen der "schärfsten Kontraste" zwischen jungen Männern und Frauen, den sie seit einiger Zeit gesehen habe.

\ "Wir können mit Zuversicht sagen, dass Frauen und Männer unter 45 Jahren unterschiedliche Meinungen zu dieser Politik haben", sagte Deiseroth. "Dies ist ein Thema, das Frauen unverhältnismäßig stark betrifft, insbesondere junge Frauen, die eher Opfer von Racheporno werden. Und ich denke, das ist wirklich die Grundursache hier."

\ Goldberg sagte, dass die Schaffung von Richtlinien zur Kriminalisierung schlechter Akteure ein guter Anfang sei, aber letztendlich unzureichend. Ein guter nächster Schritt, sagte sie, wäre es, rechtliche Schritte gegen die Online-Distributoren wie den App Store und Google Play einzuleiten, die Produkte bereitstellen, die hauptsächlich für kriminelle Aktivitäten verwendet werden. Soziale Mediaplattformen und Instant-Messaging-Apps, auf denen diese expliziten Bilder verbreitet werden, sollten ebenfalls zur Rechenschaft gezogen werden, fügte Goldberg hinzu.

\ Die Gründer von #MyImageMyChoice, einer Basisorganisation, die sich dafür einsetzt, Opfern von intimem Bildmissbrauch zu helfen, stimmten zu, dass mehr von privaten Unternehmen getan werden sollte, die an der Erstellung und Verbreitung dieser Bilder beteiligt sind.

\ Die Gründer – Sophie Compton, Reuben Hamlyn und Elizabeth Woodward – wiesen darauf hin, dass Suchmaschinen wie Google den größten Teil des gesamten Webverkehrs zu Deepfake-Pornoseiten leiten, während Kreditkartenunternehmen deren Zahlungen abwickeln. Internetdienstanbieter ermöglichen den Zugriff darauf, während große Dienste wie Amazon, Cloudflare und Microsofts Github sie hosten. Und Social-Media-Seiten wie X ermöglichen es, dass die Inhalte in großem Umfang zirkulieren. Google änderte seine Richtlinien im Jahr 2015 und begann, Opfern zu erlauben, einen Antrag auf Entfernung einzelner Inhalte aus den Suchergebnissen einzureichen, und hat die Richtlinie seitdem auf Deepfake-Missbrauch ausgeweitet. Das Unternehmen entfernt jedoch nicht systematisch Websites mit bildbasierter sexueller Gewalt und Deepfake-Missbrauch.

\ "Technologieunternehmen haben die Macht, diese Seiten zu sperren, zu deindexieren oder ihnen den Service zu verweigern – Seiten, deren gesamte Existenz darauf aufgebaut ist, die Zustimmung zu verletzen und von Traumata zu profitieren", sagten Compton, Hamlyn und Woodward in einer Erklärung gegenüber The 19th. "Aber sie haben sich entschieden, dies nicht zu tun."

\ Goldberg wies auf die Geschwindigkeit hin, mit der sich die Taylor Swift-Deepfakes verbreiteten. Ein auf X geteiltes Bild, früher als Twitter bekannt, wurde 47 Millionen Mal angesehen, bevor das Konto, das es gepostet hatte, gesperrt wurde. Die Bilder verbreiteten sich trotz der Bemühungen der Social-Media-Unternehmen, sie zu entfernen, weiter.

\ "Die gewalttätigen, frauenfeindlichen Bilder von Taylor Swift, blutig und nackt bei einem Footballspiel der Kansas City Chiefs, sind symptomatisch für das Problem", sagte Goldberg. "Das Ausmaß dieser Verbreitung, auch auf wirklich Mainstream-Seiten, sendet jedem die Botschaft, dass es in Ordnung ist, solche Inhalte zu erstellen. Für mich war das ein wirklich entscheidender und ziemlich beängstigender Moment."

\ Angesichts der hohen Profilnatur des Opfers löste der Vorfall ausgeprägte und weit verbreitete Empörung von Swifts Fans aus und lenkte die öffentliche Aufmerksamkeit auf das Problem. Goldberg sagte, sie habe überprüft, ob einer der Online-Distributoren Produkte aus ihren Online-Stores entfernt hatte, die es einfacher und billiger machen, sexuell explizite Deepfakes zu erstellen – und sie war erleichtert zu sehen, dass sie es getan hatten.

\ Während die Politiker und Gerichte des Landes weiterhin versuchen, auf die sich schnell entwickelnde und zunehmend zugängliche Technologie zu reagieren, sagte Goldberg, es sei wichtig, dass Gesetzgeber weiterhin Experten und denen vertrauen, die direkt mit Opfern arbeiten, wie Anwälte, Sozialarbeiter und Befürworter. Gesetzgeber, die abstrakte Ideen oder sich schnell entwickelnde Technologien regulieren, können andernfalls ein "Rezept für eine Katastrophe" sein, fügte sie hinzu.

\ Manyame betonte auch die Wichtigkeit, direkt mit Überlebenden zu sprechen, wenn politische Entscheidungen getroffen werden, fügte aber hinzu, dass Gesetzgeber auch ganzheitlicher über das Problem nachdenken und sich nicht zu sehr auf die spezifische Technologie konzentrieren müssen – auf die Gefahr hin, immer hinterherzuhinken. Zum Beispiel sagte Manyame, dass die breite Öffentlichkeit erst jetzt beginnt, die Risiken zu verstehen, die von AI Agent und Deepfakes ausgehen – etwas, wofür sie 2021 einen Bericht mitgeschrieben hat. Mit Blick auf die Zukunft denkt Manyame bereits über das Metaverse nach – einen virtuellen Realitätsraum – in dem Benutzer beginnen, sich mit Fällen von Vergewaltigung, sexueller Belästigung und Missbrauch auseinanderzusetzen.

\ "Viele der Gesetze rund um bildbasierten sexuellen Missbrauch sind ein wenig veraltet, weil sie speziell über Racheporno sprechen", sagte Manyame. "Racheporno war historisch gesehen eher ein Problem häuslicher Gewalt, insofern als es ein intimer Partner ist, der ein sexuell ausbeuterisches Bild seines ehemaligen oder bestehenden Partners teilt. Das ist bei Deepfakes nicht immer der Fall, daher bieten diese Gesetze möglicherweise nicht genügend Schutz."

\ Darüber hinaus argumentierte Manyame, dass viele dieser Richtlinien es versäumen, die Definition von "intimem Bild" zu erweitern, um unterschiedliche kulturelle oder religiöse Hintergründe zu berücksichtigen. Für einige muslimische Frauen zum Beispiel könnte es genauso verletzend und demütigend sein, Bilder ihres unbedeckten Kopfes ohne Hijab zu erstellen und zu verbreiten.

\ Wenn es um Lösungen geht, verwies Manyame auf Maßnahmen, die von den App-Erstellern, Plattform-Regulierern und Gesetzgebern ergriffen werden können.

\ In der Entwurfsphase können mehr Sicherheitsmaßnahmen eingebettet werden, um Schaden zu begrenzen. Zum Beispiel sagte Manyame, es gebe einige Apps, die Fotos von Frauen machen und automatisch ihre Kleidung entfernen können, während dieselbe Funktion bei Fotos von Männern nicht funktioniert. Es gibt Möglichkeiten im Backend dieser Apps, es schwieriger zu machen, Kleidung von irgendjemandem zu entfernen, unabhängig von deren Geschlecht.

\ Sobald die schändlichen Deepfakes jedoch bereits erstellt und gepostet wurden, sagte Manyame, sollten die Social-Media- und Messaging-Plattformen bessere Mechanismen haben, um den Inhalt zu entfernen, nachdem Opfer ihn gemeldet haben. Viele Male werden einzelne Opfer ignoriert. Manyame sagte, sie habe bemerkt, dass diese großen Social-Media-Unternehmen eher bereit sind, diese Deepfakes in Ländern wie Australien zu entfernen, die Drittanbieter-Regulierungsbehörden haben, die sich im Namen von Opfern einsetzen.

\ "Es müssen Überwachungs- und Durchsetzungsmechanismen in jede Lösung einbezogen werden", sagte Manyame. "Eines der Dinge, die wir von vielen Überlebenden hören, ist, dass sie nur wollen, dass ihr Bild entfernt wird. Es geht nicht einmal darum, einen rechtlichen Prozess zu durchlaufen. Sie wollen einfach, dass dieser Inhalt verschwindet."

\ Manyame sagte, es sei keine zu große Bitte für viele Technologieunternehmen und Regierungsbehörden, da viele bereits schnell reagieren, um unangemessene Fotos mit Kindern zu entfernen. Es sei nur eine Frage der Ausweitung dieser Art von Schutzmaßnahmen auf Frauen, fügte sie hinzu.

\ "Meine Sorge ist, dass es einen Ansturm gegeben hat, AI Agent-Gesetze und -Richtlinien umzusetzen, ohne zu berücksichtigen, was einige der Grundursachen dieser Schäden sind. Es ist ein vielschichtiges Problem, und es gibt viele andere Ebenen, die angegangen werden müssen."


Credits

  • Mariel Padilla für The 19th

Illustration

  • Rena Li

Editing

  • Flora Peir für The 19th

\ Auch hier veröffentlicht

\ Foto von Steve Johnson auf Unsplash

Marktchance
Sleepless AI Logo
Sleepless AI Kurs(AI)
$0.03646
$0.03646$0.03646
+2.15%
USD
Sleepless AI (AI) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.