Technologie

Es endet nicht mit Taylor Swift: So schützen Sie sich vor KI-Deepfakes und sexueller Belästigung

Алекс Рейн 24 Февраля, 2026
247continiousmusic

Letzte Woche sexuell eindeutige Deepfake-Bilder von Taylor Swift angeblich gemacht Der Einsatz künstlicher Intelligenz wurde über soziale Medien verbreitet. Es war nur das jüngste – und bekannteste – Beispiel für die wachsenden Gefahren von Deepfakes und digitaler Belästigung.

Swift ist nicht die erste Frau, der so etwas passiert ist, und sie wird auch nicht die letzte sein. Man kann mit Sicherheit sagen, dass fast jedes zweite Opfer eines pornografischen Deepfakes über weniger Ressourcen verfügt als ein milliardenschwerer Popstar mit Millionen von Fans auf der ganzen Welt, die sehr online sind und sich damit auskennen. Aber die Tatsache, dass dies passieren kann sogar Taylor Swift hat neue Aufmerksamkeit auf das Thema und ein breiteres Publikum gelenkt. Befürworter sagen, es habe sogar eine Bundesgesetzgebung zur Bekämpfung des Missbrauchs in Gang gesetzt.

Am Dienstag stellten US-Senatoren die Überparteilichkeit vor Stören Sie das Gesetz über explizit gefälschte Bilder und nicht einvernehmliche Bearbeitungen von 2024 (DEFIANCE Act) zur Bekämpfung und Abschreckung nicht einvernehmlicher Deep-Fake-Pornografie. Der Gesetzentwurf würde es Opfern „digitaler Fälschungen“ – „die durch den Einsatz von Software, maschinellem Lernen, künstlicher Intelligenz oder anderen computergenerierten oder technologischen Mitteln entstanden sind, um fälschlicherweise den Anschein zu erwecken, authentisch zu sein“ – ermöglichen, die Täter zivilrechtlich zu verklagen, was ihnen erstmals die Möglichkeit gibt, Gerechtigkeit zu erlangen.



Opfer von nicht einvernehmlicher Deepfake-Pornografie hatten laut Omny Miranda Martone, die als Gründerin und CEO des Gesetzes mit Gesetzgebern an dem Gesetzentwurf gearbeitet hat, keinen großen Erfolg bei der Klage gegen Personen, die Deepfake-Pornografie erstellen, verbreiten oder anfordern Vereinigung zur Prävention sexueller Gewalt (SVPA) . Die Technologie ist noch recht neu und wie bei anderen gesellschaftlichen Themen im Technologiebereich besteht bei den Gesetzen Nachholbedarf. Mittlerweile ist die Technologie so weit fortgeschritten, dass es für jedermann noch einfacher ist, KI-generierte Deepfakes zu erstellen.

„Das Ausmaß der sexuellen Gewalt gegen alltägliche Menschen ist sprunghaft angestiegen.“

„Bis vor etwa zwei Jahren.“ . . Jemand brauchte einen leistungsstarken Computer, er musste viel über Technologie wissen und in der Lage sein, ein verwirrendes System zu bedienen und das System möglicherweise sogar selbst zu erstellen. Und sie brauchten viele Fotos des Opfers, damit es realistisch aussah“, erklärt Martone. „Aber die KI-Technologie hat sich erheblich weiterentwickelt und ist an einem Punkt angelangt, an dem jeder mit nur ein oder zwei Fotos wirklich realistisch aussehende, nicht einvernehmliche Deepfake-Pornografie erstellen kann.“ Sie müssen nicht viel über Technologie wissen, sie können einfach auf ihrem Telefon oder Computer eine App oder eine Website aufrufen und es in Sekundenschnelle schaffen.“

Das ist heute umwerfend, wenn man bedenkt, dass bis 2017 einer von acht Social-Media-Nutzer gaben an, Opfer nicht einvernehmlicher Pornografie geworden zu sein, und einer von 20 Erwachsenen in sozialen Medien sei der Täter gewesen Cyber-Bürgerrechtsinitiative .

Angesichts dieser technologischen Fortschritte – und der Tatsache, dass „jeder, der über einen Internetzugang verfügt“, ihn leicht herstellen kann – „ist das Ausmaß der sexuellen Gewalt gegen alltägliche Menschen sprunghaft angestiegen“, sagt Martone. Prominente waren aufgrund der Verfügbarkeit ihrer Bilder das häufigste Ziel. „Aber jetzt brauchen [Täter] nur ein paar Fotos, die sie über LinkedIn, soziale Medien oder die Website ihres Unternehmens abrufen können“, erklärt Martone.

Laut Margaret Mitchell, der ehemaligen Co-Leiterin des Ethical Artificial Intelligence-Teams von Google, ist dies für Frauen unverhältnismäßig schädlich. „Es ist extrem verletzend, es hat eine äußerst traumatische psychologische Wirkung auf Sie, wenn Sie ein Opfer davon sind.“ Es hat auch eine objektivierende Wirkung und beeinflusst daher andere Menschen, Sie durch eine sexuelle und nicht durch eine professionelle Linse zu sehen. Dann bedeutet das, dass es sich auf Chancen auswirken kann“, erzählt sie 247CM.

„Frauen haben bereits Schwierigkeiten, als Führungspersönlichkeiten wahrgenommen und am Arbeitsplatz ernst genommen zu werden.“ Wenn solche Inhalte im Umlauf sind, kann sich das darauf auswirken, wie Frauen befördert werden und mehr Führungspositionen einnehmen können“, fährt Mitchell fort, der jetzt Chef-Ethikwissenschaftler bei Hugging Face ist, einer offenen Plattform für KI-Entwickler. „Es dringt in so viele Dinge ein, und zwar auf eine Art und Weise, die manchmal schwer zu verfolgen ist, aber es beeinflusst grundlegend, wie man sich selbst sieht, wie man über sich selbst denkt und wie andere Menschen einen behandeln.“

Im Fall von Swift stammten die Bilder von 4chan und eine Gruppe auf Telegram, die beleidigende Bilder von Frauen verbreitete, berichteten 404 Medien . Designer, ein kostenloser Microsoft-KI-Generator, wird laut der Verkaufsstelle häufig zur Erstellung der nicht einvernehmlichen Inhalte verwendet. Als Reaktion auf die Berichterstattung sagte Microsoft eine Lücke geschlossen Dies ermöglichte es Designer, KI-generierte Promi-Pornos zu erstellen.

Doch in der Zwischenzeit überschwemmten die Bilder schnell X, früher bekannt als Twitter. In einem ungewöhnlichen Beispiel für die Moderation von Inhalten in der Ära von Elon Musk hat X eine vorübergehende Sperre für eine Suche nach „Taylor Swift“ eingeführt, was die Verbreitung verlangsamte, aber nicht alle Bilder entfernen konnte, so CBS News gemeldet . Die Antwort von X folgte darauf, dass Legionen von Swifties die Beiträge meldeten und die Website aufforderten, sie zu entfernen. Dies geschah auch, nachdem die Beiträge bereits weit verbreitet waren – einer hatte in den 17 Stunden bereits 45 Millionen Aufrufe, 24.000 Retweets und Hunderttausende Likes und Lesezeichen verzeichnet, bevor das Konto dieses verifizierten Benutzers gesperrt wurde Der Rand . Am Montag, dem 29. Januar, war die Sperre abgelaufen.

Obwohl die SVPA schon seit einiger Zeit mit dem Kongress zusammenarbeitet – Martone sagt, sie hätten letztes Jahr einen offenen Brief an den Kongress geschickt, in dem sie sie dazu drängten, sich mit dem Thema zu befassen –, scheint es Martone so zu sein, dass „sie keine Maßnahmen ergriffen haben, bis die Taylor-Swift-Neuigkeit wirklich große Beachtung fand.“

„Auch wenn Sie das Gefühl haben, dass sich niemand um Ihre Bilder kümmert, kümmert sich die KI.“

Dennoch sind die meisten Opfer nicht einvernehmlicher Pornografie nicht besonders bekannt. Die meisten sind Frauen und viele haben eine marginalisierte Identität, sei es aufgrund ihrer Rasse, ethnischen Zugehörigkeit und/oder sexuellen Orientierung. SVPA hat zum Beispiel mit einer Studentin zusammengearbeitet, die im Fitnessstudio trainierte, als sie von einem Mann angemacht wurde, den sie ablehnte. Ein paar Wochen später nahm ein anderes Fitnessstudio-Mitglied die Frau beiseite, um ihr mitzuteilen, dass der Mann, den sie abgelehnt hatte, Deepfake-Pornografie von ihr gemacht hatte – und es anderen Mitgliedern im Fitnessstudio gezeigt und auf Instagram gepostet hatte, wo sie es entfernen konnte. Martone sagt, dass aus ihnen kürzlich Deepfake-Pornos gemacht wurden, angesichts ihrer Arbeit zu diesem Thema.

Ohne Gesetzgebung ist es schwierig, irgendeinen Rechtsbehelf einzulegen. Da der problematische Inhalt als Fälschung anerkannt wird, handele es sich nicht um eine Verleumdung, fügt Martone hinzu.

Auf jeden Fall sollten wir als Gesellschaft alle daran arbeiten, zu verhindern, dass nicht einvernehmliche Inhalte erstellt und geteilt werden, sagen Experten. Die Vorstellung, dass das Problem wächst und es unmöglich ist, den Geist wieder in die Flasche zu stecken, sollte kein Gefühl der Unausweichlichkeit oder Taubheit hervorrufen.

Für diejenigen, die glauben, dass sie nie in eine solche Situation geraten würden, betont Mitchell auch, dass die Technologie es so alltäglich gemacht hat, dass jeder betroffen sein könnte.

Mitchell erklärt es so: „Die Leute sollten sich darüber im Klaren sein, dass alle Inhalte, die sie online stellen, möglicherweise von Privatpersonen oder Unternehmen aufgesammelt werden, um sie als Teil der KI-Schulung zu verwenden.“ Daher ist es vielleicht nicht so, dass ein Familienfoto auf Facebook etwas ist, das die breite Öffentlichkeit interessiert. Aber das ist nicht die Frage. Die Frage ist, ob diese Inhalte von einem riesigen Technologiekonzern auf eine Weise aufgegriffen werden, die dazu beitragen kann, die Objektivierung von Frauen voranzutreiben?

Letztendlich ist es die Technologie, die Sie im Auge behalten und vor der Sie vorsichtig sein müssen. „Auch wenn Sie das Gefühl haben, dass sich niemand um Ihre Bilder kümmert, kümmert sich die KI darum“, sagt Mitchell. „KI-Systeme können sie immer noch aufspüren, sie können immer noch dazu verwendet werden, Sie falsch darzustellen, und sie können immer noch in jeder Art von Rachesituation eingesetzt werden, und jede Art von Situation, in der Sie jemanden haben, der ein böswilliger Akteur wie dieser ist, kann Ihnen persönlich Schaden zufügen.“

Wie man nicht einvernehmliche Deepfakes verhindert und bekämpft

    Informieren Sie sich, damit Sie verstehen, was passiert. Seien Sie sich darüber im Klaren, dass die Weitergabe persönlicher Informationen im Internet möglicherweise dazu führt, dass diese Informationen an die Öffentlichkeit weitergegeben werden. „Es muss eine Art Neuinterpretation oder ein neues Verständnis davon geben, was es bedeutet, Inhalte online zu teilen: wann es angebracht ist, Dinge zu teilen, und wann nicht.“ „Es geht auch darum, dass Eltern mit ihren Kindern darüber sprechen, warum es nicht in Ordnung ist, von ihren Klassenkameraden Deepfake-Pornos zu machen“, sagt Mitchell. Unterstützen Sie den Journalismus. „Es ist wichtig zu wissen, welche Rolle die Presse spielt, denn manchmal ist sie das einzige Gegengewicht für wirklich problematisches Verhalten von Unternehmen oder problematisches Verhalten, das Unternehmen ermöglichen“, erklärt Mitchell. „Denn wenn es schlechte Presse gibt, die sich auf ihre Aktien auswirkt, wirkt sich das darauf aus, was die Aktionäre denken, das wirkt sich darauf aus, was die Risikokapitalgeber denken und wie viel Geld sie bekommen können.“ So bewirken wir Veränderung. Wir lassen Journalisten darüber schreiben. Unternehmen achten darauf – es hallt auf dem gesamten Markt wider.“ Seien Sie ein guter digitaler Zuschauer. Wenn jemand nicht einvernehmliche Pornografie mit Ihnen macht oder mit Ihnen teilt – ob gefälscht oder nicht – schauen Sie sie sich nicht an, beschäftigen Sie sich nicht damit, teilen Sie sie nicht und suchen Sie nicht einmal online danach, denn dadurch werden die Algorithmen trainiert, mehr Menschen mehr davon bereitzustellen, sagt Martone. Führen Sie online eine digitale Bestandsaufnahme Ihres Bildes und Ihrer Informationen durch. Stellen Sie sicher, dass Sie proaktiv die Websites überprüfen, auf denen Sie Bilder Ihres Gesichts oder Körpers veröffentlichen. Nutzen Sie die Sicherheitsfunktionen, die auf jeder Website oder App verfügbar sind, einschließlich grundlegender Dinge wie der Sicherstellung, dass nur Personen, die Sie kennen, Ihre Fotos auf Facebook sehen können. Wenn etwas passiert, sagt Martone, melden Sie es sofort den Standorten. SVPA hat ein Führer zum Entfernen unerwünschter Inhalte von Websites sowie eine Anleitung dazu Prävention digitaler sexueller Gewalt für Content-Ersteller, aber diese Prinzipien können von jedem genutzt werden. Möglicherweise finden Sie es auch hilfreich, die umfangreichen Ressourcen auf der Website der Cyber ​​Civil Rights Initiative zu lesen, einschließlich ihrer Häufig gestellte Fragen , Landesgesetze , Und Forschungsergebnisse . Suchen Sie nach Tools und Apps, die Bilder verändern oder schützen. Es ist immer noch ein neues Gebiet, aber Entwickler arbeiten an Technologien zum Schutz und „Vergiftung“ von online veröffentlichten Bildern, einschließlich Tools wie Nachtschatten . Mitchell sagt, dass mit zunehmendem Bedarf mehr und bessere Tools zur Bekämpfung dieser Probleme entwickelt werden.