Si quelqu'un peut rallier une base, c'est bien Taylor Swift.
Lorsque des images sexuellement explicites de Swift, probablement générées par l'IA, ont circulé sur les réseaux sociaux cette semaine, cela a galvanisé ses fans. Swifties a trouvé des phrases et des hashtags liés aux images et les a inondés de vidéos et de photos de Swift en train de jouer. « Protect Taylor Swift » est devenu viral, tendance alors que les Swifties se sont prononcés non seulement contre les deepfakes Swift, mais contre toutes les images explicites et non consensuelles faites de femmes.
Swift, sans doute la femme la plus célèbre du monde à l'heure actuelle, est devenue la victime très médiatisée d'une forme de harcèlement bien trop fréquente. Elle n’a pas encore commenté publiquement les photos, mais son statut lui donne le pouvoir d’exercer dans une situation où tant de femmes n’ont que peu de recours. Le deepfake porno devient plus commun à mesure que l'intelligence artificielle générative s'améliore : 113 000 vidéos deepfake ont été téléchargées sur les sites Web pornographiques les plus populaires au cours des neuf premiers mois de 2023, soit une augmentation significative par rapport aux 73 000 vidéos téléchargées tout au long de 2022. En 2019, une recherche menée par une startup a révélé que 96 pour cent des deepfakes sur Internet étaient pornographiques.
Le contenu est facile à trouver sur les moteurs de recherche et les réseaux sociaux et a affecté autres célébrités féminines et adolescents. Pourtant, de nombreuses personnes ne comprennent pas toute l’ampleur du problème ni son impact. Swift et la folie médiatique qui l’entoure ont le potentiel de changer cela.
« Il semble que cela pourrait être l'un de ces événements déclencheurs » qui pourraient conduire à des changements juridiques et sociétaux autour des deepfakes non consensuels, déclare Sam Gregory, directeur exécutif de Witness, une organisation à but non lucratif axée sur l'utilisation d'images et de vidéos pour protéger les droits de l'homme. Mais Gregory dit que les gens ne comprennent toujours pas à quel point la pornographie deepfake est courante et à quel point elle peut être nocive et violante pour les victimes.
Au contraire, ce désastre deepfake rappelle la fuite iCloud de 2014 qui a conduit à la diffusion en ligne de photos nues de célébrités comme Jennifer Lawrence et Kate Upton, appels incitatifs pour une meilleure protection de l'identité numérique des personnes. Apple finalement fonctionnalités de sécurité renforcées.
Une poignée de États Il existe des lois sur les deepfakes non consensuels, et des mesures sont également prises pour les interdire au niveau fédéral. Le représentant Joseph Morelle (Démocrate de New York) a introduit un facture au Congrès, cela rendrait illégal la création et le partage de deepfake porn sans le consentement d'une personne. Une autre maison facture de la représentante Yvette Clarke (Démocrate de New York) cherche à donner un recours légal aux victimes de deepfake porn. Le représentant Tom Kean, Jr. (R-New Jersey) qui a présenté en novembre un projet de loi qui exigerait l'étiquetage du contenu de l'IA, a utilisé le moment viral Swift pour attirer l'attention sur ses efforts : « Que la victime soit Taylor Swift ou un jeune personne à travers notre pays – nous devons établir des garde-fous pour lutter contre cette tendance alarmante », a déclaré Kean dans un communiqué. déclaration.
Ce n'est pas la première fois que Swift ou Swifties tentent de responsabiliser les plateformes et les personnes. En 2017, Swift a remporté un procès qu'elle avait intenté contre un DJ de radio qui, selon elle, l'avait pelotée lors d'une rencontre. Elle était attribué 1 $le montant pour lequel elle a intenté une action en justice et ce que son avocat Douglas Baldridge a qualifié de somme symbolique « dont la valeur est incommensurable pour toutes les femmes dans cette situation ».