De fausses images explicites de Taylor Swift prouvent que les lois n’ont pas suivi le rythme de la technologie, selon les experts
[ad_1]
Des photos explicites générées par l’IA de l’un des artistes les plus célèbres au monde se sont rapidement répandues sur les réseaux sociaux cette semaine, soulignant une fois de plus ce que les experts décrivent comme un besoin urgent de sévir contre les technologies et les plateformes qui permettent le partage d’images nuisibles.
De fausses photos de Taylor Swift, représentant l’auteur-compositeur-interprète dans des positions sexuellement suggestives, ont été vues des dizaines de millions de fois sur X, anciennement connu sous le nom de Twitter, avant d’être supprimées.
Une photo, partagée par un seul utilisateur, a été vue plus de 45 millions de fois avant la suspension du compte. Mais entre-temps, la photo largement partagée avait été immortalisée ailleurs sur Internet.
La situation a montré à quel point l’IA est avancée – et facilement accessible – et a relancé les appels au Canada et aux États-Unis en faveur de meilleures lois.
“Si je peux citer Taylor Swift, X marque l’endroit où nous nous sommes effondrés“, a déclaré Kristen Thomasen, professeure adjointe à l’Université de la Colombie-Britannique.
“Là où nous devrions accorder plus d’attention dans la loi, c’est aussi désormais sur les concepteurs qui créent les outils qui rendent cela si facile, et (sur) les sites Web qui permettent de faire apparaître cette image… et ensuite d’être vue. par des millions de personnes”, a déclaré Thomasen.
Après que les photos pornographiques représentant Swift ont commencé à apparaître, les fans de l’artiste ont inondé la plateforme de messages « Protégez Taylor Swift », dans le but d’enterrer les images afin de les rendre plus difficiles à trouver via la recherche.
Dans un message, X a déclaré que ses équipes « surveillaient de près » le site pour voir si des photos continueraient à apparaître.
“Nos équipes suppriment activement toutes les images identifiées et prennent les mesures appropriées contre les comptes responsables de leur publication”, indique le message.
Ni Swift ni son publiciste n’ont commenté les images.
Alors que l’industrie de l’IA continue de croître, les entreprises cherchant à partager les bénéfices ont conçu des outils permettant aux utilisateurs peu expérimentés de créer des images et des vidéos à l’aide d’instructions simples. Ces outils ont été populaires et bénéfiques dans certains secteurs, mais ils facilitent également la création de ce que l’on appelle des deepfakes, c’est-à-dire des images qui montrent une personne faisant quelque chose qu’elle n’a pas réellement fait.
Le groupe de détection de deepfakes Reality Defender a déclaré avoir suivi un déluge de matériel pornographique non consensuel représentant Swift, en particulier sur X. Certaines images ont également été diffusées sur Facebook, propriété de Meta, et sur d’autres plateformes de médias sociaux.
“Malheureusement, ils se sont propagés à des millions et des millions d’utilisateurs au moment où certains d’entre eux ont été supprimés”, a déclaré Mason Allen, responsable de la croissance de Reality Defender.
Les chercheurs ont trouvé plusieurs dizaines d’images uniques générées par l’IA. Les plus largement partagées étaient liées au football, montrant un Swift peint ou ensanglanté qui l’objectivait et, dans certains cas, suggérait l’infliger des dommages violents.
Les outils ouvrent la voie à une « nouvelle ère » de la cybercriminalité
“L’un des plus gros problèmes est qu’il s’agit simplement d’un outil incroyable… et que maintenant tout le monde peut l’utiliser”, a déclaré Steve DiPaola, professeur d’intelligence artificielle à l’Université Simon Fraser.
Une étude réalisée en 2019 par DeepTrace Labs, une société de cybersécurité basée à Amsterdam, a révélé que 96 % des contenus vidéo deepfakes en ligne étaient du matériel pornographique non consenti. Il a également révélé que les quatre principaux sites Web dédiés à la pornographie deepfake ont reçu plus de 134 millions de vues sur des vidéos ciblant des centaines de célébrités féminines à travers le monde.
Au Canada, la police a ouvert une enquête en décembre après que de fausses photos nues d’élèves d’une école d’immersion française de la 7e à la 12e année à Winnipeg aient été partagées en ligne. Plus tôt cette année-là, un Québécois a été condamné à la prison pour avoir utilisé l’IA pour créer sept vidéos deepfake de pornographie juvénile – ce qui serait la première peine du genre prononcée par les tribunaux canadiens.
«Les policiers sont clairement entrés dans une nouvelle ère de cybercriminalité», a écrit le juge de la Cour du Québec Benoit Gagnoni dans son jugement.
Les juges canadiens travaillent avec des lois désuètes
Après le ciblage de Swift cette semaine, les politiciens américains ont appelé à de nouvelles lois pour criminaliser la création d’images deepfake.
Le Canada pourrait également avoir recours à ce genre de législation, a déclaré Thomasen de l’UBC.
Certaines lois canadiennes traitent de la question plus large de la distribution non consensuelle d’images intimes, mais la plupart de ces lois ne font pas explicitement référence aux deepfakes, car elles ne constituent pas un problème.
Cela signifie que les juges chargés des deepfakes doivent décider comment appliquer les anciennes lois aux nouvelles technologies.
“Il s’agit d’une violation tellement flagrante de la dignité d’une personne, du contrôle de son corps, du contrôle de ses informations, qu’il m’est difficile d’imaginer que cela ne puisse pas être interprété de cette façon”, a déclaré Thomasen. “Mais il y a un certain désaccord juridique à ce sujet et nous attendons des éclaircissements de la part des tribunaux.”
La nouvelle Intimate Images Protection Act, qui entre en vigueur lundi en Colombie-Britannique, inclut des références aux deepfakes et donnera aux procureurs plus de pouvoir pour poursuivre les personnes qui publient des images intimes d’autrui en ligne sans consentement – mais elle n’inclut pas les références aux personnes qui les créent ou aux réseaux sociaux. sociétés de médias.
[ad_2]