Imaginez vous réveiller un matin, prêt à commencer votre journée, quand des appels et messages affluent de collègues, camarades, proches et même de parfaits inconnus. Tous vous posent la même question : « Est-ce bien toi sur cette vidéo ? » Une vidéo ou une image dont vous ignorez tout circule en ligne. Certains doutent, d’autres sont déjà convaincus que c’est vous, tant le contenu semble réaliste. La confusion laisse vite place à la peur, à la honte.

C’est ce qu’a vécu Elliston Berry, 15 ans, en découvrant que de fausses photos d’elle circulaient sur Snapchat.

« J’avais des tests PSAT et un match de volley. La dernière chose dont j’avais besoin, c’était de m’inquiéter pour des nus truqués de moi dans toute l’école », raconte-t-elle.

Selon ses propos, un camarade aurait téléchargé une photo issue de son compte Instagram, puis utilisé un outil d’intelligence artificielle pour générer une version dénudée. L’image ainsi modifiée s’est rapidement propagée sur les réseaux sociaux. Sa mère, Anna McAdams, se souvient :
« Elle est entrée dans notre chambre en larmes, disant : “Maman, tu ne vas pas croire ce qui vient de se passer.” »

Pour Yvonne Mere, procureure adjointe, l’affaire dépasse la simple question technologique : « Ce n’est pas une affaire d’IA. C’est un abus sexuel. »

Une exploitation numérique et invisible

Selon une étude de Security Hero, 98 % des vidéos deepfake en ligne relèvent de la pornographie, et 99 % des victimes sont des femmes. Les conséquences peuvent être tragiques. En 2022, Basant Khaled, 17 ans, s’est suicidée en Égypte après avoir été menacée de diffusion de fausses vidéos pornographiques générées par IA. Un homme l'avait harcelée pour obtenir une relation, puis menacée avec des images truquées. Ces dernières se sont rapidement répandues dans son village, la plongeant dans une détresse profonde. Avant de mettre fin à ses jours, elle a laissé une lettre à sa mère :
« Maman, ce n’est pas moi sur ces photos. Elles ont été modifiées. Je t’en supplie, crois-moi. »

Basant Khaled credit: Egyptian streets

Sa sœur a témoigné : « Nous avons essayé de la soutenir, mais elle ne supportait plus les regards ni les rumeurs. »

En 2023, on comptait plus de 95 000 vidéos deepfake en ligne, soit une augmentation de 550 % par rapport à 2019. Il suffit aujourd’hui d’une image claire du visage d’une personne et de quelques secondes pour générer une vidéo pornographique avec des applications gratuites. En 2024, plus de 200 outils de ce type étaient librement accessibles sur internet. Les vidéos ainsi créées ont été vues plus de 4,2 milliards de fois, selon une enquête de Channel 4 News — soit près de trois fois le public de la dernière finale de la Coupe du monde.

Des victimes ordinaires et célèbres réduites au silence

L’équipe d’investigation de Channel 4 a enquêté sur les cinq plus grandes plateformes hébergeant des contenus pornographiques truqués, où circulent des vidéos manipulées de femmes célèbres. Mais rares sont les victimes à vouloir témoigner, de peur d’attirer davantage l’attention sur ces contenus.

Cathy Newman, présentatrice de Channel 4 News, a fait une exception après avoir découvert qu’elle figurait dans une vidéo deepfake à caractère sexuel. « Je couvre des guerres, des catastrophes, des tragédies humaines... mais rien ne m’avait préparée à cela. Même en sachant que ce n’était pas réel, je me suis sentie violée », a-t-elle confié après avoir visionné la vidéo.

Cathy Newman

Sophie Parrish, fleuriste de 31 ans, a également été victime. Des images issues de ses réseaux sociaux ont été utilisées par un proche de la famille pour créer des deepfakes pornographiques. « J’ai été physiquement malade. Je ne fais plus confiance à personne. Même les regards des autres me mettent mal à l’aise », confie-t-elle. L’homme à l’origine de l’acte a été arrêté, mais n’a pas été inculpé, faute de loi claire à ce sujet. « Je ne me sens pas protégée par la loi », ajoute-t-elle.

Des femmes célèbres comme Taylor Swift, Jenna Ortega, Alexandra Ocasio-Cortez ou Georgia Meloni figurent aussi parmi les victimes. Et malgré leur notoriété, leurs ressources juridiques et médiatiques, elles peinent elles aussi à faire retirer ces contenus.

Sophie Parrish

Une loi encore insuffisante face à l’ampleur du phénomène

Une étude menée par ESET, entreprise spécialisée en cybersécurité, révèle que 50 % des Britanniques craignent d’être victimes de ce type de contenus, et 9 % disent en avoir déjà été victimes ou connaître une victime. Alors que certains hommes sont ciblés dans des vidéos manipulées à but politique, les femmes le sont majoritairement à des fins sexuelles, d’humiliation ou de vengeance.

Le phénomène rapporte, en parallèle, des sommes considérables à certaines plateformes et entreprises technologiques.

Le deepfake porn n’est pas seulement un abus sexuel numérisé : c’est une atteinte grave à la dignité. Il suffit désormais qu’une femme publie une simple photo en robe pour risquer qu’elle soit détournée et transformée en contenu pornographique non consenti. L’intelligence artificielle devient alors une arme contre les femmes et les filles, les déshumanisant et les exploitant.

Les répercussions sont lourdes. Les victimes souffrent souvent de stress post-traumatique, d’anxiété, de dépression, voire de pensées suicidaires. Leur réputation, leur carrière — notamment dans les domaines publics comme le journalisme, la politique ou l’éducation — peuvent être irrémédiablement endommagées. Même si les vidéos sont prouvées fausses, elles continuent de circuler et de faire douter.

Une justice encore hors de portée

Sur le plan juridique, le combat est complexe, long et coûteux. Certaines victimes, comme Breeze Liu, passent des années à tenter de faire supprimer des vidéos d’elles, en vain. « J’ai l’impression de me battre contre un fantôme », a-t-elle confié à Wired.

Si certains pays comme le Royaume-Uni et certains États américains ont adopté des lois criminalisant ces pratiques, leur application reste limitée. Les régulateurs demandent plus de responsabilités aux plateformes, tandis que les entreprises technologiques travaillent à développer de meilleurs outils de détection.

Des organisations comme la Cyber Civil Rights Initiative, Paradigm Initiative, Kuram, Lawbrella ou encore TechSocietal militent pour des protections juridiques renforcées.

Mais tant que les législations ne seront pas renforcées, que les mentalités n’évolueront pas, et que la société ne prendra pas la défense des victimes au sérieux, le deepfake porn continuera de se propager. Et pour beaucoup de femmes, la justice demeurera un combat solitaire. La question demeure : comment lutter contre quelque chose qui n'est même pas RÉEL ?

Article rédigé par Charity Ani KOSISOCHUKWU