Images intimes non consensuelles générées par l'IA
Une grande plateforme d'IA a généré plus de 3 millions d'images sexualisées non consensuelles — dont des images de mineurs — avant l'intervention de contrôles de sécurité. Le Commissaire à la vie privée du Canada a élargi son enquête, mais le cadre juridique présente des lacunes importantes. Il s'agit d'un préjudice ciblé et personnalisé à échelle industrielle, avec un impact disproportionné sur les femmes et les filles.
Description
Generative AI has made it possible to create realistic non-consensual sexualized imagery of any person from a single clothed photograph. The most dramatic demonstration occurred when xAI’s Grok chatbot generated approximately 6,700 “undressed” images per hour — over 3 million total — before the capability was restricted. Approximately 2% of those images depicted minors, crossing into child sexual abuse material territory.
The Privacy Commissioner of Canada expanded its ongoing investigation into X Corp in January 2026 to specifically address AI-generated sexualized deepfakes. The Commissioner’s testimony to the ETHI Committee highlighted AI-generated NCII as a priority concern.
The legal framework has significant gaps. Criminal Code section 162.1, which addresses non-consensual distribution of intimate images, was drafted before AI generation existed. Proving that an AI-generated image depicts an identifiable real person creates evidentiary challenges. No Canadian law requires AI platforms to prevent their systems from generating NCII, to test models against NCII generation capability before deployment, or to report when NCII generation occurs at scale.
The harm is gendered: research consistently shows that non-consensual intimate imagery disproportionately targets women and girls. The CEST documented in a 2024 report that deepfakes overwhelmingly target women, often in the form of non-consensual pornographic content. When AI makes this harm scalable and accessible, the impact on women’s participation in public life — political, professional, social — becomes a structural equality concern.
Voie de risque
L'IA générative permet la création d'images sexualisées non consensuelles de personnes réelles à une échelle et une accessibilité sans précédent. Les outils d'IA actuels peuvent générer des images réalistes à partir d'une seule photo habillée. Le chatbot Grok a généré environ 6 700 images « déshabillées » par heure, avec plus de 3 millions générées. Environ 2 % représentaient des mineurs. Le Code criminel du Canada traite certaines formes d'images intimes non consensuelles, mais a été rédigé avant l'existence des capacités de génération par l'IA. Aucune loi canadienne n'oblige les plateformes d'IA à empêcher leurs systèmes de générer du contenu intime non consensuel.
Historique des évaluations
Grok a généré plus de 3 millions d'images sexualisées non consensuelles. Le CPVP a élargi son enquête sur X. Le Code criminel présente des lacunes importantes pour le contenu généré par l'IA. Le danger s'aggrave car les outils prolifèrent tandis que la gouvernance reste inadéquate.
Initial assessment. Status escalating based on confirmed industrial-scale NCII generation and proliferating tools.
Déclencheurs
- AI image generation models with safety filters removable or absent
- "Undressing" tools becoming more accessible on unregulated platforms
- No legal requirement for pre-deployment safety testing against NCII generation
- Social media platforms hosting AI-generated NCII without detection
Facteurs atténuants
- OPC investigation creating regulatory scrutiny
- xAI restricting Grok's NCII generation capability after public backlash
- ETHI Committee study on AI examining NCII
- Growing international regulatory attention (EU, UK, Australia)
Contrôles de risque
- Explicit prohibition on AI platforms generating non-consensual sexualized imagery of identifiable individuals
- Mandatory safety testing for image generation models against NCII generation
- Criminal Code amendments addressing AI-generated NCII with provisions adapted for synthetic content
- Platform liability for failing to prevent NCII generation at scale
- Reporting obligations when AI systems generate NCII
- Recourse mechanisms for victims of AI-generated NCII including expedited takedown
Populations touchées
- Women and girls disproportionately targeted
- Minors (~2% of Grok NCII output depicted minors)
- Public figures and celebrities
- Any person whose photo is publicly available online
Entités impliquées
A développé le chatbot Grok qui a généré plus de 3 millions d'images sexualisées non consensuelles
Plateforme par laquelle Grok a généré et distribué des images intimes non consensuelles
A élargi l'enquête sur X Corp pour inclure les deepfakes sexualisés générés par l'IA
Systèmes d'IA impliqués
A généré environ 6 700 images « déshabillées » par heure, plus de 3 millions au total, environ 2 % représentant des mineurs
Réponses
A élargi l'enquête sur X Corp pour inclure les images d'hypertrucage sexualisées générées par l'IA
Restricted Grok's ability to generate NCII after public backlash and regulatory scrutiny
Fiches connexes
- grok-sexualized-deepfake-investigation related
- ai-generated-csam related
Taxonomie
Sources
- Privacy Commissioner of Canada expands investigation into social media platform X following reports of AI-generated sexualized deepfake images
- Canada's privacy commissioner expands probe into X after backlash over Grok's sexual deepfakes
- Grok's non-consensual sexual images highlight gaps in Canada's deepfake laws
Historique des modifications
| Version | Date | Modification |
|---|---|---|
| v1 | 8 mars 2026 | Initial publication |