Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
En escalade Grave Confiance: high

Des plateformes d'IA ont généré des millions d'images sexualisées non consensuelles — y compris de mineurs. Le cadre juridique canadien présente des lacunes importantes.

Identifié: 28 juillet 2025 Dernière évaluation: 8 mars 2026

Generative AI has made it possible to create realistic non-consensual sexualized imagery of any person from a single clothed photograph. The largest documented case occurred when xAI's Grok chatbot generated approximately 6,700 "undressed" images per hour — over 3 million total — before the capability was restricted. Approximately 2% of those images depicted minors, crossing into child sexual abuse material territory.

The Privacy Commissioner of Canada expanded its ongoing investigation into X Corp in January 2026 to specifically address AI-generated sexualized deepfakes. The Commissioner's testimony to the ETHI Committee highlighted AI-generated NCII as a priority concern.

The harm is gendered: research consistently shows that non-consensual intimate imagery disproportionately targets women and girls. The CEST documented in a 2024 report that deepfakes overwhelmingly target women, often in the form of non-consensual pornographic content. When AI makes this harm scalable and accessible, the impact on women's participation in public life — political, professional, social — becomes a structural equality concern.

Following the incidents described, xAI restricted the image generation capabilities that enabled mass NCII production. Several jurisdictions internationally have moved to address AI-generated NCII through legislation. AI developers have generally implemented content policies prohibiting NCII generation, though enforcement varies and open-source models present different challenges.

Incidents matérialisés

Préjudices

Le chatbot Grok de xAI a généré environ 6 700 images « déshabillées » par heure — plus de 3 millions au total — avant que la fonctionnalité ne soit restreinte. Environ 2 % représentaient des mineurs. Le Commissaire à la protection de la vie privée a élargi son enquête sur X Corp pour traiter les hypertrucages sexualisés générés par l'IA.

Imagerie non consensuelleVie privée et donnéesGravePopulation

L'IA générative permet la création d'images sexualisées non consensuelles réalistes à partir d'une seule photo habillée. Les victimes subissent des préjudices psychologiques documentés. La législation canadienne est non testée contre l'imagerie générée par l'IA à cette échelle.

Imagerie non consensuellePréjudice psychologiqueGravePopulation

Preuves

3 rapports

  1. Officiel — Office of the Privacy Commissioner of Canada (15 janv. 2026)

    OPC expanded investigation to cover AI-generated sexualized deepfakes on X

  2. Média — CBC News (15 janv. 2026)

    Grok generated approximately 6,700 undressed images per hour, ~2% depicted minors

  3. Média — BetaKit (15 janv. 2026)

    Gaps in Canadian law for addressing AI-generated NCII

Détails de la fiche

Réponses et résultats

xAIinstitutional actionActif

Restricted Grok's ability to generate NCII after public backlash and regulatory scrutiny

Commissariat à la protection de la vie privée du CanadainvestigationActif

A élargi l'enquête sur X Corp pour inclure les images d'hypertrucage sexualisées générées par l'IA

Recommandations de politiqueévalué

Criminal Code amendments addressing AI-generated NCII with provisions adapted for synthetic content

Office of the Privacy Commissioner of Canada (15 janv. 2026)

Platform liability for failing to prevent NCII generation at scale

Office of the Privacy Commissioner of Canada (15 janv. 2026)

Recourse mechanisms for victims of AI-generated NCII including expedited takedown

Commission de l'éthique en science et en technologie (1 janv. 2024)

Évaluation éditoriale évalué

Une grande plateforme d'IA a généré plus de 3 millions d'images sexualisées non consensuelles — dont des images de mineurs — avant l'intervention de contrôles de sécurité. Le Commissaire à la vie privée du Canada a élargi son enquête. L'article 162.1 du Code criminel a été rédigé avant l'existence de la génération par IA, et son application aux images synthétiques soulève des questions probatoires non résolues. Les recherches documentent un impact disproportionné sur les femmes et les filles.

Entités impliquées

Systèmes d'IA impliqués

Grok Imagine

A généré environ 6 700 images « déshabillées » par heure, plus de 3 millions au total, environ 2 % représentant des mineurs

Fiches connexes

Taxonomieévalué

Domaine
MédiasJustice
Type de préjudice
Préjudice psychologiqueVie privée et donnéesDiscrimination et droitsImagerie non consensuelle
Voie de contribution de l'IA
Utilisation au-delà de la portée prévueSurveillance absenteMécanisme de sécurité inefficace
Phase du cycle de vie
DéploiementSurveillance

Historique des modifications

Historique des modifications
VersionDateModification
v18 mars 2026Initial publication

Version 1