Matériel d'exploitation sexuelle d'enfants généré par l'IA au Canada
Le MESE généré par l'IA représente un changement qualitatif dans l'ampleur et la nature du matériel d'exploitation des enfants, submergeant les systèmes de détection et créant une ambiguïté juridique — avec des implications directes pour la capacité des forces de l'ordre canadiennes et la protection de l'enfance.
Description
Generative AI is enabling the production of child sexual abuse material at a scale and speed that overwhelms existing detection and enforcement infrastructure. The Canadian Centre for Child Protection has documented increasing volumes of AI-generated CSAM. Existing hash-based detection systems like PhotoDNA — designed to identify known images through digital fingerprints — cannot detect AI-generated content because each synthetic image is unique.
The legal framework presents additional challenges. Canada’s Criminal Code provisions on child pornography were drafted for human-produced material. While the provisions may apply to purely synthetic AI-generated CSAM depicting no identifiable real child, prosecutorial practice has not been tested at this scale. The gap between generation capability and detection capability is widening: producing realistic synthetic CSAM requires minimal technical expertise and no access to real children, while detecting it requires investments in new technology that law enforcement agencies have not yet made.
This hazard is the most acute current manifestation of a broader structural pattern: generative AI content production capability outpacing institutional detection and response capacity. The asymmetry between cheap, scalable generation and expensive, fragile detection applies across harm categories, but the consequences are most severe when the content involves child exploitation.
Voie de risque
L'IA générative réduit le coût de production de matériel d'exploitation sexuelle d'enfants à grande échelle, submergeant les systèmes de détection conçus pour le contenu produit par des humains. Les outils de détection basés sur le hachage (PhotoDNA) ne peuvent pas identifier les images générées par l'IA. Les organismes canadiens d'application de la loi et de protection de l'enfance manquent d'outils et de cadres juridiques calibrés pour le MESE synthétique.
Historique des évaluations
Plusieurs organismes d'application de la loi et de protection de l'enfance ont documenté l'émergence du MESE généré par l'IA. Le Centre canadien de protection de l'enfance a signalé des volumes croissants. Aucune donnée de prévalence canadienne complète n'existe. Les systèmes de détection basés sur le hachage ne peuvent pas identifier les images générées par l'IA.
Initial assessment. Status set to escalating based on increasing volumes and inadequate detection/legal infrastructure.
Déclencheurs
- Open-source image generation models becoming more capable and accessible
- Removal of safety filters from fine-tuned models
- Growing online communities sharing techniques for generating CSAM
- Declining cost and increasing realism of generated imagery
Facteurs atténuants
- Platform-level content moderation on major commercial generators
- Ongoing development of synthetic content detection tools
- International law enforcement cooperation on CSAM
- Criminal Code provisions that may extend to synthetic material
Contrôles de risque
- Legal framework explicitly criminalizing AI-generated CSAM with penalties equivalent to human-produced material
- Investment in synthetic content detection tools calibrated for AI-generated imagery
- Reporting obligations for AI platform operators when their systems are used to generate CSAM
- International coordination on synthetic CSAM detection, takedown, and cross-border enforcement
- Mandatory safety testing for image generation models before release, including CSAM generation capability assessment
- Restrictions on distribution of open-source image generation models with safety filters removed
Incidents matérialisés
Populations touchées
- Children
- Law enforcement and child protection agencies
- Survivors of child sexual abuse
Entités impliquées
A documenté l'émergence du MESE généré par l'IA et appelé à une réponse coordonnée
Forces de l'ordre fédérales responsables des enquêtes sur le MESE, confrontées à des défis de capacité avec le contenu synthétique
Réponses
A publié des rapports documentant les tendances du MESE généré par l'IA et appelant à une action législative
Fiches connexes
- ai-generated-csam-canada related
- AI-Generated Non-Consensual Intimate Imagery related
Taxonomie
Sources
- Canadian Centre for Child Protection aims to strengthen schools' responses to image-based abuse in the AI era
- Canadian Centre for Child Protection warns of growing wave of online abuse material since the launch of public AI tools
- Criminal Code Provisions on Child Pornography
Historique des modifications
| Version | Date | Modification |
|---|---|---|
| v1 | 8 mars 2026 | Initial publication |