Ce site est un prototype en cours de développement.
En escalade Confiance : medium Sévérité potentielle : Grave Version 1

Le MESE généré par l'IA représente un changement qualitatif dans l'ampleur et la nature du matériel d'exploitation des enfants, submergeant les systèmes de détection et créant une ambiguïté juridique — avec des implications directes pour la capacité des forces de l'ordre canadiennes et la protection de l'enfance.

Identifié : 1 juin 2023 Dernière évaluation : 8 mars 2026

Description

Generative AI is enabling the production of child sexual abuse material at a scale and speed that overwhelms existing detection and enforcement infrastructure. The Canadian Centre for Child Protection has documented increasing volumes of AI-generated CSAM. Existing hash-based detection systems like PhotoDNA — designed to identify known images through digital fingerprints — cannot detect AI-generated content because each synthetic image is unique.

The legal framework presents additional challenges. Canada’s Criminal Code provisions on child pornography were drafted for human-produced material. While the provisions may apply to purely synthetic AI-generated CSAM depicting no identifiable real child, prosecutorial practice has not been tested at this scale. The gap between generation capability and detection capability is widening: producing realistic synthetic CSAM requires minimal technical expertise and no access to real children, while detecting it requires investments in new technology that law enforcement agencies have not yet made.

This hazard is the most acute current manifestation of a broader structural pattern: generative AI content production capability outpacing institutional detection and response capacity. The asymmetry between cheap, scalable generation and expensive, fragile detection applies across harm categories, but the consequences are most severe when the content involves child exploitation.

Voie de risque

L'IA générative réduit le coût de production de matériel d'exploitation sexuelle d'enfants à grande échelle, submergeant les systèmes de détection conçus pour le contenu produit par des humains. Les outils de détection basés sur le hachage (PhotoDNA) ne peuvent pas identifier les images générées par l'IA. Les organismes canadiens d'application de la loi et de protection de l'enfance manquent d'outils et de cadres juridiques calibrés pour le MESE synthétique.

Historique des évaluations

En escalade Confiance : medium Grave

Plusieurs organismes d'application de la loi et de protection de l'enfance ont documenté l'émergence du MESE généré par l'IA. Le Centre canadien de protection de l'enfance a signalé des volumes croissants. Aucune donnée de prévalence canadienne complète n'existe. Les systèmes de détection basés sur le hachage ne peuvent pas identifier les images générées par l'IA.

Initial assessment. Status set to escalating based on increasing volumes and inadequate detection/legal infrastructure.

Déclencheurs

  • Open-source image generation models becoming more capable and accessible
  • Removal of safety filters from fine-tuned models
  • Growing online communities sharing techniques for generating CSAM
  • Declining cost and increasing realism of generated imagery

Facteurs atténuants

  • Platform-level content moderation on major commercial generators
  • Ongoing development of synthetic content detection tools
  • International law enforcement cooperation on CSAM
  • Criminal Code provisions that may extend to synthetic material

Contrôles de risque

  • Legal framework explicitly criminalizing AI-generated CSAM with penalties equivalent to human-produced material
  • Investment in synthetic content detection tools calibrated for AI-generated imagery
  • Reporting obligations for AI platform operators when their systems are used to generate CSAM
  • International coordination on synthetic CSAM detection, takedown, and cross-border enforcement
  • Mandatory safety testing for image generation models before release, including CSAM generation capability assessment
  • Restrictions on distribution of open-source image generation models with safety filters removed

Incidents matérialisés

Populations touchées

  • Children
  • Law enforcement and child protection agencies
  • Survivors of child sexual abuse

Entités impliquées

A documenté l'émergence du MESE généré par l'IA et appelé à une réponse coordonnée

Forces de l'ordre fédérales responsables des enquêtes sur le MESE, confrontées à des défis de capacité avec le contenu synthétique

Réponses

Centre canadien de protection de l'enfance

A publié des rapports documentant les tendances du MESE généré par l'IA et appelant à une action législative

Fiches connexes

Taxonomie

Domaine
JusticeServices publics
Type de préjudice
Défaillance de sécuritéPréjudice psychologique
Implication de l'IA
Utilisation abusiveLacune de surveillance
Phase du cycle de vie
DéploiementSurveillance

Sources

  1. Canadian Centre for Child Protection aims to strengthen schools' responses to image-based abuse in the AI era Officiel — Canadian Centre for Child Protection (10 févr. 2026)
  2. Canadian Centre for Child Protection warns of growing wave of online abuse material since the launch of public AI tools Média — Future of Good
  3. Criminal Code Provisions on Child Pornography Officiel — Department of Justice Canada

Historique des modifications

VersionDateModification
v1 8 mars 2026 Initial publication