Systèmes d'IA et enfants canadiens : préjudices documentés sans cadre de gouvernance applicable
Les systèmes d'IA utilisés par les enfants canadiens à grande échelle — collectant des renseignements personnels, recommandant du contenu, engageant des conversations ouvertes — fonctionnent sans exigences de gouvernance spécifiques aux enfants. Le Commissaire à la protection de la vie privée a constaté que TikTok collectait des renseignements personnels d'utilisateurs dont des enfants de moins de 13 ans et utilisait des caractéristiques faciales et des empreintes vocales pour l'estimation de l'âge. Huit des dix principaux chatbots étaient généralement disposés à aider avec des requêtes liées à la planification de fusillades scolaires et d'autres violences (CCDH, mars 2026). Aucune loi canadienne n'établit d'exigences spécifiques aux interactions de l'IA avec les mineurs.
Canadian children and youth interact with AI systems at scale. TikTok removes approximately 500,000 underage Canadian users per year; the Privacy Commissioner of Canada's joint investigation (PIPEDA-2025-003, September 2025) found it "highly likely that many more underage users access and engage with the platform without being detected." The investigation found TikTok used computer vision and audio analytics to estimate user age and gender, collecting facial features and voiceprints. The Commissioners found that TikTok collected personal information — including demographic information and location — from users, some of whom were children under 13, and used this information for targeted advertising. Age assurance practices primarily detected underage users when they posted content or comments; the Commissioners noted that 73.5% of users do not post videos and 59.2% do not comment, meaning passive underage users could avoid detection.
AI chatbots are accessible to Canadian minors without age verification. AI Minister Evan Solomon stated in October 2025 that he was considering age assurance requirements for large language model chatbots. A voluntary national standard for age verification technologies (CAN/DGSI 127:2025) was approved, requiring a Child Rights Impact Assessment before implementation. Adoption is voluntary. No legislation addressing AI interactions with minors has been tabled as of March 2026.
The Center for Countering Digital Hate tested ten major AI chatbots in March 2026 — ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, MyAI, Character.AI, and Replika. The study found that eight of ten were typically willing to assist with prompts related to planning school shootings, religious bombings, and high-profile assassinations.
A qualitative study of 21 youth in British Columbia, published in JMIR Infodemiology (2024), found that participants reported that when they interacted with self-harm and eating disorder content on TikTok, the platform's recommendation algorithm presented additional similar content on their feeds.
The Privacy Commissioner of Canada co-authored a G7 Data Protection Authorities statement on child-appropriate AI in October 2024, examining AI-powered toys, educational software, and AI-based decisions about children. OPC-funded research ("Growing Up with AI") identified three risk categories for children — data risks, function risks, and surveillance risks. A separate OPC public opinion survey (2024-25) found 91% of surveyed Canadian parents were concerned about data collection from their children.
Both the Artificial Intelligence and Data Act (Bill C-27) and the Online Harms Act (Bill C-63) died on the Order Paper when Parliament was prorogued in January 2025. No Canadian law establishes requirements specific to AI interactions with minors.
Préjudices
TikTok a collecté des renseignements personnels incluant des données démographiques et de localisation d'utilisateurs, dont certains étaient des enfants de moins de 13 ans, et les a utilisés pour la publicité ciblée; caractéristiques faciales et empreintes vocales collectées via la vision par ordinateur et l'analyse audio
Des jeunes en Colombie-Britannique ont rapporté que l'algorithme de recommandation de TikTok présentait du contenu d'automutilation et de troubles alimentaires après qu'ils aient interagi avec du matériel similaire (étude qualitative, JMIR Infodemiology)
Huit des dix principaux chatbots IA étaient généralement disposés à aider avec des requêtes liées à la planification de fusillades scolaires, d'attentats à la bombe religieux et d'assassinats de personnalités (CCDH)
Preuves
7 rapports
- Joint investigation of TikTok Inc. by federal, Alberta, British Columbia, and Quebec privacy authorities Source principale
TikTok used computer vision and audio analytics collecting facial features and voiceprints; collected personal information from users including children under 13 for targeted advertising; age assurance primarily detected underage users who posted content (73.5% do not post, 59.2% do not comment); removed ~500,000 underage Canadian users per year; highly likely many more undetected
-
Qualitative study of 21 BC youth: participants reported that when they interacted with self-harm and eating disorder content on TikTok, the recommendation algorithm presented additional similar content
-
Identified three risk categories for children — data risks, function risks, and surveillance risks (91% parental concern figure is from a separate OPC public opinion survey)
-
G7 DPAs examined AI-powered toys, educational software, and AI-based decisions about children
-
Media coverage of the joint OPC-provincial investigation of TikTok
-
AI Minister Evan Solomon stated he was considering age assurance requirements for LLM chatbots
-
Eight of ten major AI chatbots were typically willing to assist with prompts related to planning school shootings, religious bombings, and high-profile assassinations
Détails de la fiche
Recommandations de politiqueévalué
Exigences de vérification ou d'assurance de l'âge pour les plateformes d'IA accessibles au public
AI Minister Evan Solomon (public statement) (1 oct. 2025)Évaluation obligatoire de l'impact sur les droits des enfants avant le déploiement de systèmes d'IA accessibles aux enfants
CAN/DGSI 127:2025 (voluntary standard) (1 janv. 2025)Interdiction de l'utilisation d'outils d'IA par les enfants de moins de 16 ans
BC business groups (Tumbler Ridge and Prince George chambers of commerce) (1 mars 2026)Évaluation éditoriale évalué
Le droit canadien impose des obligations de diligence aux professionnels interagissant avec les enfants dans les domaines de la santé, de l'éducation et de la protection de l'enfance. Ces obligations ne s'étendent pas aux systèmes d'IA ni aux entreprises qui les exploitent. Les enfants interagissent avec des systèmes d'IA qui collectent des renseignements personnels, recommandent du contenu et engagent des conversations ouvertes — des activités qui, dans un cadre professionnel humain, déclenchent des protections juridiques pour les mineurs. L'absence d'obligations équivalentes pour les systèmes d'IA constitue une lacune de gouvernance dont les conséquences s'amplifient avec le nombre d'enfants utilisant ces systèmes et la capacité croissante de ces systèmes pour des interactions prolongées et personnalisées.
Fiches connexes
- AI Safety Reporting and Disclosure Gapsrelated
- AI Psychological Manipulation and Influencerelated
- AI Deployment in Canadian Educational Institutions with Documented Harms to Studentsrelated
- AI Companion Emotional Dependencerelated