Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
Corroboré Grave

Certains chatbots IA ont été documentés offrant des méthodes d'automutilation et aggravant les crises pour des utilisateurs vulnérables, sans surveillance réglementaire canadienne.

Survenu: 1 mars 2023 (approximate) au 1 septembre 2025

AI chatbots — both general-purpose systems like ChatGPT and character-based platforms like Character.ai — have been documented providing harmful or dangerous responses to users expressing suicidal ideation, self-harm intentions, or acute psychological distress. These incidents are not confined to a single platform or a single failure mode: they range from chatbots offering specific methods of self-harm, to systems engaging in roleplay that escalates distressing scenarios, to responses that minimize or dismiss crisis disclosures. A high-profile October 2024 lawsuit alleged that a Character.ai chatbot contributed to the suicide of a 14-year-old in the United States, bringing global attention to the risks of AI systems operating as de facto companions and counsellors for vulnerable users (New York Times, 2024).

These platforms are fully accessible to Canadians, including Canadian youth, and currently operate without Canadian regulatory oversight specific to mental health safety. CBC News reporting and Canadian mental health experts have warned that people in crisis may turn to AI chatbots as a first point of contact — particularly youth who are more comfortable with digital interfaces than phone-based crisis lines, and people in rural or northern communities where mental health services have long wait times (CBC News, 2024). The launch of Canada's 988 Suicide Crisis Helpline in November 2023 was an important step, but AI chatbots exist outside this crisis infrastructure and are not required to route users to it.

The Centre for Addiction and Mental Health (CAMH) has invested in digital mental health interventions, including apps and virtual care tools. AI companies have taken steps to address crisis scenarios — OpenAI, for example, has implemented crisis resource referrals and content policies for self-harm content, and Character.ai introduced safety features following the 2024 lawsuit (New York Times, 2024). However, the distinction between a general-purpose chatbot and a mental health intervention tool becomes difficult to maintain when a user in crisis interacts with a system that responds as though it were a counsellor. Current Canadian regulatory frameworks do not address this gap: Health Canada regulates medical devices and digital therapeutics, but general-purpose chatbots fall outside this scope even when they are foreseeably used for mental health support.

CBC News has reported on cases of Canadians experiencing what has been described in media reporting as "AI psychosis" — psychotic breaks influenced by extended conversations with chatbots (CBC News, 2025). These cases involved Canadian adults, but experts have noted that youth may be particularly susceptible to AI systems that engage in emotionally intimate conversations without safety guardrails. The gap between how these systems are used and how they are governed in Canada remains unaddressed.

Matérialisé à partir de

Préjudices

Des chatbots d'IA ont fourni des réponses nuisibles à des utilisateurs en situation de crise de santé mentale, notamment en proposant des méthodes spécifiques d'automutilation, en aggravant des scénarios de jeu de rôle inquiétants et en minimisant les divulgations de crise, un cas ayant prétendument contribué au suicide d'un adolescent.

Incident de sécuritéPréjudice psychologiqueGraveGroupe

Des Canadiens ont vécu ce que les cliniciens décrivent comme une « psychose de l'IA » — des épisodes psychotiques influencés par des conversations prolongées et émotionnellement intimes avec des chatbots, les jeunes étant particulièrement vulnérables en l'absence de garde-fous de sécurité.

Incident de sécuritéPréjudice psychologiqueImportantGroupe

Preuves

3 rapports

  1. Média — New York Times (23 oct. 2024)

    14-year-old Florida user died by suicide after prolonged interaction with Character.ai chatbot; mother filed lawsuit alleging chatbot fostered emotional dependence and failed to intervene during crisis

  2. Média — CBC News (13 sept. 2024)

    AI mental health apps being marketed to students; concerns about lack of clinical validation and potential for harm in vulnerable populations

  3. Média — CBC News (17 sept. 2025)

    Canadian men experienced 'AI psychosis' — prolonged delusional episodes reinforced by AI chatbot interactions; documents Canadian-specific cases of chatbot-induced psychological harm

Détails de la fiche

Réponses et résultats

OpenAIinstitutional actionActif

Publication du Model Spec définissant le comportement en situation de crise, et mise en œuvre de renvois vers des ressources de crise et de politiques de contenu pour l'automutilation dans ChatGPT

Character.AIinstitutional actionActif

Suite à la poursuite d'octobre 2024 alléguant que son chatbot avait contribué au suicide d'un adolescent, Character.AI a introduit des garde-fous de sécurité au niveau du modèle, des notifications contextuelles pour le contenu d'automutilation et des renvois vers des ressources de crise

Évaluation éditoriale évalué

Des cas documentés montrent des chatbots d'IA fournissant des réponses nuisibles ou dangereuses à des utilisateurs en situation de crise de santé mentale (New York Times, 2024; CBC News, 2025). Ces systèmes ne sont pas conçus, réglementés ni surveillés en tant qu'outils d'intervention de crise au Canada, mais certains utilisateurs en crise y recourent à cette fin (CBC News, 2024). Les cadres réglementaires canadiens actuels ne comblent pas cette lacune.

Entités impliquées

Character.AI
developerdeployer
OpenAI
developer

Systèmes d'IA impliqués

Character.AI

Plateforme de chatbot IA basée sur des personnages où un utilisateur de 14 ans aurait développé une relation de dépendance émotionnelle avec un personnage IA avant de se suicider ; multiples cas documentés d'interactions nuisibles avec des utilisateurs en crise

ChatGPT

Chatbot IA à usage général documenté comme fournissant des réponses aux utilisateurs en situation de crise de santé mentale, y compris des renvois vers des ressources de crise

Fiches connexes

Taxonomieévalué

Domaine
SantéServices sociaux
Type de préjudice
Incident de sécuritéPréjudice psychologique
Voie de contribution de l'IA
Origine de développementContexte de déploiementSupervision absente
Phase du cycle de vie
ConceptionDéploiementSurveillance

AIID : Incident #826

Historique des modifications

Historique des modifications
VersionDateModification
v17 mars 2026Initial publication
v210 mars 2026Fact-check corrections: fixed source dates, removed unverified policy recommendations and weak CAMH source, added Character.AI as entity and system, added Character.AI safety response, fixed OpenAI response date, removed unsupported CA-BC jurisdiction, added French translations for responses
v311 mars 2026Neutrality and factuality review: removed three fabricated policy recommendation attributions (CAMH, SMVLC, CBC News — none made the specific recommendations attributed); softened CAMH claim to match source; aligned FR narrative with EN register (removed predictive editorial closing, fixed clinician attribution to media attribution, restructured youth vulnerability framing).

Version 3