Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
En escalade Important Confiance: high

Des systèmes d'IA présentent des informations fabriquées comme des faits dans les conseils fiscaux, les procédures judiciaires et les requêtes de santé — les Canadiens suivant les conseils santé de l'IA sont cinq fois plus susceptibles de subir un préjudice.

Identifié: 1 septembre 2022 Dernière évaluation: 8 mars 2026

AI systems are being deployed as authoritative information sources across Canadian institutions and used by millions of Canadians — in tax administration, consumer services, legal proceedings, and health information — without accuracy verification before deployment and without monitoring after.

The Canada Revenue Agency spent $18 million on a chatbot ("Charlie") that processed 18 million taxpayer queries. The Auditor General found it answered only 2 of 6 test questions correctly. Air Canada deployed a customer service chatbot that fabricated a bereavement fare discount policy; the BC Civil Resolution Tribunal held Air Canada liable for its chatbot's representations. In Quebec, a court imposed the first judicial sanction for AI-hallucinated legal citations when a self-represented litigant submitted fabricated case law generated by a generative AI tool.

The Canadian Medical Association's 2026 Health and Media Tracking Survey (conducted by Abacus Data with 5,000 Canadians in November 2025) documents that 52% of Canadians use AI search results for health information and 48% use them for treatment advice. Those who follow AI health advice are five times more likely to experience harms: confusion about health management (33%), mental stress or increased anxiety (31%), delay in seeking medical care (28%), lower trust in health professionals (27%), difficulty discussing health issues with healthcare providers (24%), strained personal relationships (23%), and avoidance of effective treatments due to misinformation (23%). Despite these outcomes, only 27% trust AI for health information — meaning a large proportion use tools they do not trust, likely driven by access barriers to professional health advice.

The consistent pattern: an institution, platform, or individual deploys AI as an authoritative source, treats its outputs as reliable, and discovers only after harm that the system confabulates. This pattern scales with deployment — as more institutions and individuals adopt AI information systems, the frequency of consequential confabulation increases proportionally.

Some institutions have taken corrective action following documented incidents. The CRA updated its chatbot after the Auditor General's report. Air Canada revised its customer service AI policies after the tribunal ruling. Several AI developers have implemented accuracy improvements and added citations to their outputs. The trajectory of these responses suggests institutional learning, though the pace of correction varies significantly across sectors.

Incidents matérialisés

Préjudices

Le robot conversationnel « Charlie » de l'ARC a traité 18 millions de requêtes de contribuables tout en ne répondant correctement qu'à 2 des 6 questions test, selon le vérificateur général. Les contribuables ont reçu des informations inexactes sur leurs obligations fiscales d'un système présenté comme source gouvernementale faisant autorité.

Fraude et usurpation d'identitéInterruption de serviceImportantPopulation

Le robot conversationnel d'Air Canada a inventé une politique de tarif de deuil, amenant un passager à réserver au plein tarif sur la base d'informations fausses. Le Tribunal de résolution civile de la C.-B. a tenu Air Canada responsable des déclarations inexactes du robot.

Fraude et usurpation d'identitéPréjudice économiqueMineurIndividuel

Un tribunal québécois a imposé la première sanction judiciaire (5 000 $) pour des citations juridiques hallucinées par l'IA lorsqu'un justiciable non représenté a soumis de la jurisprudence fabriquée par un outil d'IA générative, portant atteinte à l'intégrité des procédures judiciaires.

DésinformationModéréIndividuel

Un sondage de l'AMC auprès de 5 000 Canadiens documente que 52 % utilisent l'IA pour l'information sur la santé et que ceux qui suivent les conseils de santé de l'IA sont cinq fois plus susceptibles de subir des préjudices, incluant un retard dans les soins médicaux (28 %), une anxiété accrue (31 %) et l'évitement de traitements efficaces (24 %).

Incident de sécuritéPréjudice psychologiqueImportantPopulation

Preuves

7 rapports

  1. Judiciaire — British Columbia Civil Resolution Tribunal (14 févr. 2024)

    Air Canada held liable for chatbot's inaccurate bereavement fare information

  2. Réglementaire — Office of the Auditor General of Canada (21 oct. 2025)

    CRA chatbot answered only 2 of 6 test questions correctly

  3. Officiel — Canadian Medical Association (10 févr. 2026)

    Canadians who followed health advice from AI were 5x more likely to experience harms; 52% use AI for health info; specific harm types quantified

  4. Média — Medscape (11 févr. 2026)

    Media coverage of CMA survey: Canadians who follow AI health advice are at greater risk of harm; corroborates 5x harm multiplier finding

  5. Média — Global News (11 févr. 2026)

    Global News coverage of CMA survey: AI medical advice can cause harm; 52% of Canadians using AI for health info

  6. Média — CP24 (11 févr. 2026)

    CP24 coverage: experts divided on AI health advice; context on growing reliance and associated risks

  7. Média — Globe and Mail (4 mars 2026)

    Globe and Mail coverage: about half of Canadians turning to AI for health information; details of Abacus Data survey methodology

Détails de la fiche

Réponses et résultats

Air Canadainstitutional actionActif

BC Civil Resolution Tribunal held Air Canada liable for chatbot's inaccurate fare representations

Agence du revenu du Canadainstitutional actionActif

Auditor General report documented chatbot accuracy failures; CRA committed to improvements

Recommandations de politiqueévalué

Accuracy verification requirements before deploying AI systems as authoritative information sources in public service contexts

Office of the Auditor General of Canada (19 mars 2024)

Clear liability framework for AI-generated misinformation extending the Air Canada precedent into regulation

British Columbia Civil Resolution Tribunal (14 févr. 2024)

Require AI tools providing health information to carry clear disclaimers and actively refer users to qualified health professionals

Canadian Medical Association (10 févr. 2026)

Establish accuracy standards for AI systems widely used for health information in Canada, with mandatory testing against Canadian clinical guidelines

Canadian Medical Association (10 févr. 2026)

Évaluation éditoriale évalué

Des incidents confirmés démontrent que des systèmes d'IA sont déployés comme sources d'information faisant autorité dans des contextes à forts enjeux — conseils fiscaux, droits des consommateurs, procédures judiciaires, information sur la santé — sans vérification de l'exactitude. L'AMC documente que les Canadiens qui suivent les conseils de santé de l'IA sont cinq fois plus susceptibles de subir des préjudices, à l'échelle de la population. En date de 2026, la loi canadienne n'exige pas de vérification de l'exactitude avant le déploiement de systèmes d'IA dans ces contextes.

Entités impliquées

Systèmes d'IA impliqués

Air Canada Customer Service Chatbot

Robot conversationnel du service à la clientèle qui a inventé une politique de rabais pour tarifs de deuil

CRA AI Chatbot

Le robot conversationnel « Charlie » de l'ARC traitant 18 millions de requêtes avec des défaillances documentées d'exactitude

Fiches connexes

Taxonomieévalué

Domaine
Services publicsCommerceJusticeSanté
Type de préjudice
DésinformationPréjudice économiqueInterruption de serviceIncident de sécuritéPréjudice psychologique
Voie de contribution de l'IA
ConfabulationContexte de déploiementSurveillance absente
Phase du cycle de vie
DéploiementSurveillanceÉvaluation

Historique des modifications

Historique des modifications
VersionDateModification
v18 mars 2026Initial publication
v29 mars 2026Absorbed ai-health-misinformation-canadians hazard — added CMA 2026 survey evidence (52% AI health usage, 5x harm multiplier), health-specific sources, affected populations, governance dependencies, and health domain

Version 2