Ce site est un prototype en cours de développement.

Incidents documentés où l'IA a causé ou failli causer un préjudice au Canada.

25 incidents

Confirmé Important

Un aperçu IA de Google a faussement accusé le musicien canadien Ashley MacIsaac d'infractions sexuelles, entraînant l'annulation d'un concert

An AI system deployed by the world's dominant search engine fabricated criminal accusations against a Canadian public figure, causing real-world harm — a cancelled concert and reputational damage — before the error was discovered. The incident illustrates how AI confabulation in search results can produce false accusations with consequences that precede correction. MacIsaac's only publicly known legal issue was a cannabis possession charge over two decades ago, for which he received a discharge.

Médias
Corroboré Grave

Un adolescent de Calgary accusé d'avoir créé du matériel d'exploitation sexuelle d'enfants par IA à partir de photos de camarades de classe

The first Canadian criminal prosecution of a minor for creating AI-generated child sexual abuse material, and the first school-targeting deepfake case in Canada to result in criminal charges. Prior incidents at schools in Winnipeg (2023) and London, Ontario (2024) — where AI was used to create deepfake nudes of students — resulted in no criminal charges, highlighting enforcement gaps. The Calgary case demonstrates that existing Criminal Code provisions (s. 163.1) are broad enough to cover AI-generated CSAM, setting a significant precedent for future prosecutions.

ÉducationApplication de la loi
Corroboré Modéré

Des images d'incendies de forêt générées par l'IA propagent de la désinformation en situation d'urgence durant la saison des feux 2025 en Colombie-Britannique

Premier cas documenté au Canada où des images générées par l'IA ont créé de la désinformation durant une urgence liée à une catastrophe naturelle. Le BC Wildfire Service a averti que les images fabriquées pouvaient affecter les décisions d'urgence dans les deux sens — en exagérant l'intensité des feux ou en sous-représentant le danger. Aucun décès ni blessure n'a été attribué aux images générées par l'IA.

EnvironnementÉlections et intégrité de l'information
Corroboré Critique

Le Canada enquête sur X et xAI après que Grok ait généré des millions d'hypertrucages sexualisés non consensuels

A major social media platform integrated an AI image generation tool that was used at large scale to produce non-consensual sexualized imagery, including child sexual abuse material. Corporate safety controls were implemented in several rounds, but independent testing found them to be ineffective after each update. The incident revealed gaps in Canadian privacy law — existing legislation may not cover many types of AI-generated nudified content — and prompted coordinated regulatory responses from multiple countries.

MédiasApplication de la loi
Corroboré Critique

OpenAI n'a pas alerté les autorités après avoir signalé le compte ChatGPT de la tireuse de Tumbler Ridge

No Canadian framework requires AI companies to report flagged safety threats to law enforcement. OpenAI made an internal risk assessment that a concerning account did not meet its threshold for reporting — a decision that preceded a mass shooting and highlighted a gap in Canadian AI governance regarding mandatory reporting obligations.

Services publicsÉducation
Signalé Grave

Un homme de l'Ontario allègue que ChatGPT a alimenté des délires de grandeur par manipulation sycophantique

The first Canadian plaintiff in a lawsuit alleging that an AI chatbot caused psychological harm through sycophantic manipulation. Over 3,000 pages of chat logs were independently analyzed by a former OpenAI researcher. The plaintiff, who reported no prior mental health history, alleges that AI sycophancy led to serious delusions over a 21-day period. Brooks subsequently co-founded the Human Line Project, a support group with over 125 participants, with Etienne Brisson of Sherbrooke, Quebec. No Canadian legislation currently addresses AI-induced psychological harm, and the case was filed in California rather than Ontario.

Santé
Corroboré Important

Des vidéos hypertrucées du premier ministre Carney utilisées pour frauder des Canadiens et perturber l'élection fédérale de 2025

A large-scale AI-enabled fraud and disinformation campaign targeting a Canadian election, documented across multiple platforms and months of operation. Meta's Canadian news ban under the Online News Act meant no legitimate news content circulated on Facebook, creating conditions where fabricated AI-generated news content faced limited competition from real journalism. The campaign persisted for months across rotating platform names despite serial regulatory warnings from Saskatchewan's FCAA.

Élections et intégrité de l'informationFinance et banques
Corroboré Important

Contenu généré par l'IA et réseaux de robots ayant ciblé l'élection fédérale canadienne de 2025 à grande échelle

L'élection fédérale de 2025 a été la première élection nationale canadienne où du contenu généré par l'IA a opéré à une échelle documentée sur plusieurs vecteurs simultanément — images fabriquées, articles générés et amplification par robots. La dimension d'ingérence étrangère, confirmée par la divulgation publique du Groupe de travail SITE durant la période électorale active, impliquait des acteurs liés à des États utilisant des outils d'IA pour cibler des communautés canadiennes spécifiques.

Élections et intégrité de l'information
Confirmé Important

Citations juridiques fabriquées par l'IA sanctionnées dans les tribunaux canadiens

AI-hallucinated legal citations have now been sanctioned or addressed by courts in all four major Canadian jurisdictions — BC, Ontario, Quebec, and Federal Court — establishing this as a systemic pattern rather than an isolated incident. Ontario introduced Rule 4.06.1(2.1) requiring certification of authority authenticity in response. The pattern implicates both general-purpose AI (ChatGPT) and purpose-built legal AI tools (Visto.ai), and affects both lawyers and self-represented litigants.

Justice
Signalé Grave

Matériel d'exploitation sexuelle d'enfants généré par l'IA au Canada

AI-generated CSAM overwhelms existing detection systems, complicates criminal prosecution by blurring the line between real and synthetic imagery, and creates new vectors for child exploitation. Canada's Criminal Code provisions on CSAM need to be tested and potentially updated for the generative AI era.

JusticeApplication de la loi
Corroboré Important

Des caméras de détection faciale dans des publicités numériques près de la gare Union de Toronto ont scanné les navetteurs sans consentement pendant trois ans

Undisclosed facial detection technology operated for approximately three years in one of Canada's busiest transit corridors — scanning an estimated 250,000–300,000 daily commuters — before a Reddit user noticed a small camera and disclaimer. The technology and corporate claims are similar to the Cadillac Fairview case, where the same type of AVA technology and similar assurances of "no data stored" were found by the OPC to be misleading. The case involves the question of whether meaningful consent is possible in a transit environment where people cannot practically avoid the technology.

CommerceTransport
Signalé Important

Systèmes de modération de contenu par l'IA supprimant de manière disproportionnée le contenu francophone, autochtone et racialisé

Content moderation AI trained primarily on English data shows disproportionate error rates for Canada's francophone and Indigenous language communities. The disparity has been documented through whistleblower disclosures, parliamentary committee proceedings, and independent research. Canada's Official Languages Act establishes linguistic equality obligations that may be relevant to how platforms moderate content across languages.

MédiasTélécommunications
Confirmé Grave

Le logiciel de surveillance d'examens Proctorio présentait un biais racial à UBC et l'entreprise a poursuivi un employé critique

An AI proctoring system deployed at UBC exhibited racial bias in facial detection, with a 57% failure rate for Black faces according to independent testing. The developer filed a lawsuit lasting 1,899 days against a UBC employee who had linked to publicly viewable training videos. UBC's academic senates voted 55-6 to restrict automated proctoring, and the case tested BC's Protection of Public Participation Act (anti-SLAPP law) in an AI context. Other Canadian universities including Concordia, U of T, and University of Ottawa faced similar complaints, while McGill declined to adopt proctoring software entirely.

Éducation
Confirmé Important

La vérificatrice générale a conclu que le chatbot IA de l'ARC, au coût de 18 millions de dollars, fournissait des renseignements fiscaux erronés

The federal tax authority spent $18 million on an AI chatbot that the Auditor General found gave incorrect answers to basic tax questions. The chatbot processed over 18 million queries, raising concerns about the accuracy of tax information provided to Canadians through the system.

Services publicsFinance et banques
Confirmé Important

Enquête conjointe révèle que TikTok a recueilli les données d'enfants pour le profilage algorithmique et la publicité ciblée

L'action d'application la plus importante en matière de vie privée contre un système d'IA au Canada. Quatre commissaires fédéraux et provinciaux ont conjointement conclu que le profilage par apprentissage automatique des enfants par TikTok n'avait aucune finalité légitime — rendant le consentement juridiquement non pertinent. La conclusion selon laquelle TikTok possédait une IA sophistiquée de détection d'âge mais a choisi de ne pas l'utiliser pour protéger les enfants établit un précédent pour les attentes réglementaires.

MédiasTélécommunications
Corroboré Grave

L'algorithme YieldStar de RealPage aurait permis à des propriétaires canadiens de coordonner des hausses de loyer

An algorithm that pools confidential data from competing landlords to generate coordinated pricing recommendations is the subject of antitrust investigations in both the US and Canada. The US DOJ reached a settlement with RealPage in November 2025, and Canada's Competition Bureau opened its own investigation in September 2024. RealPage has stated the software affects less than 1% of the Canadian rental market.

Commerce