Un aperçu IA de Google a faussement accusé le musicien canadien Ashley MacIsaac d'infractions sexuelles, entraînant l'annulation d'un concert
Google's AI fabricated criminal accusations against a Canadian musician, causing a concert cancellation.
Un observatoire d'intérêt public documentant les incidents et les risques liés à l'IA au Canada. Des données structurées pour la prévention et la reddition de comptes.
Google's AI fabricated criminal accusations against a Canadian musician, causing a concert cancellation.
AI-generated deepfake nudes of classmates led to the first Canadian criminal charges against a minor for AI CSAM.
Fake AI wildfire images went viral during BC's fire season, risking distorted evacuation decisions.
Grok generated 6,700 non-consensual sexualized images per hour, including images of minors, prompting a Canadian probe.
OpenAI flagged a user's violent content months before a mass shooting but did not alert authorities.
Deloitte's $1.6M health workforce plan cited nonexistent studies, with real researchers denying authorship.
Des systèmes d'IA en protection de la jeunesse, en santé et en intervention de crise sont déployés sans surveillance de sécurité ni signalement d'incidents — et ont contribué à des décès.
Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.
Aucune loi canadienne n'oblige les entreprises d'IA à signaler des découvertes pertinentes aux autorités — une lacune liée à une fusillade de masse où OpenAI a détecté une menace sans la signaler.
Le matériel d'exploitation sexuelle d'enfants généré par l'IA submerge les systèmes de détection et crée une ambiguïté juridique, avec des implications directes pour les forces de l'ordre et la protection de l'enfance.
Plusieurs systèmes de surveillance biométrique déployés au Canada — dans des centres commerciaux, des corps policiers et des lieux publics — sans autorisation légale ni divulgation publique.
La désinformation générée par l'IA est apparue à grande échelle lors de l'élection fédérale de 2025. La loi électorale n'encadre pas les médias synthétiques et la capacité de détection est minimale.
Le CAIM sépare les incidents (événements où l'IA a causé un préjudice) des risques (conditions persistantes créant un risque). Chaque fiche porte des préjudices structurés, l'implication des entités, les réponses de gouvernance et un statut de vérification :