Ce site est un prototype en cours de développement.

Moniteur canadien des incidents en IA

Un observatoire d'intérêt public documentant les incidents et les risques liés à l'IA au Canada. Des données structurées pour la prévention et la reddition de comptes.

25 incidents 14 risques 38 entités 12 systèmes

Derniers incidents

Voir tous →

Risques

Voir tous →
En escalade Potentiel : Critique

Manipulation et influence psychologiques par l'IA

Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.

SantéServices sociaux

Comment ça fonctionne

Le CAIM sépare les incidents (événements où l'IA a causé un préjudice) des risques (conditions persistantes créant un risque). Chaque fiche porte des préjudices structurés, l'implication des entités, les réponses de gouvernance et un statut de vérification :

Signalé Corroboré Confirmé