À propos de CAIM
Le Moniteur canadien des incidents en IA (CAIM) est un projet d'intérêt public qui documente les incidents et les dangers liés à l'IA touchant le Canada. Il est opéré par Horizon Omega, un organisme canadien sans but lucratif œuvrant à réduire les risques liés à l'intelligence artificielle.
Mission
CAIM existe pour rendre l'expérience du Canada avec les systèmes d'IA (défaillances, quasi-incidents et dangers émergents) visible et structurée. En documentant ce qui ne fonctionne pas et ce qui prévient les préjudices, il vise à soutenir de meilleures décisions en matière de déploiement et de surveillance de l'IA, de l'approvisionnement à la réglementation.
Ce que fait CAIM
- Documente les incidents et les dangers liés à l'IA ayant un lien avec le Canada, avec des fiches structurées, des sources transparentes et un statut de vérification
- Publie une base de données consultable et citable avec accès structuré par API
- Maintient des normes éditoriales, des mesures de protection de la vie privée et un processus de correction publié
- S'aligne sur les cadres internationaux (OCDE, AIID) pour la comparabilité transfrontalière
- Opère de manière bilingue en anglais et en français
Ce que CAIM ne fait pas
CAIM ne réglemente pas, ne tranche pas et n'applique pas la loi. Il ne détermine pas la responsabilité ni la conformité. Il ne publie pas de données personnelles sur les victimes. Il ne privilégie pas le volume au détriment de la qualité. Il ne remplace pas le signalement aux forces de l'ordre, aux organismes de réglementation ou aux commissaires à la protection de la vie privée.
Pourquoi un moniteur
Le Canada déploie des systèmes d'IA dans les soins de santé, les services publics, l'application de la loi et les infrastructures essentielles. Lorsque ces systèmes échouent ou sont utilisés abusivement, l'information sur ces défaillances est fragmentée, dispersée dans les reportages, les dépôts réglementaires, les dossiers judiciaires et la mémoire institutionnelle.
Les observatoires d'incidents existent en aviation (ASRS), pour les dispositifs médicaux (FDA MAUDE) et en sécurité chimique (CSB) parce que les défaillances individuelles sont des anecdotes, mais agrégées et structurées, elles deviennent des données probantes.
Le système confidentiel de signalement de quasi-incidents en aviation a révélé que la plupart des accidents provenaient de défaillances de communication, et non de pannes mécaniques, transformant la formation des équipages dans le monde entier. La base de données de la FDA sur les dispositifs médicaux a déclenché des rappels qu'aucun rapport isolé d'hôpital n'aurait justifiés. En rendant les défaillances visibles, ces systèmes permettent la prévention, la réglementation fondée sur les données probantes et l'apprentissage collectif que le signalement dispersé ne peut produire.
Le Rapport international sur la sécurité de l'IA 2026, produit par un groupe d'experts indépendants convoqué dans le cadre des Sommets sur la sécurité de l'IA, identifie le signalement des incidents comme un élément essentiel mais sous-développé de la gouvernance des risques liés à l'IA, notant que les décideurs politiques ont une « visibilité limitée sur la manière dont les risques sont identifiés, évalués et gérés en pratique » et que « les données probantes sur l'efficacité réelle des pratiques de gestion des risques liés à l'IA demeurent limitées ».
CAIM applique ce modèle à l'IA au Canada : consolider l'information fragmentée en une base de données structurée, bien sourcée et accessible au public.
Contexte international
Les risques liés à l'IA sont internationaux, mais la gouvernance est nationale. Une surveillance efficace exige les deux niveaux : une veille transnationale pour détecter les tendances mondiales, et une surveillance nationale approfondie pour relier les incidents aux lois, aux institutions et aux autorités habilitées à agir. C'est le modèle éprouvé en sécurité aérienne, où les bureaux nationaux d'enquête (le BST au Canada, le BEA en France, l'AAIB au Royaume-Uni) mènent des enquêtes approfondies sous juridiction nationale tout en alimentant le système mondial de sécurité de l'OACI.
Trois bases de données internationales assurent la couche transnationale pour l'IA : le Moniteur d'incidents de l'OCDE, qui parcourt les médias internationaux et classe les incidents à travers les pays; l'AI Incident Database (AIID), qui catalogue les incidents par soumissions participatives et curation par des chercheurs; et AIAAIC, qui organise indépendamment des incidents et enjeux émergents.
CAIM apporte la profondeur nationale que la surveillance transnationale ne peut fournir : sources francophones, événements provinciaux et municipaux, systèmes de décision automatisée gouvernementaux, cartographie juridictionnelle identifiant quel ordre de gouvernement détient l'autorité réglementaire, et suivi des réponses de gouvernance : si un régulateur a enquêté, ce qu'il a constaté et ce qui a changé. En tant que moniteur bilingue, CAIM relie également les communautés anglophones et francophones de sécurité de l'IA.
État actuel
CAIM est en phase pilote. Le cadre éditorial, le schéma des fiches et les premières fiches sont établis. Un pipeline de surveillance continu balaye les sources canadiennes en anglais et en français, utilisant un triage et une extraction assistés par LLM avec révision humaine obligatoire avant publication. Toutes les fonctions éditoriales sont actuellement assumées par un seul éditeur. Le projet développe son corpus de fiches et vise à constituer une équipe éditoriale multi-personnes.
Les fiches sont basées sur des sources publiques et n'ont pas encore fait l'objet d'un examen par les pairs. Elles doivent être considérées comme provisoires. Tous les champs du schéma ne sont pas remplis pour toutes les fiches ; la couverture du suivi des réponses, des analyses de trajectoire et des données sur les préjudices continue de croître. Nous accueillons les corrections et commentaires à caim@horizonomega.org.
Vers une infrastructure publique
CAIM est conçu pour que sa méthodologie, ses structures de données et ses processus puissent éventuellement être adoptés par des institutions publiques. Le schéma est bien établi : en aviation, en médecine et en sécurité nucléaire, le signalement systématique des incidents a généralement débuté comme initiative indépendante avant de devenir une fonction institutionnelle dotée d'une autorité légale.
CAIM fonctionne comme un prototype de la société civile, mais les fonctions qu'il préfigure (divulgation obligatoire des incidents, accès à l'information non publique et enquêtes faisant autorité) nécessitent ultimement le mandat que seul le gouvernement peut fournir. La forme institutionnelle appropriée dépendra de l'évolution de la gouvernance de l'IA au Canada, mais l'indépendance structurelle vis-à-vis des ministères qui font la promotion de l'adoption de l'IA sera essentielle.
Gouvernance et indépendance
Les décisions éditoriales suivent des normes publiées. Aucun bailleur de fonds, organisation ou organisme gouvernemental n'a de contrôle éditorial, et les politiques de gouvernance sont conçues pour maintenir cette indépendance à mesure que CAIM se développe au-delà de son équipe fondatrice. Les sources de financement seront divulguées publiquement au fur et à mesure de leur obtention.
Pour les détails sur les rôles éditoriaux, les conflits d'intérêts, les corrections et appels, et les rapports de transparence, consultez la page Gouvernance. Pour le schéma, la taxonomie et la méthodologie éditoriale, consultez la page Méthodologie.
Contact
Pour les demandes générales, les propositions de collaboration ou les questions sur la méthodologie et la gouvernance de CAIM, contactez caim@horizonomega.org.
Pour soumettre un rapport, consultez la page Soumettre.