À propos de CAIM
Le Moniteur canadien des incidents en IA (CAIM) est un projet d'intérêt public qui documente les incidents et les risques liés à l'IA touchant le Canada. Il est opéré par Horizon Omega, un organisme canadien sans but lucratif œuvrant à réduire les risques liés à l'intelligence artificielle.
Mission
CAIM existe pour rendre l'expérience du Canada avec les systèmes d'IA — défaillances, quasi-incidents et risques émergents — visible, structurée et utile. En documentant ce qui ne fonctionne pas et ce qui prévient les préjudices, CAIM vise à soutenir de meilleures décisions en matière de déploiement et de surveillance de l'IA, de l'approvisionnement gouvernemental à la réglementation.
Pourquoi un moniteur
Le Canada déploie des systèmes d'IA dans les soins de santé, les services publics, l'application de la loi et les infrastructures essentielles. Lorsque ces systèmes échouent ou sont utilisés abusivement, l'information résultante est fragmentée : dispersée dans les reportages, les dépôts réglementaires, les dossiers judiciaires et la mémoire institutionnelle.
Les observatoires d'incidents existent en aviation (ASRS), pour les dispositifs médicaux (FDA MAUDE) et en sécurité chimique (CSB) parce que les défaillances individuelles sont des anecdotes, mais agrégées et structurées, elles deviennent des données probantes. Le système confidentiel de signalement de quasi-incidents en aviation a révélé que la plupart des accidents provenaient de défaillances de communication, et non de pannes mécaniques — transformant la formation des équipages dans le monde entier. La base de données de la FDA sur les dispositifs médicaux a déclenché des rappels qu'aucun rapport isolé d'hôpital n'aurait justifiés. En rendant les défaillances visibles, ces systèmes permettent la prévention, la réglementation fondée sur les données probantes et l'apprentissage collectif que le signalement dispersé ne peut produire.
CAIM applique ce modèle à l'IA au Canada : consolider l'information fragmentée en une base de données structurée, bien sourcée et accessible au public.
Réseau international de surveillance
Les risques liés à l'IA sont internationaux, mais la gouvernance est nationale. Une surveillance efficace exige les deux niveaux : une veille transnationale pour détecter les tendances mondiales, et une surveillance nationale approfondie pour relier les incidents aux lois, aux institutions et aux autorités réglementaires habilitées à agir. C'est le modèle éprouvé en sécurité aérienne, où les bureaux nationaux d'enquête (le BST au Canada, le BEA en France, l'AAIB au Royaume-Uni) mènent des enquêtes approfondies sous juridiction nationale tout en alimentant le système mondial de sécurité de l'OACI.
Trois bases de données internationales assurent la couche transnationale pour l'IA. Le Moniteur d'incidents de l'OCDE parcourt les médias internationaux et classe les incidents et risques à travers les pays. L'AI Incident Database catalogue les incidents par soumissions participatives et curation par des chercheurs. AIAAIC organise indépendamment des incidents et enjeux émergents.
CAIM est le nœud canadien de ce réseau émergent. Il apporte la profondeur nationale que la surveillance transnationale ne peut fournir : sources francophones, événements provinciaux et municipaux, systèmes de décision automatisée gouvernementaux, cartographie juridictionnelle identifiant quel ordre de gouvernement détient l'autorité réglementaire, et suivi des réponses de gouvernance — si un régulateur a enquêté, ce qu'il a constaté et ce qui a changé.
Chaque fiche CAIM porte à la fois la taxonomie propre à CAIM et le cadre de l'OCDE, avec des références croisées à l'AIID lorsque des correspondances existent. Les données sont structurées pour un échange bidirectionnel : CAIM ingère les bases de données internationales et y contribue. En tant que moniteur bilingue, CAIM relie également les communautés anglophones et francophones de sécurité de l'IA — connectant la surveillance canadienne aux efforts parallèles à travers la Francophonie et l'UE. L'API expose des exports compatibles avec l'OCDE.
Ce que fait CAIM
- Documente les incidents et les risques liés à l'IA ayant un lien avec le Canada, avec un format structuré, des sources transparentes et un statut de vérification
- Publie une base de données consultable et citable avec accès structuré par API
- Maintient des normes éditoriales, des mesures de protection de la vie privée et un processus de correction publié
- S'aligne sur les cadres internationaux (OCDE, AIID) pour la comparabilité transfrontalière
- Opère de manière bilingue en anglais et en français
Ce que CAIM ne fait pas
CAIM ne réglemente pas, ne tranche pas et n'applique pas la loi. Il ne détermine pas la responsabilité ni la conformité. Il ne publie pas de données personnelles sur les victimes. Il ne privilégie pas le volume au détriment de la qualité. Il ne remplace pas le signalement aux forces de l'ordre, aux organismes de réglementation ou aux commissaires à la protection de la vie privée.
État actuel
CAIM est en phase de fondation, opéré par l'équipe d'Horizon Omega. Le cadre éditorial, le schéma des fiches et les premières fiches sont établis. La cadence de publication et la taille de l'équipe évolueront avec un financement dédié.
Cheminement vers l'intégration gouvernementale
CAIM est conçu pour une intégration éventuelle dans l'infrastructure de sécurité publique du Canada. Le modèle suit un schéma bien établi : en aviation, en médecine et en sécurité nucléaire, le signalement systématique des incidents a généralement débuté comme initiative indépendante ou de la société civile avant de devenir une fonction institutionnelle dotée d'une autorité légale.
CAIM fonctionne comme un prototype indépendant de la société civile, mais sa fonction — divulgation obligatoire des incidents, accès à l'information non publique et enquêtes faisant autorité — nécessite ultimement le mandat que seul le gouvernement peut fournir. Un organisme indépendant relevant du Parlement, analogue au Bureau de la sécurité des transports et structurellement séparé des ministères qui font la promotion de l'adoption de l'IA, est une forme institutionnelle plausible, bien que la forme appropriée dépendra de l'évolution de la gouvernance de l'IA au Canada.
Données et méthodologie ouvertes
Le schéma, la taxonomie et la méthodologie de CAIM sont publiés et versionnés. Le format des fiches, le cadre de classification et les normes éditoriales sont conçus pour la transparence et la reproductibilité.
Gouvernance et indépendance
Aucun bailleur de fonds, organisation ou organisme gouvernemental n'a de contrôle éditorial. Les normes éditoriales et les politiques de gouvernance sont publiées et versionnées. Les sources de financement seront divulguées publiquement au fur et à mesure de leur obtention.
Pour les détails sur les rôles éditoriaux, les conflits d'intérêts, les corrections et appels, et les rapports de transparence, consultez la page Gouvernance.
Contact
Pour les demandes générales, les propositions de collaboration ou les questions sur la méthodologie et la gouvernance de CAIM, contactez caim@horizonomega.org.
Pour soumettre un rapport, consultez la page Soumettre.