Ce site est un prototype en cours de développement.
CAIM documente les incidents et risques liés à l'IA ayant un lien avec le Canada à travers un pipeline en six étapes — de la réception à la publication et à la synthèse. Chaque fiche porte un statut de vérification à cinq niveaux, des mesures d'atténuation spécifiques, et des étiquettes taxonomiques alignées sur les cadres de l'OCDE et de l'AIID pour l'interopérabilité internationale.

Portée

Le sujet de CAIM est les risques liés à l'IA — les conditions dans lesquelles les systèmes d'IA créent un chemin réaliste vers un préjudice. Le moniteur documente ces risques à travers deux types de fiches :

  • Fiches d'incidents : documentent des événements discrets où un risque lié à l'IA a produit un préjudice ou un quasi-préjudice. Un incident est une preuve directe qu'un risque est réel.
  • Fiches de risques : documentent des conditions structurelles qui créent des chemins réalistes vers un préjudice — que le préjudice se soit déjà produit ou non. Une fiche de risque rend visible le risque sous-jacent, et pas seulement ses conséquences.

Les risques et les incidents sont des choses de nature différente : un risque est une condition persistante ; un incident est un événement discret. Un même risque peut produire de nombreux incidents au fil du temps, et le risque persiste même après que des incidents se sont produits — tout comme une intersection dangereuse reste un risque après chaque collision. Le lien materialized_from sur les fiches d'incidents capture cette relation probante. Ce modèle suit celui de la sécurité aérienne, où les enquêtes sur les accidents et les signalements volontaires de risques alimentent le même objectif de sécurité.

Quels systèmes sont dans la portée

Un système d'IA est un système qui utilise l'apprentissage automatique, les réseaux de neurones, les modèles de fondation, ou des systèmes construits sur ceux-ci. Cela comprend les modèles statistiques entraînés sur des données, l'apprentissage profond, les modèles génératifs et les systèmes hybrides incorporant de tels composants.

Les systèmes dont le comportement est entièrement spécifié par des règles rédigées par des humains — instruments de notation déterministes, questionnaires structurés, automatisation à base de règles, outils d'extraction de données — sont hors portée, même lorsqu'ils sont décrits comme « algorithmiques » ou « IA ».

Cette définition sera révisée à mesure que la technologie évolue.

Ce qui est hors portée

  • Les systèmes à base de règles, instruments de notation déterministes, questionnaires structurés et outils d'extraction de données — même lorsqu'ils sont déployés à grande échelle dans des décisions conséquentes
  • L'automatisation simple (p. ex., publipostage, macros de tableur, déclencheurs de flux de travail basiques) où le système n'a aucune fonction de prise de décision et aucun chemin plausible vers un préjudice
  • Les risques purement théoriques sans preuve documentée d'une condition précurseur
  • Les événements où l'IA est mentionnée de manière accessoire mais n'a joué aucun rôle matériel dans le chemin vers le préjudice

Incidents

Un événement ou une série d'événements dans lesquels le développement, le déploiement ou l'utilisation d'un système d'IA est plausiblement impliqué dans un préjudice ou un quasi-préjudice. Cela inclut l'utilisation abusive matériellement facilitée par l'IA.

Risques

Une condition de risque crédible, une défaillance précurseur ou un schéma de quasi-incident indiquant un chemin réaliste vers un préjudice, même si le préjudice a été évité ou n'a pas encore été observé. Les risques sont inclus parce que les quasi-incidents sont souvent les cas les plus informatifs pour la prévention.

Les fiches de risques exigent des preuves documentées de la condition précurseur — une constatation réglementaire, une enquête, une évaluation technique publiée ou l'équivalent. Une lacune politique seule ne suffit pas ; il doit y avoir des preuves que la lacune a créé des conditions où le préjudice est plausible et imminent.

Implication matérielle de l'IA

Un cas est dans la portée lorsqu'un système d'IA est un facteur significatif dans le chemin vers le préjudice, et non simplement accessoire. Le critère est de savoir si le comportement, la conception, le déploiement ou la gouvernance du système d'IA a matériellement façonné le résultat.

Cas limites — exemples pratiques :

ScénarioDans la portée?Raisonnement
Un hypertrucage généré par l'IA utilisé pour usurper l'identité d'un PDG et autoriser un virement frauduleux Oui La capacité de l'IA (clonage vocal / synthèse d'image) est le facteur déterminant — la fraude n'aurait pas pu se produire à ce niveau de fidélité sans elle
Un courriel d'hameçonnage rédigé avec ChatGPT Généralement non L'IA a amélioré la grammaire du courriel, mais un humain a conçu et exécuté la fraude. L'IA est accessoire au chemin vers le préjudice
Un hôpital déploie un outil de triage par IA qui retarde les soins d'un patient qui subit ensuite un préjudice Oui La classification du système d'IA a directement influencé le parcours de décision clinique
Le système de dossiers de santé électroniques d'un hôpital tombe en panne, retardant les soins Non Défaillance logicielle, mais aucun composant d'IA ou de prise de décision automatisée dans le chemin vers le préjudice
Un employeur utilise un outil de présélection de CV par IA qui désavantage systématiquement les candidats en situation de handicap Oui Les biais appris du système d'IA sont le mécanisme de discrimination
Le service des RH d'un employeur applique une politique manuelle qui désavantage les candidats en situation de handicap Non La discrimination s'est produite, mais aucun système d'IA ou de prise de décision automatisée n'était impliqué
Un organisme gouvernemental utilise un questionnaire à pointage fixe pour évaluer le risque, et l'outil produit des résultats biaisés Non Un instrument de notation déterministe avec des règles rédigées par des humains. Le préjudice est réel, mais le système n'est pas de l'IA — son comportement est entièrement spécifié par sa conception

Lien avec le Canada

Un cas a un lien avec le Canada si un ou plusieurs des critères suivants s'appliquent :

  • L'incident s'est produit au Canada
  • Des personnes ou des institutions au Canada ont été touchées
  • Une organisation canadienne a développé, déployé, exploité ou matériellement facilité le système
  • Il y a eu un impact matériel au Canada (économique, sécuritaire, droits, infrastructure ou gouvernance)
  • Le cas a une pertinence réglementaire ou politique directe pour les juridictions canadiennes
  • Un événement international avec des implications documentées pour les systèmes, les populations ou la gouvernance du Canada

Calibration de la sévérité

CAIM utilise une échelle de sévérité ordinale. Pour assurer la cohérence entre les éditeurs et dans le temps, chaque niveau est ancré par des critères opérationnels et des exemples de référence.

NiveauCritèresExemples de référence
Mineur Préjudice limité, facilement réversible, affectant un petit nombre d'individus. Aucune conséquence durable. Rapidement corrigé. Un chatbot donne des informations incorrectes mais non dangereuses ; un système de recommandation affiche brièvement des résultats non pertinents
Modéré Préjudice significatif, récupérable mais ayant nécessité des efforts pour être corrigé. A affecté un groupe défini ou a créé des coûts mesurables. Un outil de recrutement par IA élimine des candidats qualifiés ; des essais de véhicules autonomes se déroulent sans cadre de sécurité complet
Important Préjudice substantiel, difficile à inverser. A affecté un grand groupe, a créé des risques systémiques, ou a déclenché une intervention réglementaire. Reconnaissance faciale déployée de manière couverte à l'échelle de la population ; de la désinformation par hypertrucage cible l'intégrité électorale
Sévère Préjudice grave pour de nombreux individus ou institutions. Impacts financiers, psychologiques ou sur les droits documentés à grande échelle. A nécessité une réponse institutionnelle majeure. Du MESE généré par l'IA en volume nécessitant une intervention policière ; des défaillances de chatbots d'IA causant des préjudices psychologiques documentés à grande échelle
Critique Préjudice généralisé, potentiellement irréversible. Perte de vie, violations des droits à grande échelle ou défaillance institutionnelle systémique. Armes autonomes causant des victimes civiles ; défaillance d'un système d'IA causant l'effondrement d'une infrastructure essentielle (aucun exemple canadien à ce jour)

Lorsque la sévérité est incertaine, les fiches utilisent « inconnu » plutôt que de deviner. La sévérité peut être relevée ou abaissée à mesure que de nouvelles informations émergent ; tous les changements sont documentés dans le journal des modifications.

Portée de l'impact

La portée de l'impact décrit l'échelle des personnes ou entités affectées. Comme la sévérité, elle utilise une échelle ordinale avec « inconnu » permis.

NiveauCritèresExemples de référence
Individuel Un ou un petit nombre d'individus identifiés directement affectés. Une personne se voit refuser une prestation par un système automatisé ; un chatbot donne des conseils nuisibles à un utilisateur
Groupe Un groupe défini de personnes affectées — typiquement des dizaines à des centaines partageant une caractéristique ou un contexte commun. Des candidats éliminés par un outil de recrutement biaisé lors d'un cycle d'embauche ; des patients d'un hôpital affectés par une erreur de diagnostic par IA
Organisation Les opérations ou la main-d'œuvre d'une organisation entière matériellement affectées. Une brèche du système d'IA d'une entreprise exposant toutes les données des employés ; un flux de travail automatisé d'une agence échouant à l'échelle du département
Secteur Impact systémique à travers une industrie ou un secteur gouvernemental, affectant plusieurs organisations ou les normes opérationnelles du secteur. Des outils de recrutement par IA créant des schémas de discrimination à l'échelle du secteur ; des lacunes réglementaires affectant tous les déploiements d'IA en santé au niveau national
Population Impact à l'échelle de la société ou affectant une grande partie de la population canadienne — ou créant les conditions pour le faire. Surveillance de masse par IA sans autorité légale ; désinformation électorale générée par l'IA à l'échelle nationale

Le pipeline

CAIM fonctionne à travers un pipeline structuré en six étapes.

1. Réception

Les rapports entrent par trois canaux :

  • Sources publiques : reportages médiatiques, documents officiels, dossiers judiciaires, avis de régulateurs, divulgations de fournisseurs et publications académiques.
  • Soumissions structurées : des organisations ou des individus soumettent des détails via un formulaire couvrant la chronologie, l'impact, le contexte du système d'IA et les mesures d'atténuation tentées.
  • Canal confidentiel : pour les cas sensibles nécessitant une rédaction, une protection des sources ou une divulgation coordonnée.

2. Triage

Chaque rapport est évalué selon :

  • Portée : Y a-t-il une implication matérielle de l'IA et un lien avec le Canada?
  • Classification : Est-il mieux traité comme un incident ou un risque?
  • Parcours de vérification : Quelles sources sont disponibles et quel statut de vérification est approprié?
  • Sensibilité : Le rapport contient-il des détails sensibles en matière de sécurité ou de vie privée nécessitant un traitement spécial?
  • Déduplication : Ce rapport est-il lié à une fiche existante?

3. Documentation

L'équipe éditoriale produit une fiche factuelle et compacte comprenant :

  • Un court récit neutre de ce qui s'est passé ou de ce que le risque implique
  • Dates clés et juridiction(s), y compris le palier de gouvernement ayant l'autorité réglementaire
  • Domaine et parties prenantes touchées (catégories de personnes, pas d'identités)
  • Contexte du système d'IA, dans la mesure où il peut être décrit de manière responsable
  • Préjudices observés ou quasi-préjudices
  • Une liste transparente de sources
  • Des étiquettes taxonomiques structurées
  • Une note d'atténuation : 3 à 6 contrôles qui auraient plausiblement réduit la probabilité ou l'impact, liés au chemin spécifique vers le préjudice

4. Révision

Un éditeur de vérification évalue la qualité des sources et l'exactitude factuelle. Un réviseur de sécurité gère les décisions de rédaction et la divulgation coordonnée pour les cas sensibles. Aucune fiche n'est publiée sans révision éditoriale et de sécurité.

5. Publication

Les fiches sont publiées avec une étiquette de vérification, des sources, des étiquettes taxonomiques et un numéro de version. La version 1 est archivée. Toutes les modifications subséquentes produisent de nouvelles versions avec un journal des modifications visible.

Lorsque la publication responsable nécessite un délai — par exemple, pendant qu'une vulnérabilité est corrigée — CAIM retient la fiche jusqu'à ce que la publication soit sûre, et publie des orientations défensives de haut niveau dans l'intervalle lorsque possible.

6. Corrections et synthèse

Corrections : Si une fiche est matériellement inexacte, elle est corrigée promptement et de manière transparente. Si les affirmations fondamentales ne peuvent être soutenues, les fiches peuvent être retirées avec une explication et des métadonnées de référence préservées. Les appels portent sur l'exactitude factuelle et la publication responsable.

Synthèse : CAIM examine périodiquement les fiches accumulées pour produire des bulletins de tendances et mettre à jour la bibliothèque d'atténuation. C'est là que la documentation au niveau des cas devient un apprentissage institutionnel.

Le format des fiches

Chaque fiche publiée comporte trois couches.

Couche narrative

Un récit compact et lisible :

  • Ce qui s'est passé (ou a failli se passer)
  • Dates clés et juridiction(s)
  • Qui a été touché (catégories de parties prenantes)
  • Contexte du système d'IA (ce qui peut être soutenu de manière responsable)
  • Préjudices observés ou quasi-préjudices
  • Ce qui est connu vs allégué vs incertain

Couche probante

Sourçage transparent :

  • Liste des sources avec dates et type (médiatique, officielle, judiciaire, divulgation, académique)
  • Lorsque utile, un tableau d'affirmations associant des affirmations spécifiques aux sources les appuyant et des notes de confiance

Couche structurée

Étiquettes taxonomiques permettant la recherche, le filtrage et l'analyse :

  • Domaine : finance, santé, services publics, éducation, infrastructures essentielles, élections/intégrité de l'information, etc.
  • Type de préjudice : fraude/usurpation, vie privée/exposition de données, discrimination/droits, défaillance de sécurité, cyberincident, désinformation, défaillance opérationnelle, etc.
  • Type d'implication de l'IA : défaut de développement, défaillance de déploiement, utilisation abusive, chaîne d'approvisionnement/outillage, défaillance de la supervision humaine, lacune de surveillance, etc.
  • Phase du cycle de vie : conception, entraînement, évaluation, déploiement, surveillance, réponse aux incidents
  • Sévérité et portée de l'impact : échelles ordinales calibrées avec des exemples de référence (voir ci-dessus) ; « inconnu » explicitement permis
  • Palier de juridiction : fédéral, provincial/territorial, municipal ou multi-paliers — identifiant quel palier de gouvernement a l'autorité réglementaire principale sur le système ou le domaine
  • Base du lien avec le Canada : quels critères de lien sont satisfaits

Note d'atténuation

Chaque fiche comprend 3 à 6 contrôles qui auraient plausiblement réduit la probabilité ou l'impact de l'événement, liés à ce qui s'est réellement passé dans le cas en question.

Échelle de vérification

Les fiches portent un statut de vérification pour que les lecteurs puissent toujours évaluer le degré de certitude de l'information.

StatutSignification
SignaléRapport initial crédible ; affirmations pas encore corroborées de manière indépendante
CorroboréAppuyé par plusieurs sources crédibles indépendantes
ConfirméAppuyé par une documentation primaire ou une corroboration exceptionnellement forte
ContestéUn différend crédible existe sur les affirmations fondamentales
RétractéLes affirmations fondamentales ne peuvent être soutenues ; fiche retirée avec explication

CAIM distingue ce qui est connu, ce qui est allégué et ce qui demeure incertain. Lorsque l'information est incomplète, CAIM publie ce qui est soutenable et marque explicitement ce qui est inconnu.

Vérification des fiches de risques

Pour les fiches d'incidents, l'échelle de vérification évalue la solidité des faits de l'événement. Pour les fiches de risques, elle évalue la solidité de la documentation de la condition précurseur :

  • Signalé : Une source crédible a identifié la condition de risque, mais elle n'a pas été examinée de manière indépendante — p. ex., un reportage médiatique décrivant une lacune réglementaire.
  • Corroboré : Plusieurs sources crédibles indépendantes documentent la condition — p. ex., un organisme de réglementation et des chercheurs indépendants ont identifié la même lacune ou défaillance précurseur.
  • Confirmé : Une autorité primaire a formellement documenté la condition — p. ex., une enquête officielle, un audit ou une constatation réglementaire établit la condition précurseur comme un fait.

Le statut de vérification reflète la solidité des preuves de la condition précurseur elle-même, et non une prédiction de préjudice futur. L'évaluation du risque — la plausibilité du chemin vers le préjudice et la gravité potentielle des conséquences — est un jugement éditorial distinct, énoncé de manière transparente dans le récit, fondé sur des preuves lorsque possible, et révisable à mesure que de nouvelles informations émergent. Un risque peut être « confirmé » (la condition sous-jacente est bien documentée) tandis que la gravité du risque demeure incertaine ou contestée.

Taxonomie

La taxonomie de CAIM est conçue pour être stable, interprétable et interopérable. Les fiches sont codées selon les dimensions décrites ci-dessus (domaine, type de préjudice, type d'implication de l'IA, phase du cycle de vie, sévérité, palier de juridiction, base du lien). La taxonomie est publiée et versionnée ; les changements sont documentés.

Lorsque faisable, CAIM aligne ses champs avec les cadres internationaux de signalement d'incidents — en particulier le Moniteur d'incidents de l'IA de l'OCDE et l'AI Incident Database (AIID) — pour soutenir la comparabilité et l'adoption institutionnelle.

Modèle de données

Le modèle de données de CAIM sépare les observations (niveau de base) de la classification (couches taxonomiques). Une fiche est publiable sans taxonomie appliquée. Toute classification peut évoluer indépendamment des observations sous-jacentes.

Rôles de base des entités

Chaque entité référencée dans une fiche porte un ou plusieurs rôles de base — un ensemble restreint et durable de relations organisationnelles :

  • Développeur — a construit, entraîné ou créé le système d'IA
  • Déployeur — a mis le système en utilisation opérationnelle
  • Régulateur — a enquêté, audité ou émis des conclusions
  • Partie touchée — a subi un préjudice ou a été soumise aux décisions du système
  • Signaleur — a divulgué, documenté ou signalé l'incident ou le risque

Ces rôles permettent des requêtes structurées — « tous les déployeurs », « tous les incidents avec intervention d'un régulateur » — sans dépendre de la taxonomie.

Suivi des réponses et des résultats

Les fiches suivent la boucle de rétroaction de gouvernance : ce qui a été fait en réponse, par qui, et avec quel résultat. Sur les incidents, cela suit les enquêtes, l'application de la loi, les changements de politique et les litiges. Sur les risques, cela suit l'attention de gouvernance — rapports publiés, consultations lancées, législation introduite.

Historique des évaluations

Les risques portent un historique chronologique d'évaluations, plutôt qu'un instantané unique. Chaque évaluation enregistre la date, le statut (actif, en escalade, atténué, retiré), le niveau de confiance, la sévérité potentielle, la portée et le résumé des preuves.

Cela permet l'analyse temporelle : comment ce risque a-t-il évolué ? Quels risques ont escaladé ? À quelle vitesse les risques sont-ils pris en charge ? Le fait qu'un risque ait produit des incidents est capturé séparément par les liens materialized_from sur les fiches d'incidents — le statut d'évaluation d'un risque décrit l'état de la condition sous-jacente, et non si des incidents se sont produits.

Liens unilatéraux

Toutes les relations sont déclarées d'un seul côté. Les recherches inverses sont calculées lors de la construction. Cela élimine les incohérences à mesure que le corpus grandit.

Intégrité à la construction

L'étape de construction valide le graphe complet : références de slugs, valeurs taxonomiques, parité bilingue, ordonnancement des évaluations et cohérence des relations. Les références brisées sont des erreurs de construction.

Analyse des risques systémiques

La contribution analytique la plus distinctive de CAIM est une méthodologie reliant les patterns d'incidents au niveau du déploiement aux trajectoires de risque catastrophique. C'est l'analyse de transition.

Facteurs de risque systémique

Chaque fiche est étiquetée avec des facteurs de risque systémique — des propriétés structurelles de la défaillance pertinentes à travers les échelles de risque :

FacteurCe qu'il révèle
Perte de contrôle humainLe système a opéré au-delà de la capacité de surveillance humaine
Capacité inattendueLe système a démontré un comportement hors des attentes de conception
Résistance à la correctionDes obstacles institutionnels ou techniques ont rendu la correction difficile
OpacitéLe processus de décision n'est pas interprétable
Expansion autonome de la portéeL'influence du système s'est étendue au-delà des limites prévues
Propagation en cascadeLa défaillance a déclenché d'autres défaillances
Lacune de gouvernanceAucun mécanisme n'existait pour prévenir, détecter ou répondre
Vide de responsabilitéAucune entité ne portait une responsabilité claire
Concentration du pouvoirL'incident a reflété ou accru une asymétrie de pouvoir
Dégradation épistémiqueL'incident a miné la capacité collective d'évaluer la vérité ou le risque

Modèle d'escalade

Chaque risque inclut un modèle d'escalade — l'analyse de transition pour ce risque spécifique :

  • Dépendances de gouvernance — capacités institutionnelles devant exister pour prévenir l'escalade
  • Pont catastrophique — un récit reliant le risque aux trajectoires de risque catastrophique
  • Signaux précurseurs — patterns observables indiquant que le risque pourrait escalader
  • Confiance du pont — solidité de la connexion (faible, moyenne, élevée)

Calculs inter-fiches

Lors de la construction, CAIM calcule des patterns agrégés sur tout le corpus :

  • Co-occurrence des facteurs de risque — quelles propriétés structurelles de défaillance se regroupent
  • Patterns de dépendances de gouvernance — quelles capacités institutionnelles sont le plus fréquemment absentes
  • Patterns inter-domaines — facteurs apparaissant dans 3+ domaines
  • Vélocité d'escalade — rapidité des transitions de statut des risques

Ces calculs sont exposés via le point d'accès API d'analyse systémique.

Interopérabilité

Alignement avec l'OCDE

CAIM maintient deux couches de classification sur chaque fiche : une taxonomie native CAIM (primaire, plus riche, optimisée pour les utilisateurs de politiques canadiennes) et une couche d'interopérabilité OCDE AIM (optionnelle, remplie lors de l'étiquetage éditorial). Les deux couches coexistent sans aplatissement — aucune n'est redondante. Cela suit le modèle utilisé en sécurité aérienne, où les autorités nationales maintiennent des systèmes de classification détaillés tout en les mappant aux codes internationaux pour le signalement.

Les exportations de données incluent une vue compatible OCDE qui mappe les champs CAIM au schéma de l'OCDE. Les métadonnées éditoriales de CAIM (échelle de vérification, versionnage, indicateurs de rédaction, étiquettes bilingues) sont préservées dans un espace de noms d'extension.

Alignement avec l'AIID

CAIM adopte la distinction conceptuelle de l'AIID entre incidents (événements canoniques) et rapports (documents sources individuels). Les fiches incluent des identifiants de référence croisée AIID optionnels lorsque des correspondances existent. La taxonomie de CAIM fournit une table de correspondance vers les ensembles taxonomiques de l'AIID, les étiquettes locales (étiquettes bilingues, lien avec le Canada, métadonnées éditoriales) étant maintenues séparément.

Vie privée et publication responsable

CAIM suit des mesures de protection strictes :

  • Les données personnelles des victimes sont expurgées ou exclues
  • Les cas impliquant des mineurs bénéficient d'une protection renforcée
  • Les fiches évitent le doxxing, évitent de reproduire du contenu préjudiciable inutilement et utilisent un langage centré sur la victime
  • Pour les cas sensibles en matière de sécurité, CAIM suit les normes de divulgation coordonnée : il priorise l'atténuation et la sécurité, publie des orientations défensives de haut niveau, et retient les détails habilitants jusqu'à ce que le risque soit réduit
  • CAIM ne devient pas une plateforme de harcèlement ou d'attaques réputationnelles ; les fiches sont sourcées, prudentes dans le langage, et axées sur ce qui s'est passé et ce qui peut être appris