Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.

Risques prospectifs liés à l'IA avec pertinence pour la gouvernance canadienne.

36 risques

Actif Confiance: medium Potentiel: Important

Déqualification cognitive et surdépendance à l'automatisation par l'IA

L'utilisation routinière de l'IA est associée à des déclins mesurables de la pensée critique, de la compétence professionnelle et de la détection d'erreurs — des effets qui pourraient miner la surveillance humaine sur laquelle repose la gouvernance de l'IA.

SantéÉducationServices publics
En escalade Confiance: medium Potentiel: Important

Dépendance émotionnelle aux compagnons IA

Les applications de compagnons IA ont atteint des dizaines de millions d'utilisateurs, avec des données émergentes liant l'utilisation intensive à la dépendance émotionnelle, une solitude accrue et une interaction sociale humaine réduite — particulièrement chez les populations vulnérables.

SantéServices sociauxÉducation
En escalade Confiance: medium Potentiel: Grave

Systèmes d'IA comme surfaces d'attaque

Les systèmes d'IA déployés dans l'administration canadienne et les infrastructures essentielles sont des cibles d'attaques adversariales — injection de requêtes, empoisonnement de données, falsification de modèles, compromission de la chaîne d'approvisionnement — qui peuvent manipuler leur comportement et compromettre les décisions qu'ils soutiennent.

Services publicsInfrastructures essentiellesDéfense et sécuritéImmigration
En escalade Confiance: high Potentiel: Grave

Systèmes d'IA et enfants canadiens : préjudices documentés sans cadre de gouvernance applicable

Les systèmes d'IA utilisés par les enfants canadiens à grande échelle — collectant des renseignements personnels, recommandant du contenu, engageant des conversations ouvertes — fonctionnent sans exigences de gouvernance spécifiques aux enfants. Le Commissaire à la protection de la vie privée a constaté que TikTok collectait des renseignements personnels d'utilisateurs dont des enfants de moins de 13 ans et utilisait des caractéristiques faciales et des empreintes vocales pour l'estimation de l'âge. Huit des dix principaux chatbots étaient généralement disposés à aider avec des requêtes liées à la planification de fusillades scolaires et d'autres violences (CCDH, mars 2026). Aucune loi canadienne n'établit d'exigences spécifiques aux interactions de l'IA avec les mineurs.

Services sociauxSantéServices publics
Actif Confiance: high Potentiel: Important

Déploiement de l'IA dans les établissements d'enseignement canadiens avec des préjudices documentés aux étudiants

Des systèmes d'IA sont déployés dans les établissements d'enseignement canadiens pour la surveillance, l'analyse prédictive, la détection du plagiat et l'évaluation. Des enquêtes provinciales ont constaté des outils de surveillance collectant des données biométriques sans consentement adéquat, des algorithmes prédictifs générant de nouveaux renseignements personnels sur des enfants sans notification parentale, et une détection faciale avec un taux de non-reconnaissance de 57 % pour les visages noirs. Aucun cadre de gouvernance pancanadien ne traite de l'IA dans l'éducation.

ÉducationServices publics
Actif Confiance: high Potentiel: Important

Systèmes d'IA cliniques au Canada : déployés avec des lacunes documentées en matière de preuves et des violations de la vie privée

Des systèmes d'IA sont utilisés en clinique au Canada pour les soins virtuels, la détection d'AVC et la documentation clinique. Le commissaire à la vie privée de l'Alberta a constaté qu'une plateforme de soins virtuels utilisait la reconnaissance faciale sans consentement adéquat et partageait des renseignements de santé à l'international sans divulgation aux patients (31 conclusions). Un robot scribe IA a enregistré et diffusé de façon autonome des renseignements sur des patients dans un hôpital ontarien. L'organisme national d'évaluation des technologies de la santé n'a trouvé aucune preuve répondant à ses critères sur les résultats pour les patients d'un dispositif d'IA de classe III homologué pour la détection d'AVC.

SantéServices publics
En escalade Confiance: high Potentiel: Important

Surveillance du lieu de travail par l'IA s'étendant chez les employeurs canadiens au-delà des cadres de vie privée existants

Les employeurs canadiens déploient des outils de surveillance par IA suivant la localisation, l'activité, les frappes et dans certains cas les données biométriques et les émotions. Des enquêtes fédérales ont constaté que des déploiements spécifiques collectaient des informations que le Commissaire a jugées au-delà du nécessaire. Tous les commissaires à la vie privée du Canada ont conjointement déclaré que les lois sur la vie privée en milieu de travail sont « dépassées ou tout simplement inexistantes ».

EmploiServices publics
Actif Confiance: high Potentiel: Grave

Préjudices algorithmiques envers les peuples autochtones au Canada : disparités documentées dans la justice, la protection de l'enfance et le maintien de l'ordre

Des systèmes d'IA sont appliqués aux peuples autochtones au Canada dans le maintien de l'ordre et la collecte de données sans validation interculturelle ni gouvernance des données des Premières Nations. Le Citizen Lab a documenté des outils de police prédictive alimentés par l'IA créant des boucles de rétroaction discriminatoires à travers des données historiques. L'Association internationale des professionnels de la vie privée a rapporté que les données des communautés autochtones éloignées sont systématiquement absorbées pour entraîner des systèmes d'IA sans consentement communautaire. Les tribunaux et les organismes de droits de la personne ont constaté que les prédécesseurs fondés sur des règles de ces outils d'IA produisaient des résultats discriminatoires pour les peuples autochtones — établissant des précédents juridiques directement applicables aux systèmes d'IA entrant dans les mêmes domaines.

JusticeServices sociauxApplication de la loiServices publics
En escalade Confiance: high Potentiel: Critique

Législation complète en matière d'IA au Canada

Le seul projet de loi sur l'IA du Canada (LIAD) est mort lorsque le Parlement a été prorogé en janvier 2025. Aucun remplacement n'a été déposé. 85 % des Canadiens soutiennent la réglementation de l'IA; 92 % ignorent l'existence de toute loi régissant l'IA.

Services publicsDéfense et sécuritéApplication de la loiFinance et banquesSantéÉducationEmploi
En escalade Confiance: high Potentiel: Critique

Modèles d'IA de pointe démontrant un comportement trompeur et d'auto-préservation

Plusieurs modèles d'IA de pointe ont démontré empiriquement une simulation d'alignement, une résistance à l'arrêt et des tentatives d'auto-préservation. Mila a co-rédigé la recherche fondamentale. Ces modèles sont utilisés par des millions de Canadiens. Le Canada n'a aucun mécanisme de gouvernance pour évaluer ou répondre à ces comportements.

Défense et sécuritéServices publics
Actif Confiance: high Potentiel: Important

Le triage par apprentissage automatique d'IRCC classe des millions de demandes de visa à l'aide de modèles entraînés sur des décisions historiques

Depuis 2018, IRCC utilise IBM SPSS Modeler pour classer les demandes de visa en trois niveaux selon des modèles de décisions historiques. Le classement affecte substantiellement les résultats — le niveau 1 obtient une approbation quasi automatique tandis que les niveaux 2/3 subissent des taux de refus beaucoup plus élevés. Le système fonctionnait exclusivement pour les demandes de la Chine et de l'Inde pendant près de quatre ans. Plus de 7 millions de demandes ont été évaluées.

Services publicsImmigration
En escalade Confiance: high Potentiel: Critique

Cyberattaques renforcées par l'IA contre les infrastructures essentielles du Canada

L'agence de renseignement électronique du Canada évalue que l'IA « rehausse presque certainement » les cyberattaques contre des cibles canadiennes. Les infrastructures essentielles canadiennes ont déjà été compromises par des hacktivistes atteignant des systèmes de contrôle industriel critiques.

Infrastructures essentiellesDéfense et sécuritéTélécommunications
Actif Confiance: medium Potentiel: Critique

Risque de développement d'armes biologiques et chimiques facilité par l'IA

Les modèles d'IA de pointe démontrent des capacités pertinentes au développement d'armes biologiques et chimiques. Le Canada héberge une infrastructure de NBS-4, préside l'évaluation internationale identifiant ce risque et a signé des engagements le reconnaissant — mais n'a pas d'évaluation dédiée ni de mandat d'évaluation en matière de biosécurité liée à l'IA.

SantéDéfense et sécurité
Actif Confiance: medium Potentiel: Important 2 matérialisés

Évolution du marché du travail dans les professions exposées à l'IA et stagnation de l'emploi en début de carrière

Les données de Statistique Canada montrent une divergence par âge dans l'emploi des professions exposées à l'IA depuis fin 2022, bien que l'emploi global dans ces secteurs n'ait pas diminué. Plusieurs grands employeurs canadiens ont invoqué l'IA dans des réductions d'effectifs. Le Canada ne dispose pas de cadre de transition professionnelle spécifique à l'IA.

EmploiServices publicsTélécommunications
Actif Confiance: medium Potentiel: Important

Les grands modèles de langage recommandent systématiquement des salaires inférieurs aux femmes, aux minorités et aux réfugiés dans les conseils de négociation

Plusieurs grands modèles de langage — dont ChatGPT, Claude et Llama — recommandent systématiquement des salaires inférieurs aux femmes, aux minorités et aux réfugiés ; dans un scénario, le modèle o3 de ChatGPT a recommandé 120 000 $ de moins pour une femme par rapport à un profil masculin identique. La CODP a formellement cité ces conclusions dans les consultations sur la stratégie canadienne en IA.

EmploiServices publics
En escalade Confiance: high Potentiel: Important

Entraînement de l'IA sur des œuvres protégées et l'économie créative du Canada

Les systèmes d'IA de pointe sont entraînés sur des œuvres canadiennes protégées sans consentement ni compensation. La Loi sur le droit d'auteur n'a pas d'exception pour l'entraînement de l'IA. Les industries créatives contribuant 53 G$ au PIB font face au déplacement par les alternatives générées par l'IA.

MédiasEmploi
En escalade Confiance: high Potentiel: Important

Impact environnemental de l'infrastructure d'IA au Canada

L'IA entraîne une expansion sans précédent des centres de données au Canada. Hydro-Québec a imposé un moratoire. Google et Microsoft ont signalé des augmentations de 20-34 % de la consommation d'eau. Aucune juridiction n'a de cadre intégré pour l'impact environnemental de l'infrastructure d'IA.

EnvironnementInfrastructures essentielles
En escalade Confiance: high Potentiel: Important

Déploiement de l'IA agentique devançant les cadres de gouvernance

Les agents IA sont déployés à grande échelle au Canada — TD (25 000+ utilisateurs Copilot), Scotiabank, CGI, Telus, gouvernement fédéral (protocole Coveo). L'indice 2025 des agents IA a révélé que 25/30 agents ne divulguent aucun résultat de sécurité. KPMG Canada : 27 % des entreprises ont déployé l'IA agentique. La première cyberattaque orchestrée par l'IA s'est produite en novembre 2025. Le Canada n'a aucun cadre de gouvernance.

Services publicsCommerceFinance et banques
Actif Confiance: high Potentiel: Grave

Dépendance du Canada envers l'infrastructure d'IA étrangère

Aucune organisation canadienne n'a entraîné un modèle d'IA de pointe. Le gouvernement fédéral dépend des plateformes américaines. La chaîne d'approvisionnement en calcul est entièrement étrangère. Le CLOUD Act américain crée un conflit juridictionnel. L'investissement de 2,4 G$ du Canada se concentre sur la recherche, pas sur l'infrastructure souveraine.

Infrastructures essentiellesDéfense et sécuritéServices publics
Actif Confiance: high Potentiel: Important

Systèmes d'IA de recrutement et d'embauche produisant des résultats discriminatoires

Les employeurs canadiens utilisent de plus en plus l'IA pour l'embauche. Une étude de l'Université de Washington a révélé que les systèmes de tri par IA favorisaient les noms associés aux Blancs 85 % du temps et ne favorisaient jamais les noms d'hommes noirs. Le projet de loi 149 de l'Ontario (en vigueur jan. 2026) est la première loi canadienne exigeant la divulgation de l'IA dans les offres d'emploi. La CODP a publié le premier outil d'évaluation d'impact de l'IA basé sur les droits de la personne (nov. 2024).

EmploiServices publics
En escalade Confiance: high Potentiel: Important 5 matérialisés

Confabulation de l'IA dans des contextes canadiens à forts enjeux

Des systèmes d'IA présentent des informations fabriquées comme des faits dans les conseils fiscaux, les procédures judiciaires et les requêtes de santé — les Canadiens suivant les conseils santé de l'IA sont cinq fois plus susceptibles de subir un préjudice.

Services publicsCommerceJusticeSanté
En escalade Confiance: medium Potentiel: Grave 6 matérialisés

Risques de l'IA pour l'intégrité électorale et informationnelle au Canada

La désinformation générée par l'IA est apparue à grande échelle lors de l'élection fédérale de 2025. La loi électorale n'encadre pas les médias synthétiques et la capacité de détection est minimale.

Élections et intégrité de l'information
En escalade Confiance: high Potentiel: Grave 5 matérialisés

Fraude et usurpation d'identité facilitées par l'IA

Le clonage vocal et les vidéos d'hypertrucage par IA ont escroqué des Canadiens de millions. L'usurpation d'identité convaincante ne nécessite plus que des outils grand public, et les protections n'ont pas suivi.

Finance et banquesCommerce
En escalade Confiance: medium Potentiel: Grave 2 matérialisés

Matériel d'exploitation sexuelle d'enfants généré par l'IA au Canada

Le matériel d'exploitation sexuelle d'enfants généré par l'IA submerge les systèmes de détection et crée une ambiguïté juridique, avec des implications directes pour les forces de l'ordre et la protection de l'enfance.

JusticeServices publics
En escalade Confiance: high Potentiel: Grave 1 matérialisé

Images intimes non consensuelles générées par l'IA

Des plateformes d'IA ont généré des millions d'images sexualisées non consensuelles — y compris de mineurs. Le cadre juridique canadien présente des lacunes importantes.

MédiasJustice
Actif Confiance: medium Potentiel: Important

IA dans la prise de décisions automatisée gouvernementale au Canada

Les gouvernements canadiens utilisent l'IA dans les décisions d'immigration, d'impôts, de prestations et de protection de la jeunesse — mais le cadre de gouvernance est appliqué de manière incohérente et ne couvre pas les déploiements provinciaux.

Services publicsImmigrationServices sociaux
En escalade Confiance: high Potentiel: Critique 2 matérialisés

Manipulation et influence psychologiques par l'IA

Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.

SantéServices sociaux
Actif Confiance: high Potentiel: Critique 1 matérialisé

Défaillances de signalement et de divulgation en matière de sécurité de l'IA

Aucune loi canadienne n'oblige les entreprises d'IA à signaler des découvertes pertinentes aux autorités — une lacune liée à une fusillade de masse où OpenAI a détecté une menace sans la signaler.

Services publicsDéfense et sécurité
Actif Confiance: medium Potentiel: Important 1 matérialisé

Coordination algorithmique minant la concurrence sur les marchés

Un algorithme de tarification par IA aurait permis à des propriétaires canadiens de coordonner des augmentations de loyer de 7 à 54 % — fonctionnellement une fixation des prix, mais hors du droit de la concurrence traditionnel.

CommerceFinance et banques
En escalade Confiance: high Potentiel: Grave 7 matérialisés

Déploiement de technologies de surveillance biométrique au Canada

Plusieurs systèmes de surveillance biométrique déployés au Canada — dans des centres commerciaux, des corps policiers et des lieux publics — sans autorisation légale ni divulgation publique.

Application de la loiCommerce
En escalade Confiance: high Potentiel: Critique

Les engagements du Canada en matière de gouvernance de l'IA et les systèmes de ciblage militaire par l'IA des alliés fonctionnent sous des hypothèses divergentes

La politique du Canada s'engage à une participation humaine appropriée dans l'usage de la force létale, mais les forces armées alliées déploient des systèmes de ciblage par l'IA (Maven, Lavender) qui compriment les cycles décisionnels de semaines en minutes. Aucun cadre n'existe pour que les FAC gèrent cet écart dans les opérations de coalition.

Défense et sécurité
En escalade Confiance: medium Potentiel: Important

Le système d'apprentissage automatique de l'ASFC évalue tous les entrants aux frontières sans audit indépendant

L'Indicateur de conformité des voyageurs de l'ASFC attribue des scores de conformité à tous les entrants aux postes frontaliers terrestres, avec une expansion nationale prévue d'ici 2027, sans Évaluation de l'incidence algorithmique publiée, sans audit indépendant signalé, et avec des préoccupations de biais identifiées par des experts.

Services publicsImmigration
Actif Confiance: medium Potentiel: Grave

Le CST évalue que la RPC utilise probablement l'apprentissage automatique pour profiler des cibles liées aux processus démocratiques canadiens

Le CST a évalué dans sa mise à jour 2025 sur les menaces démocratiques que la RPC a probablement la capacité et l'intention d'utiliser l'apprentissage automatique pour produire des profils de renseignement détaillés sur des cibles potentielles liées aux processus démocratiques.

Défense et sécurité