Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
L'utilisation routinière de l'IA est associée à des déclins mesurables de la pensée critique, de la compétence professionnelle et de la détection d'erreurs — des effets qui pourraient miner la surveillance humaine sur laquelle repose la gouvernance de l'IA.
SantéÉducationServices publics
En escalade Confiance: medium Potentiel: Important
Les applications de compagnons IA ont atteint des dizaines de millions d'utilisateurs, avec des données émergentes liant l'utilisation intensive à la dépendance émotionnelle, une solitude accrue et une interaction sociale humaine réduite — particulièrement chez les populations vulnérables.
Les systèmes d'IA déployés dans l'administration canadienne et les infrastructures essentielles sont des cibles d'attaques adversariales — injection de requêtes, empoisonnement de données, falsification de modèles, compromission de la chaîne d'approvisionnement — qui peuvent manipuler leur comportement et compromettre les décisions qu'ils soutiennent.
Services publicsInfrastructures essentiellesDéfense et sécuritéImmigration
Les systèmes d'IA utilisés par les enfants canadiens à grande échelle — collectant des renseignements personnels, recommandant du contenu, engageant des conversations ouvertes — fonctionnent sans exigences de gouvernance spécifiques aux enfants. Le Commissaire à la protection de la vie privée a constaté que TikTok collectait des renseignements personnels d'utilisateurs dont des enfants de moins de 13 ans et utilisait des caractéristiques faciales et des empreintes vocales pour l'estimation de l'âge. Huit des dix principaux chatbots étaient généralement disposés à aider avec des requêtes liées à la planification de fusillades scolaires et d'autres violences (CCDH, mars 2026). Aucune loi canadienne n'établit d'exigences spécifiques aux interactions de l'IA avec les mineurs.
Des systèmes d'IA sont déployés dans les établissements d'enseignement canadiens pour la surveillance, l'analyse prédictive, la détection du plagiat et l'évaluation. Des enquêtes provinciales ont constaté des outils de surveillance collectant des données biométriques sans consentement adéquat, des algorithmes prédictifs générant de nouveaux renseignements personnels sur des enfants sans notification parentale, et une détection faciale avec un taux de non-reconnaissance de 57 % pour les visages noirs. Aucun cadre de gouvernance pancanadien ne traite de l'IA dans l'éducation.
Des systèmes d'IA sont utilisés en clinique au Canada pour les soins virtuels, la détection d'AVC et la documentation clinique. Le commissaire à la vie privée de l'Alberta a constaté qu'une plateforme de soins virtuels utilisait la reconnaissance faciale sans consentement adéquat et partageait des renseignements de santé à l'international sans divulgation aux patients (31 conclusions). Un robot scribe IA a enregistré et diffusé de façon autonome des renseignements sur des patients dans un hôpital ontarien. L'organisme national d'évaluation des technologies de la santé n'a trouvé aucune preuve répondant à ses critères sur les résultats pour les patients d'un dispositif d'IA de classe III homologué pour la détection d'AVC.
Les employeurs canadiens déploient des outils de surveillance par IA suivant la localisation, l'activité, les frappes et dans certains cas les données biométriques et les émotions. Des enquêtes fédérales ont constaté que des déploiements spécifiques collectaient des informations que le Commissaire a jugées au-delà du nécessaire. Tous les commissaires à la vie privée du Canada ont conjointement déclaré que les lois sur la vie privée en milieu de travail sont « dépassées ou tout simplement inexistantes ».
Des systèmes d'IA sont appliqués aux peuples autochtones au Canada dans le maintien de l'ordre et la collecte de données sans validation interculturelle ni gouvernance des données des Premières Nations. Le Citizen Lab a documenté des outils de police prédictive alimentés par l'IA créant des boucles de rétroaction discriminatoires à travers des données historiques. L'Association internationale des professionnels de la vie privée a rapporté que les données des communautés autochtones éloignées sont systématiquement absorbées pour entraîner des systèmes d'IA sans consentement communautaire. Les tribunaux et les organismes de droits de la personne ont constaté que les prédécesseurs fondés sur des règles de ces outils d'IA produisaient des résultats discriminatoires pour les peuples autochtones — établissant des précédents juridiques directement applicables aux systèmes d'IA entrant dans les mêmes domaines.
JusticeServices sociauxApplication de la loiServices publics
Le seul projet de loi sur l'IA du Canada (LIAD) est mort lorsque le Parlement a été prorogé en janvier 2025. Aucun remplacement n'a été déposé. 85 % des Canadiens soutiennent la réglementation de l'IA; 92 % ignorent l'existence de toute loi régissant l'IA.
Services publicsDéfense et sécuritéApplication de la loiFinance et banquesSantéÉducationEmploi
Plusieurs modèles d'IA de pointe ont démontré empiriquement une simulation d'alignement, une résistance à l'arrêt et des tentatives d'auto-préservation. Mila a co-rédigé la recherche fondamentale. Ces modèles sont utilisés par des millions de Canadiens. Le Canada n'a aucun mécanisme de gouvernance pour évaluer ou répondre à ces comportements.
Depuis 2018, IRCC utilise IBM SPSS Modeler pour classer les demandes de visa en trois niveaux selon des modèles de décisions historiques. Le classement affecte substantiellement les résultats — le niveau 1 obtient une approbation quasi automatique tandis que les niveaux 2/3 subissent des taux de refus beaucoup plus élevés. Le système fonctionnait exclusivement pour les demandes de la Chine et de l'Inde pendant près de quatre ans. Plus de 7 millions de demandes ont été évaluées.
L'agence de renseignement électronique du Canada évalue que l'IA « rehausse presque certainement » les cyberattaques contre des cibles canadiennes. Les infrastructures essentielles canadiennes ont déjà été compromises par des hacktivistes atteignant des systèmes de contrôle industriel critiques.
Infrastructures essentiellesDéfense et sécuritéTélécommunications
Les modèles d'IA de pointe démontrent des capacités pertinentes au développement d'armes biologiques et chimiques. Le Canada héberge une infrastructure de NBS-4, préside l'évaluation internationale identifiant ce risque et a signé des engagements le reconnaissant — mais n'a pas d'évaluation dédiée ni de mandat d'évaluation en matière de biosécurité liée à l'IA.
SantéDéfense et sécurité
Actif Confiance: medium Potentiel: Important 2 matérialisés
Les données de Statistique Canada montrent une divergence par âge dans l'emploi des professions exposées à l'IA depuis fin 2022, bien que l'emploi global dans ces secteurs n'ait pas diminué. Plusieurs grands employeurs canadiens ont invoqué l'IA dans des réductions d'effectifs. Le Canada ne dispose pas de cadre de transition professionnelle spécifique à l'IA.
Plusieurs grands modèles de langage — dont ChatGPT, Claude et Llama — recommandent systématiquement des salaires inférieurs aux femmes, aux minorités et aux réfugiés ; dans un scénario, le modèle o3 de ChatGPT a recommandé 120 000 $ de moins pour une femme par rapport à un profil masculin identique. La CODP a formellement cité ces conclusions dans les consultations sur la stratégie canadienne en IA.
Les systèmes d'IA de pointe sont entraînés sur des œuvres canadiennes protégées sans consentement ni compensation. La Loi sur le droit d'auteur n'a pas d'exception pour l'entraînement de l'IA. Les industries créatives contribuant 53 G$ au PIB font face au déplacement par les alternatives générées par l'IA.
L'IA entraîne une expansion sans précédent des centres de données au Canada. Hydro-Québec a imposé un moratoire. Google et Microsoft ont signalé des augmentations de 20-34 % de la consommation d'eau. Aucune juridiction n'a de cadre intégré pour l'impact environnemental de l'infrastructure d'IA.
Les agents IA sont déployés à grande échelle au Canada — TD (25 000+ utilisateurs Copilot), Scotiabank, CGI, Telus, gouvernement fédéral (protocole Coveo). L'indice 2025 des agents IA a révélé que 25/30 agents ne divulguent aucun résultat de sécurité. KPMG Canada : 27 % des entreprises ont déployé l'IA agentique. La première cyberattaque orchestrée par l'IA s'est produite en novembre 2025. Le Canada n'a aucun cadre de gouvernance.
Aucune organisation canadienne n'a entraîné un modèle d'IA de pointe. Le gouvernement fédéral dépend des plateformes américaines. La chaîne d'approvisionnement en calcul est entièrement étrangère. Le CLOUD Act américain crée un conflit juridictionnel. L'investissement de 2,4 G$ du Canada se concentre sur la recherche, pas sur l'infrastructure souveraine.
Infrastructures essentiellesDéfense et sécuritéServices publics
Les employeurs canadiens utilisent de plus en plus l'IA pour l'embauche. Une étude de l'Université de Washington a révélé que les systèmes de tri par IA favorisaient les noms associés aux Blancs 85 % du temps et ne favorisaient jamais les noms d'hommes noirs. Le projet de loi 149 de l'Ontario (en vigueur jan. 2026) est la première loi canadienne exigeant la divulgation de l'IA dans les offres d'emploi. La CODP a publié le premier outil d'évaluation d'impact de l'IA basé sur les droits de la personne (nov. 2024).
EmploiServices publics
En escalade Confiance: high Potentiel: Important 5 matérialisés
Des systèmes d'IA présentent des informations fabriquées comme des faits dans les conseils fiscaux, les procédures judiciaires et les requêtes de santé — les Canadiens suivant les conseils santé de l'IA sont cinq fois plus susceptibles de subir un préjudice.
Services publicsCommerceJusticeSanté
En escalade Confiance: medium Potentiel: Grave 6 matérialisés
La désinformation générée par l'IA est apparue à grande échelle lors de l'élection fédérale de 2025. La loi électorale n'encadre pas les médias synthétiques et la capacité de détection est minimale.
Élections et intégrité de l'information
En escalade Confiance: high Potentiel: Grave 5 matérialisés
Le clonage vocal et les vidéos d'hypertrucage par IA ont escroqué des Canadiens de millions. L'usurpation d'identité convaincante ne nécessite plus que des outils grand public, et les protections n'ont pas suivi.
Finance et banquesCommerce
En escalade Confiance: medium Potentiel: Grave 2 matérialisés
Le matériel d'exploitation sexuelle d'enfants généré par l'IA submerge les systèmes de détection et crée une ambiguïté juridique, avec des implications directes pour les forces de l'ordre et la protection de l'enfance.
JusticeServices publics
En escalade Confiance: high Potentiel: Grave 1 matérialisé
Des plateformes d'IA ont généré des millions d'images sexualisées non consensuelles — y compris de mineurs. Le cadre juridique canadien présente des lacunes importantes.
Les gouvernements canadiens utilisent l'IA dans les décisions d'immigration, d'impôts, de prestations et de protection de la jeunesse — mais le cadre de gouvernance est appliqué de manière incohérente et ne couvre pas les déploiements provinciaux.
Services publicsImmigrationServices sociaux
En escalade Confiance: medium Potentiel: Important 1 matérialisé
Les systèmes d'IA désavantagent systématiquement les communautés francophones et de langues autochtones — supprimant excessivement le contenu en français et offrant un service inférieur.
MédiasImmigrationServices publics
En escalade Confiance: high Potentiel: Critique 2 matérialisés
Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.
SantéServices sociaux
Actif Confiance: high Potentiel: Critique 1 matérialisé
Aucune loi canadienne n'oblige les entreprises d'IA à signaler des découvertes pertinentes aux autorités — une lacune liée à une fusillade de masse où OpenAI a détecté une menace sans la signaler.
Services publicsDéfense et sécurité
Actif Confiance: medium Potentiel: Important 1 matérialisé
Un algorithme de tarification par IA aurait permis à des propriétaires canadiens de coordonner des augmentations de loyer de 7 à 54 % — fonctionnellement une fixation des prix, mais hors du droit de la concurrence traditionnel.
CommerceFinance et banques
Actif Confiance: medium Potentiel: Important 1 matérialisé
Les modèles fondamentaux entraînés sur des données canadiennes créent des enregistrements permanents et incorrectibles, générant de fausses affirmations sur de vraies personnes — hors de portée des lois actuelles.
La police de Montréal a acquis une vidéosurveillance IA avec détection intégrée de l'ethnicité et des émotions — activable par configuration, sans divulgation publique ni évaluation d'impact.
Application de la loi
En escalade Confiance: high Potentiel: Grave 7 matérialisés
Plusieurs systèmes de surveillance biométrique déployés au Canada — dans des centres commerciaux, des corps policiers et des lieux publics — sans autorisation légale ni divulgation publique.
La politique du Canada s'engage à une participation humaine appropriée dans l'usage de la force létale, mais les forces armées alliées déploient des systèmes de ciblage par l'IA (Maven, Lavender) qui compriment les cycles décisionnels de semaines en minutes. Aucun cadre n'existe pour que les FAC gèrent cet écart dans les opérations de coalition.
Défense et sécurité
En escalade Confiance: medium Potentiel: Important
L'Indicateur de conformité des voyageurs de l'ASFC attribue des scores de conformité à tous les entrants aux postes frontaliers terrestres, avec une expansion nationale prévue d'ici 2027, sans Évaluation de l'incidence algorithmique publiée, sans audit indépendant signalé, et avec des préoccupations de biais identifiées par des experts.
Le CST a évalué dans sa mise à jour 2025 sur les menaces démocratiques que la RPC a probablement la capacité et l'intention d'utiliser l'apprentissage automatique pour produire des profils de renseignement détaillés sur des cibles potentielles liées aux processus démocratiques.
Défense et sécurité
Aucun risque ne correspond aux filtres sélectionnés.