Ce site est un prototype en cours de développement.

Conditions persistantes créant des voies crédibles de préjudice lié à l'IA au Canada.

14 risques

En escalade Confiance : high Potentiel : Important 2 matérialisés

Confabulation de l'IA dans des contextes canadiens à forts enjeux

Des systèmes d'IA présentent des informations fabriquées comme des faits dans les conseils fiscaux, les procédures judiciaires et les requêtes de santé — les Canadiens suivant les conseils santé de l'IA sont cinq fois plus susceptibles de subir un préjudice.

Services publicsCommerceJusticeSanté
En escalade Confiance : medium Potentiel : Grave 1 matérialisé

Matériel d'exploitation sexuelle d'enfants généré par l'IA au Canada

Le matériel d'exploitation sexuelle d'enfants généré par l'IA submerge les systèmes de détection et crée une ambiguïté juridique, avec des implications directes pour les forces de l'ordre et la protection de l'enfance.

JusticeServices publics
En escalade Confiance : medium Potentiel : Grave 2 matérialisés

Menaces de l'IA pour l'intégrité électorale et informationnelle au Canada

La désinformation générée par l'IA est apparue à grande échelle lors de l'élection fédérale de 2025. La loi électorale n'encadre pas les médias synthétiques et la capacité de détection est minimale.

Élections et intégrité de l'information
En escalade Confiance : high Potentiel : Grave

Fraude et usurpation d'identité facilitées par l'IA

Le clonage vocal et les vidéos d'hypertrucage par IA ont escroqué des Canadiens de millions. L'usurpation d'identité convaincante ne nécessite plus que des outils grand public, et les protections n'ont pas suivi.

Finance et banquesCommerce
En escalade Confiance : high Potentiel : Grave

Images intimes non consensuelles générées par l'IA

Des plateformes d'IA ont généré des millions d'images sexualisées non consensuelles — y compris de mineurs. Le cadre juridique canadien présente des lacunes importantes.

MédiasJustice
Actif Confiance : medium Potentiel : Important

IA dans la prise de décisions automatisée gouvernementale sans transparence

Les gouvernements canadiens utilisent l'IA dans les décisions d'immigration, d'impôts, de prestations et de protection de la jeunesse — mais le cadre de gouvernance est appliqué de manière incohérente et ne couvre pas les déploiements provinciaux.

Services publicsImmigrationServices sociaux
En escalade Confiance : high Potentiel : Critique

Manipulation et influence psychologiques par l'IA

Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.

SantéServices sociaux
Actif Confiance : medium Potentiel : Important

Coordination algorithmique minant la concurrence sur les marchés

Un algorithme de tarification par IA aurait permis à des propriétaires canadiens de coordonner des augmentations de loyer de 7 à 54 % — fonctionnellement une fixation des prix, mais hors du droit de la concurrence traditionnel.

CommerceFinance et banques