Des systèmes d'IA présentent des informations fabriquées comme des faits dans les conseils fiscaux, les procédures judiciaires et les requêtes de santé — les Canadiens suivant les conseils santé de l'IA sont cinq fois plus susceptibles de subir un préjudice.
Services publicsCommerceJusticeSanté
En escalade Confiance : medium
Potentiel : Grave 1 matérialisé
Le matériel d'exploitation sexuelle d'enfants généré par l'IA submerge les systèmes de détection et crée une ambiguïté juridique, avec des implications directes pour les forces de l'ordre et la protection de l'enfance.
JusticeServices publics
En escalade Confiance : medium
Potentiel : Important
Les systèmes d'IA désavantagent systématiquement les communautés francophones et de langues autochtones — supprimant excessivement le contenu en français et offrant un service inférieur.
Des systèmes d'IA en protection de la jeunesse, en santé et en intervention de crise sont déployés sans surveillance de sécurité ni signalement d'incidents — et ont contribué à des décès.
Les modèles fondamentaux entraînés sur des données canadiennes créent des enregistrements permanents et incorrectibles, générant de fausses affirmations sur de vraies personnes — hors de portée des lois actuelles.
La police de Montréal a acquis une vidéosurveillance IA avec détection intégrée de l'ethnicité et des émotions — activable par configuration, sans divulgation publique ni évaluation d'impact.
Application de la loi
En escalade Confiance : high
Potentiel : Grave 2 matérialisés
Plusieurs systèmes de surveillance biométrique déployés au Canada — dans des centres commerciaux, des corps policiers et des lieux publics — sans autorisation légale ni divulgation publique.
Application de la loiCommerce
En escalade Confiance : medium
Potentiel : Grave 2 matérialisés
La désinformation générée par l'IA est apparue à grande échelle lors de l'élection fédérale de 2025. La loi électorale n'encadre pas les médias synthétiques et la capacité de détection est minimale.
Le clonage vocal et les vidéos d'hypertrucage par IA ont escroqué des Canadiens de millions. L'usurpation d'identité convaincante ne nécessite plus que des outils grand public, et les protections n'ont pas suivi.
Des plateformes d'IA ont généré des millions d'images sexualisées non consensuelles — y compris de mineurs. Le cadre juridique canadien présente des lacunes importantes.
Les gouvernements canadiens utilisent l'IA dans les décisions d'immigration, d'impôts, de prestations et de protection de la jeunesse — mais le cadre de gouvernance est appliqué de manière incohérente et ne couvre pas les déploiements provinciaux.
Des chatbots IA causent des préjudices psychologiques documentés — renforçant des délires, fournissant des méthodes d'automutilation — sans devoir de diligence ni surveillance en droit canadien.
Aucune loi canadienne n'oblige les entreprises d'IA à signaler des découvertes pertinentes aux autorités — une lacune liée à une fusillade de masse où OpenAI a détecté une menace sans la signaler.
Un algorithme de tarification par IA aurait permis à des propriétaires canadiens de coordonner des augmentations de loyer de 7 à 54 % — fonctionnellement une fixation des prix, mais hors du droit de la concurrence traditionnel.
CommerceFinance et banques
Aucun risque ne correspond aux filtres sélectionnés.