Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
Actif Grave Confiance: high

Des systèmes d'IA sont appliqués aux peuples autochtones au Canada dans le maintien de l'ordre et la collecte de données sans validation interculturelle ni gouvernance des données des Premières Nations. Le Citizen Lab a documenté des outils de police prédictive alimentés par l'IA créant des boucles de rétroaction discriminatoires à travers des données historiques. L'Association internationale des professionnels de la vie privée a rapporté que les données des communautés autochtones éloignées sont systématiquement absorbées pour entraîner des systèmes d'IA sans consentement communautaire. Les tribunaux et les organismes de droits de la personne ont constaté que les prédécesseurs fondés sur des règles de ces outils d'IA produisaient des résultats discriminatoires pour les peuples autochtones — établissant des précédents juridiques directement applicables aux systèmes d'IA entrant dans les mêmes domaines.

Identifié: 13 juin 2018 Dernière évaluation: 11 mars 2026

AI systems are being applied to Indigenous peoples in Canada in policing, data collection, and service delivery, often without cross-cultural validation, community governance, or recognition of First Nations data sovereignty.

Legal and institutional context

Algorithmic and actuarial tools have a documented history of producing discriminatory outcomes for Indigenous peoples in Canada. In Ewert v. Canada (2018 SCC 30), the Supreme Court of Canada ruled 7-2 on the statutory claim that the Correctional Service of Canada breached its obligation under s. 24(1) of the Corrections and Conditional Release Act to take all reasonable steps to ensure that any information about an offender that it uses is as accurate, up to date and complete as possible. The tools at issue — the PCL-R, VRAG, SORAG, Static-99, and VRS-SO — were actuarial and psychological scoring instruments developed and validated on predominantly non-Indigenous populations. While these specific instruments are rule-based tools outside CAIM's AI system scope, the ruling establishes a legal precedent directly relevant to AI-based risk assessment: systems trained or validated without adequate representation of Indigenous populations may breach statutory obligations when applied to Indigenous peoples.

The Ontario Human Rights Commission's 2018 report "Interrupted Childhoods" found Indigenous children overrepresented in admissions into care at 93% of agencies surveyed, with proportions 2.6 times higher than their share of the child population. The report identified risk assessment tools reflecting "White, Western, Christian notions of acceptable child rearing" as a contributing factor. A separate analysis (Fallon et al., 2016, CWRP Information Sheet #176E) found that Aboriginal children were more than 130% more likely to be investigated than White children and 168% more likely to be placed in out-of-home care. The specific tools involved are structured decision-making instruments rather than AI systems, but the documented pattern of cross-cultural bias in risk scoring has direct implications for AI-based tools now entering these domains.

AI-specific harms

The Citizen Lab at the University of Toronto and the International Human Rights Program published "To Surveil and Predict" (2020), a human rights analysis of algorithmic policing in Canada. The report documented AI-driven predictive policing tools and bail risk algorithms being used in ways that affect Indigenous peoples, including monitoring of Indigenous rights protesters. The report stated that historical policing data reflects patterns of systemic discrimination, and identified negative feedback loops: communities with higher rates of police contact generate more data, which machine learning models interpret as indicating higher risk — a dynamic the report characterized as reinforcing discriminatory patterns.

The International Association of Privacy Professionals has reported that information from individuals using AI-driven services in remote Indigenous communities is "routinely absorbed to train and refine AI systems" without community governance. The First Nations Information Governance Centre's Data Sovereignty Research Collaborative addresses AI and big data within the context of OCAP principles (Ownership, Control, Access, Possession) — a First Nations data governance framework.

First Nations governance responses

The Assembly of First Nations submitted a formal brief to the House of Commons Standing Committee on Industry and Technology (INDU) regarding Bill C-27 (AIDA), stating that "AI has the potential to destroy First Nations' cultures, threaten First Nations' security, and increase demand for our resources." The AFN stated that there had been no Nation-to-Nation consultation between Canada and First Nations on the legislation. Bill C-27 subsequently died on the Order Paper when Parliament was prorogued on January 6, 2025; the AFN's position on Nation-to-Nation consultation applies to any successor AI legislation.

The Chiefs of Ontario Research and Data Management Sector published a research paper in 2024 analyzing the effects of AI on First Nations in Ontario, describing AI as "a powerful and disruptive technology" that comes "paired with serious risks for First Nations."

The First Nations of Quebec and Labrador Health and Social Services Commission (CSSSPNQL) published a position paper on digital and AI ethics, establishing guidelines to "guide digital development in harmony with the values of First Nations."

Préjudices

Outils de police prédictive et algorithmes d'évaluation du risque de mise en liberté sous caution alimentés par l'IA qui affectent de manière disproportionnée les communautés marginalisées, y compris les peuples autochtones, par le recours à des données historiques reflétant des schémas de discrimination systémique. Les modèles d'apprentissage automatique entraînés sur des données historiques biaisées créent des boucles de rétroaction négatives — une dynamique que le rapport du Citizen Lab a caractérisée comme renforçant les schémas discriminatoires.

Surveillance disproportionnéeDiscrimination et droitsImportantPopulation

Données des communautés autochtones utilisant des services alimentés par l'IA absorbées pour entraîner des systèmes d'IA sans gouvernance communautaire, reconnaissance des principes PCAP ni consentement (rapporté par l'IAPP). Les principes de souveraineté des données des Premières Nations (PCAP) ne sont pas reflétés dans les pratiques de données des fournisseurs de services d'IA opérant dans les communautés éloignées.

Vie privée et donnéesModéréPopulation

Risque que les outils d'évaluation du risque fondés sur l'IA entrant dans les domaines de la justice, de la protection de l'enfance et du maintien de l'ordre reproduisent les mêmes défaillances de validation interculturelle documentées dans les instruments antérieurs fondés sur des règles (Ewert c. Canada, conclusions de la CODP), l'apprentissage automatique amplifiant les biais par l'échelle automatisée et les boucles de rétroaction plutôt que la notation statique.

Discrimination et droitsImportantPopulation

Preuves

9 rapports

  1. Réglementaire — Ontario Human Rights Commission (12 avr. 2018)

    Indigenous children overrepresented in admissions into care at 93% of agencies (25 of 27), proportions 2.6 times higher than child population share; risk assessment tools reflecting White, Western, Christian notions of acceptable child rearing identified as contributing factor

  2. Judiciaire — Supreme Court of Canada (13 juin 2018)

    SCC declared (7-2) that CSC breached its obligation under s. 24(1) CCRA by using actuarial risk assessment tools (including Static-99) developed on non-Indigenous populations for Indigenous offenders without evaluating cross-cultural validity

  3. Académique — Citizen Lab & International Human Rights Program (IHRP), University of Toronto (1 sept. 2020)

    Algorithmic tools used to monitor Indigenous rights protesters and assess bail risk using historical data reflecting systemic discrimination; identified negative feedback loops in policing

  4. Académique — Canadian Child Welfare Research Portal (Fallon, Black, Van Wert, King, Filippelli, Lee, & Moody) (1 janv. 2016)

    Aboriginal children more than 130% more likely to be investigated than White children, 40% more likely to be transferred to ongoing services, 168% more likely to be placed in out-of-home care during investigation

  5. Média — CBC News (13 juin 2018)

    Media coverage of Ewert v. Canada SCC ruling on risk assessment tools and Indigenous offenders

  6. Soumission — Assembly of First Nations (1 oct. 2023)

    AI has the potential to destroy First Nations cultures; no Nation-to-Nation consultation on legislation

  7. Officiel — Chiefs of Ontario Research and Data Management Sector (26 sept. 2024)

    AI described as a powerful and disruptive technology paired with serious risks for First Nations

  8. Officiel — CSSSPNQL (4 juin 2025)

    First Nations-authored AI ethics framework establishing guidelines to guide digital development in harmony with First Nations values

  9. Média — International Association of Privacy Professionals (5 nov. 2025)

    Information from individuals using AI-driven services in remote Indigenous communities routinely absorbed to train AI systems without community governance

Détails de la fiche

Recommandations de politiqueévalué

Moratoire sur les outils de police prédictive basés sur l'IA utilisant des données historiques, en attendant un examen indépendant des biais algorithmiques et de la validation interculturelle

Citizen Lab, To Surveil and Predict (2020) (1 sept. 2020)

Consultation de nation à nation sur la législation sur l'IA affectant les Premières Nations

Assembly of First Nations (parliamentary brief on Bill C-27) (1 oct. 2023)

Exiger une gouvernance des données conforme aux principes PCAP pour les systèmes d'IA traitant des données des Premières Nations, avec co-développement de lignes directrices d'éthique numérique par les communautés des Premières Nations

CSSSPNQL position paper on digital and AI ethics (1 janv. 2024)

Évaluation éditoriale évalué

Les peuples autochtones au Canada détiennent des droits constitutionnels distincts (art. 35 de la Loi constitutionnelle de 1982) et des structures de gouvernance, y compris des cadres de gouvernance des données des Premières Nations tels que les principes PCAP. Les systèmes algorithmiques appliqués dans la justice, la protection de l'enfance et le maintien de l'ordre n'intègrent pas ces contextes juridiques et de gouvernance distincts. La déclaration de la Cour suprême dans Ewert a établi que le SCC avait manqué à son obligation légale en utilisant des outils d'évaluation du risque sur des délinquants autochtones sans évaluer leur validité interculturelle — mais cette conclusion s'applique aux services correctionnels fédéraux et n'a pas été étendue à d'autres domaines où des outils similaires sont utilisés. La conclusion de la CODP que les outils de risque en protection de l'enfance contribuent à la surreprésentation autochtone en protection, et la documentation par le Citizen Lab du maintien de l'ordre algorithmique utilisant des données reflétant les schémas historiques de contact policier, indiquent que la même condition structurelle — des outils algorithmiques appliqués sans tenir compte des circonstances distinctes des peuples autochtones — est présente dans plusieurs domaines.

Fiches connexes

Taxonomieévalué

Domaine
JusticeServices sociauxApplication de la loiServices publics
Type de préjudice
Discrimination et droitsSurveillance disproportionnéeVie privée et données
Voie de contribution de l'IA
Contexte de déploiementOrigine des données d'entraînementSupervision absenteSurveillance absente
Phase du cycle de vie
DéploiementCollecte de donnéesEntraînement

Version 1