Phase pilote : CAIM est en construction. Les fiches sont provisoires, basées sur des sources publiques, et n’ont pas encore été révisées par des pairs. Commentaires bienvenus.
Signalé Contesté Important

Meta consacrait 87 % de ses dépenses de modération aux utilisateurs anglophones (9 % de sa base), avec des disparités documentées pour le français et les langues autochtones.

Survenu: 1 janvier 2021 (year) au 1 janvier 2025

AI-powered content moderation systems deployed by major social media platforms operating in Canada have repeatedly demonstrated disproportionate error rates when processing content in French, Indigenous languages, and content from racialized communities. According to whistleblower Frances Haugen's 2021 congressional testimony, internal documents from Meta indicated that approximately 87% of the company's global misinformation spending was allocated to English-language content, even though English speakers represent roughly 9% of the platform's user base (Rest of World, 2021). Haugen characterized this as an approximate figure. This figure reflects Meta's global resource allocation and has not been independently verified for Canadian operations specifically. Non-English languages — including French — received substantially less investment in classifier training and human review capacity (Rest of World, 2021). This pattern extends across platforms: automated systems trained predominantly on English-language data frequently misclassify content in other languages, leading to both over-removal of legitimate speech and under-removal of harmful content (CBC News, 2021; Citizen Lab, University of Toronto, 2021).

Francophone Canadians — particularly in Quebec — use social media platforms where moderation systems may misinterpret Quebecois vernacular, colloquialisms, and cultural context. Indigenous language speakers face even starker gaps: content in Inuktitut, Cree, Anishinaabemowin, and other Indigenous languages likely receives minimal moderation coverage, given that these low-resource languages have little or no representation in platform training data. The House of Commons Standing Committee on Canadian Heritage, in its November 2024 report on "Tech Giants' Intimidation and Subversion Tactics to Evade Regulation," examined how major platforms resisted Canadian regulatory efforts, including through news access restrictions and lobbying campaigns (House of Commons Standing Committee on Canadian Heritage, 2024).

The pattern is ongoing rather than a single event. The Citizen Lab at the University of Toronto, in its submission on the federal government's proposed approach to online harms, noted that people in Canada access content in hundreds of languages and dialects that do not receive equal moderation resources from platforms (Citizen Lab, University of Toronto, 2021). Haugen's testimony and subsequent reporting suggested that platforms invest moderation resources roughly in proportion to advertising revenue rather than user population or rights impact, meaning languages and communities with less commercial value may receive worse service (Rest of World, 2021; CBC News, 2021). In the Canadian context, commentators have raised questions about how the Official Languages Act's guarantee of linguistic equality applies to digital platforms where an increasing share of civic discourse occurs.

Matérialisé à partir de

Préjudices

Les systèmes de modération entraînés principalement sur des données en anglais affichent des taux d'erreur plus élevés pour le contenu légitime en français et en langues autochtones, tout en sous-supprimant le contenu nuisible dans ces langues. Selon le témoignage de Frances Haugen en 2021, Meta allouait environ 87 % de ses dépenses antimésinformation au contenu en anglais, alors que les anglophones représentent environ 9 % de sa base d'utilisateurs.

Discrimination et droitsAutonomie compromisePréjudice psychologiqueImportantPopulation

Les Canadiens francophones, autochtones et racialisés voient leur discours légitime et leur expression culturelle supprimés par des systèmes de modération automatisés qui interprètent mal le vernaculaire et le contexte culturel non anglophones, soulevant des questions d'équité linguistique dans les espaces numériques.

Discrimination et droitsAutonomie compromisePréjudice psychologiqueModéréPopulation

Les créateurs de contenu et journalistes des communautés de minorités linguistiques subissent des suppressions de contenu et des restrictions de compte injustifiées, avec des processus d'appel inadéquats faute de réviseurs maîtrisant la langue du contenu.

Discrimination et droitsAutonomie compromisePréjudice psychologiqueModéréGroupe

Preuves

5 rapports

  1. Média — Rest of World (8 oct. 2021)

    Frances Haugen testimony that 87% of Meta's misinformation spending went to English-speaking users (9% of user base)

  2. The Online Harms Act Source principale
    Officiel — Canadian Heritage (26 févr. 2024)

    Canadian government's proposed Online Harms Act framework; policy context for content moderation regulation in Canada

  3. Académique — Citizen Lab, University of Toronto (25 sept. 2021)

    Citizen Lab analysis of content moderation challenges; documents disparate treatment of French and non-English content by automated moderation systems

  4. Média — CBC News (25 oct. 2021)

    Facebook internal documents showed the company knew about and failed to police abusive content globally; disparate moderation quality across languages

  5. Officiel — House of Commons Standing Committee on Canadian Heritage (5 nov. 2024)

    Parliamentary committee findings on tech giants' tactics to evade regulation; context on platform accountability gaps in Canada

Détails de la fiche

Recommandations de politiqueévalué

Require platforms operating in Canada to report content moderation accuracy and error rates disaggregated by language, including French, Indigenous languages, and other non-English languages

House of Commons Standing Committee on Canadian Heritage (5 nov. 2024)

Establish an independent audit mechanism to test content moderation systems for linguistic and cultural bias affecting Canadian communities

Citizen Lab, University of Toronto (25 sept. 2021)

Require platforms to provide meaningful appeal processes with human reviewers fluent in the language of the content being reviewed

Citizen Lab, University of Toronto (25 sept. 2021)

Évaluation éditoriale évalué

Les systèmes de modération de contenu entraînés principalement sur des données en anglais affichent des taux d'erreur disproportionnés pour les communautés francophones et de langues autochtones du Canada (Citizen Lab, University of Toronto, 2021). Ces écarts ont été documentés par des divulgations de lanceurs d'alerte (Rest of World, 2021; CBC News, 2021), des travaux de comités parlementaires (House of Commons Standing Committee on Canadian Heritage, 2024) et des recherches indépendantes (Citizen Lab, University of Toronto, 2021). La Loi sur les langues officielles du Canada établit des obligations d'égalité linguistique qui peuvent s'appliquer à la modération de contenu par les plateformes (Canadian Heritage, 2024).

Entités impliquées

Meta Platforms Inc.
developerdeployer

Fiches connexes

Taxonomieévalué

Domaine
MédiasTélécommunications
Type de préjudice
Discrimination et droitsAutonomie compromisePréjudice psychologique
Voie de contribution de l'IA
Origine des données d'entraînementOrigine de développementSurveillance absente
Phase du cycle de vie
EntraînementDéploiementSurveillance

AIID : Incident #393

Historique des modifications

Historique des modifications
VersionDateModification
v17 mars 2026Initial publication
v211 mars 2026Tightened factual claims to match primary sources; removed editorial language from French narrative; qualified Indigenous language moderation claims; corrected Heritage Committee report description

Version 2