La police de Montréal a acquis une plateforme de vidéosurveillance par IA avec des capacités biométriques non divulguées
La police de Montréal a acquis une technologie de surveillance par IA avec des capacités biométriques intégrées, incluant la détection de l'ethnicité et des émotions, sans divulgation publique du logiciel ni évaluation des facteurs relatifs à la vie privée — des capacités activables par changement de configuration logicielle.
Description
In December 2025, reporting by Pivot, a Quebec civil liberties organization, revealed that the Service de police de la Ville de Montréal (SPVM) had acquired a $1.8 million, five-year AI video analysis platform from iMotion Security. The SPVM initially refused to disclose which software the platform used or to release the privacy impact assessment that authorized the procurement.
Subsequent investigative reporting in February 2026 identified the software as Rank One Computing’s (ROC) video analytics platform, an American-made system deployed across 46 cameras. The ROC software’s documented capabilities include search by clothing and vehicle attributes, but also built-in biometric features: facial recognition, age estimation, ethnicity detection, gender classification, facial hair detection, and emotion analysis. These capabilities are part of the software’s standard feature set and can be toggled on or off through configuration rather than requiring new procurement or hardware changes.
The SPVM stated that biometric identification features are “not part of the current context of use.” However, civil liberties organizations have raised concerns that the capabilities exist within the deployed software and could be activated at any time through a configuration change — without additional procurement, public consultation, or legislative authorization. The absence of a publicly available privacy impact assessment, the initial refusal to name the software vendor, and the gap between the platform’s full capabilities and the SPVM’s stated use case create a significant transparency deficit.
The deployment is particularly concerning in light of documented racial bias in facial recognition systems. Research has shown that facial recognition algorithms, including those comparable to ROC’s, exhibit significantly higher error rates for Black individuals and women. In a city where policing of racialized communities is an active public concern, the acquisition of AI surveillance technology with ethnicity detection capabilities — even if claimed to be currently disabled — represents a meaningful hazard.
Voie de risque
Le SPVM a déployé une plateforme de vidéosurveillance par IA dont le logiciel inclut des capacités biométriques intégrées — reconnaissance faciale, détection de l'ethnicité, analyse des émotions — qui peuvent être activées par de simples changements de configuration sans approvisionnement additionnel, consultation publique ni autorisation législative. L'absence d'une évaluation des facteurs relatifs à la vie privée publiquement disponible et le refus initial d'identifier le fournisseur créent un déficit de transparence empêchant toute surveillance significative.
Historique des évaluations
Les reportages de Pivot en décembre 2025 ont révélé l'acquisition de la plateforme de surveillance par IA et le refus de divulguer le fournisseur. Les reportages d'enquête de février 2026 du Concordian et de Biometric Update ont identifié le logiciel comme ROC et documenté ses capacités biométriques complètes. L'affirmation du SPVM que les fonctions biométriques ne sont pas activées ne peut être vérifiée indépendamment en l'absence d'une évaluation des facteurs relatifs à la vie privée publique.
Migrated from v2 flat assessment
Déclencheurs
- Configuration change enabling biometric features without new procurement or public process
- Expansion of camera coverage beyond the current 46 cameras
- High-profile security event creating pressure to activate facial recognition capabilities
- Absence of municipal or provincial legislation explicitly prohibiting biometric surveillance activation
Facteurs atténuants
- SPVM's public statement that biometric features are not part of the current context of use
- Civil society scrutiny from Pivot and investigative journalists maintaining public awareness
- Documented racial bias in facial recognition systems creating political and legal liability for activation
Contrôles de risque
- Require public disclosure and independent review of all AI surveillance technology procured by police services, including the specific software, its full capabilities, and any privacy impact assessments
- Establish municipal bylaws or provincial legislation prohibiting activation of biometric identification features — including facial recognition, ethnicity detection, and emotion analysis — in police surveillance systems without explicit legislative authorization
- Mandate that police procurement of AI surveillance technology include binding contractual limits on which software capabilities may be enabled, with independent compliance verification
- Require community consultation before police deploy AI-powered surveillance systems in public spaces, with particular attention to the impact on racialized communities
Populations touchées
- Montreal residents
- racialized communities
- civil liberties organizations
Entités impliquées
A acquis et déployé la plateforme d'analyse vidéo par IA de 1,8 million de dollars sur 46 caméras, refusant initialement de divulguer le fournisseur du logiciel ou de publier l'évaluation des facteurs relatifs à la vie privée
A fourni la plateforme d'analyse vidéo par IA au SPVM, intégrant le logiciel d'analytique vidéo de Rank One Computing
Systèmes d'IA impliqués
Plateforme d'analytique vidéo américaine déployée sur 46 caméras du SPVM avec des capacités intégrées de reconnaissance faciale, d'estimation de l'âge, de détection de l'ethnicité, de classification de genre et d'analyse des émotions — fonctionnalités que le SPVM affirme ne pas être actuellement activées
Réponses
A déclaré que les fonctions d'identification biométrique ne font pas partie du contexte d'utilisation actuel, mais a initialement refusé de divulguer le fournisseur du logiciel ou de publier l'évaluation des facteurs relatifs à la vie privée
Fiches connexes
- clearview-rcmp-facial-recognition related
- Unregulated Biometric Surveillance Technology Deployment in Canada related
Taxonomie
Sources
- IA au SPVM — technologie intrusive
- SPVM's new AI video surveillance platform uses American software with facial recognition
- iMotion deploying ROC video analytics for Montreal police
Historique des modifications
| Version | Date | Modification |
|---|---|---|
| v1 | 8 mars 2026 | Initial publication |