Les engagements du Canada en matière de gouvernance de l'IA et les systèmes de ciblage militaire par l'IA des alliés fonctionnent sous des hypothèses divergentes
La politique du Canada s'engage à une participation humaine appropriée dans l'usage de la force létale, mais les forces armées alliées déploient des systèmes de ciblage par l'IA (Maven, Lavender) qui compriment les cycles décisionnels de semaines en minutes. Aucun cadre n'existe pour que les FAC gèrent cet écart dans les opérations de coalition.
Canada has stated that fully autonomous weapons systems would be unacceptable and that the Canadian Armed Forces is committed to maintaining appropriate human involvement in the use of military capabilities that can exert lethal force. At the 78th UN General Assembly in December 2023, Canada voted in favour of Resolution 78/241 on autonomous weapons, and at the 79th session in December 2024, voted in favour of Resolution 79/239 on lethal autonomous weapons systems.
Allied militaries with which Canada must maintain interoperability are deploying AI targeting systems that operate under different assumptions about the speed and nature of human oversight.
In February 2026, the United States used the Maven Smart System — integrating Anthropic's Claude via a Palantir contract and running on AWS — in Operation Epic Fury against Iran. The system helped generate approximately 1,000 strike targets in the first 24 hours. The U.S. conducted approximately 900 strikes in the first 12 hours. Reporting described how AI-driven systems compressed decision cycles from weeks into minutes.
In Gaza, the Israel Defense Forces used AI targeting systems Lavender and The Gospel. An investigation by +972 Magazine documented Lavender's approximately 10% error rate and analyst review time of approximately 20 seconds per target. Human Rights Watch published separate analysis of the legal and methodological concerns about the use of machine learning for targeting. The AI Incident Database catalogued this as Incident 672.
Concurrently, DND/CAF's own AI strategy, drafted in 2022 and not approved until March 2024, acknowledged that neither DND nor the CAF is "positioned to adopt and take advantage of AI" and described AI initiatives as "fragmented, with each command and environment addressing AI independently." In October 2025, Canada's National Security and Intelligence Review Agency (NSIRA) initiated a formal review of AI use in national security and intelligence activities, indicating that AI deployment in the security apparatus has outpaced existing oversight frameworks.
The interoperability hazard is structural: in a coalition operation, CAF personnel may need to act on intelligence, targeting data, or operational plans generated by allied AI systems that operate at speeds and error tolerances that are incompatible with Canada's stated policy on human oversight. No framework currently exists to manage this gap.
Préjudices
Les forces armées alliées avec lesquelles le Canada opère en coalition déploient des systèmes d'IA pour le ciblage, l'analyse du renseignement et les plateformes d'armes autonomes avec des tolérances d'erreur et des vitesses de décision pouvant entrer en conflit avec l'engagement déclaré du Canada envers un contrôle humain significatif sur les décisions de force létale.
Le Canada n'a pas de doctrine nationale spécifiant sur quels résultats d'IA alliée les forces canadiennes peuvent se fier, quelle validation est requise, ou comment maintenir un contrôle humain significatif lors de la réception de renseignements et de données de ciblage générés par l'IA de partenaires de coalition ayant des normes opérationnelles différentes.
Preuves
6 rapports
- Stratégie d'intelligence artificielle du MDN/FAC — Contexte Source principale
DND/CAF acknowledged AI approach is 'fragmented'; not positioned to adopt AI
- Examen de l'OSSNR sur l'IA dans les activités de sécurité nationale et de renseignement — Lettre de notification Source principale
NSIRA initiated formal review of AI use in national security activities
- How AI is shaping war — the Iran strikes offer a stark preview Source principale
Maven Smart System processed millions of objects; AI compressed decision cycles from weeks to minutes
-
Lavender ~10% error rate; 20-second analyst review; targeting methodology
-
DND AI strategy drafted 2022, approved March 2024; 'fragmented' finding
-
Canada's position requiring 'context-appropriate human involvement'; voted for Resolution 78/241
Détails de la fiche
Réponses et résultats
L'OSSNR a lancé un examen formel de l'utilisation et de la gouvernance de l'intelligence artificielle dans les activités de sécurité nationale et de renseignement, émettant une lettre de notification le 6 janvier 2026.
L'examen est en cours. La portée et les conclusions n'ont pas encore été publiées.
Recommandations de politiqueévalué
DND/CAF should develop a framework governing Canadian forces' engagement with AI-generated targeting data from allied systems in coalition operations
DND/CAF Artificial Intelligence Strategy (1 mars 2024)Canada should work with Five Eyes and NATO partners to establish transparency and accountability standards for AI targeting systems used in coalition operations
SIPRI / DND CCW GGE side event (3 mars 2026)NSIRA's review of AI in national security should assess the interoperability gap between Canada's LAWS policy commitments and allied AI system capabilities
NSIRA (6 janv. 2026)Évaluation éditoriale évalué
Ceci est l'écart structurel entre l'engagement déclaré du Canada en matière de participation humaine appropriée dans les armes autonomes et la réalité opérationnelle des systèmes d'IA alliés. L'opération Epic Fury a démontré le ciblage par l'IA à une échelle et une vitesse incompatibles avec la position politique du Canada. La propre stratégie d'IA du MDN reconnaît le déficit de capacité institutionnelle. L'examen d'octobre 2025 de l'OSSNR indique que l'organe de surveillance reconnaît que le déploiement de l'IA a devancé les cadres de gouvernance.
Historique des statuts
Operation Epic Fury demonstrated AI targeting at unprecedented operational scale; NSIRA initiated AI review; DND strategy admits fragmented approach
DND/CAF AI strategy acknowledged institutional AI capability gap; Lavender/Gospel documented in Gaza operations
Entités impliquées
Fiches connexes
- Agentic AI Deployment Outpacing Governance Frameworksrelated
- Frontier AI Models Demonstrating Deceptive and Self-Preserving Behaviorrelated
Taxonomieévalué
Historique des modifications
| Version | Date | Modification |
|---|---|---|
| v1 | 11 mars 2026 | Initial publication |
| v2 | 11 mars 2026 | Verification upgraded from corroborated to confirmed: DND/CAF acknowledged AI approach is fragmented; NSIRA initiated formal review. |