Par: Krista Davidson
21 Jan, 2026
En seulement un an d’existence, le Programme de recherche de l’ICSIA (Institut canadien de la sécurité de l’intelligence artificielle) au CIFAR a attribué 2,4 M$ au lancement de 12 projets révolutionnaires visant à identifier et à atténuer les risques liés aux systèmes d’intelligence artificielle (IA) avancés. Les retombées de ces travaux sont mises de l’avant dans le rapport Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens.
La sécurité de l’IA s’est imposée comme un champ de recherche d’intérêt mondial consacré à l’étude des risques que l’intelligence artificielle fait peser sur la société. Afin de renforcer la capacité du pays à affronter ces risques, le gouvernement fédéral a inauguré l’ICSIA et versé, par son entremise, 27 M$ au CIFAR pour lui permettre de diriger un programme multidisciplinaire indépendant voué à l’avancement de la recherche sur la sécurité de l’IA.
Ce programme vise à relever différents défis sociotechniques liés à la sécurité de l’IA : biais algorithmiques, discrimination et propagation de la désinformation par les hypertrucages (deepfakes) et les contenus générés par l’IA; prévention des cyberattaques et de la diffusion de modèles offrant des informations inexactes ou douteuses; prévention de dérives comme la perte de supervision et de contrôle humains sur des systèmes de plus en plus autonomes.

« Le Canada doit sa réputation internationale en matière d’IA à son excellence en recherche et à ses talents de calibre mondial. Dans le cadre du Programme de recherche de l’ICSIA au CIFAR, nous mettons ce dynamisme et cette expertise à profit pour conquérir de nouveaux horizons et veiller à ce que l’IA soit aussi performante qu’éthique, digne de confiance et respectueuse des valeurs humaines », affirme Elissa Strome, directrice générale de la Stratégie pancanadienne en matière d’IA au CIFAR.
La réussite du Programme réside dans sa capacité à mobiliser les plus brillants cerveaux canadiens en IA – autant d’atouts indispensables pour analyser et élaborer des stratégies d’atténuation des risques liés aux systèmes d’IA avancés.
« En constituant une masse critique de talents spécialisés et en encourageant la collaboration multidisciplinaire entre le milieu de la recherche, le gouvernement et l’industrie, nous positionnons le Canada à l’avant-garde mondiale d’une IA sûre et digne de confiance. Comme le montre le premier rapport rétrospectif du Programme, le Canada est non seulement sur la bonne voie, mais il possède la somme et le niveau d’expertise nécessaires pour accélérer la réponse aux défis mondiaux les plus urgents en matière de sécurité de l’IA », indiquent la codirectrice et le codirecteur du Programme, Catherine Régis (Université de Montréal, Mila) et Nicolas Papernot (Université de Toronto, Institut Vecteur).
Le rapport met de l’avant plusieurs projets remarquables financés en 2025. Parmi ceux-ci, le projet CIPHER vise à concevoir un système d’IA avancé faisant intervenir l’humain pour aider les organisations de la société civile à repérer et à déjouer les campagnes de désinformation coordonnées. Le Studio de sécurité en intelligence artificielle de Mila s’emploie activement à réduire les risques liés aux compagnons d’IA et à créer des mécanismes afin de protéger les utilisateurs et utilisatrices vulnérables. Enfin, une étude phare menée à l’Institut Vecteur évalue la fiabilité et l’exactitude de 11 modèles d’IA parmi les plus utilisés au monde afin d’en assurer le déploiement sécuritaire dans des environnements critiques.
Lisez l’intégralité du rapport Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens (PDF).