Par: Justine Brooks
19 Fév, 2026
Quatre nouveaux projets de recherche se verront attribuer des fonds dans le cadre du Programme de recherche de l’ICSIA (Institut canadien de la sécurité de l’intelligence artificielle) au CIFAR. L’Alignment Project, un fonds international dirigé par l’UK AI Security Institute, sert à financer des travaux de pointe en alignement de l’IA afin de garantir que les systèmes d’IA avancés demeurent à la fois sûrs, sans danger et bénéfiques pour la société.
Les projets retenus, qui relèvent de disciplines comme la théorie des jeux, les statistiques et la physique, recevront un financement annuel de 165 000 $ chacun (avec possibilité de renouvellement l’année suivante). Ils bénéficieront également de ressources de calcul spécialisées et de l’apport d’une expertise reconnue afin de combler le fossé entre l’évolution fulgurante de l’IA et les mécanismes de sécurité nécessaires à son encadrement.
Ces nouvelles initiatives portent à seize le nombre de projets financés par le Programme de recherche de l’ICSIA au CIFAR. Elles viennent s’ajouter aux projets Catalyseur et aux Réseaux de solutions mis en place pour faire avancer la recherche à fort impact sur la sécurité de l’IA et déployer des solutions concrètes au profit du plus grand nombre. Les retombées de ces projets et du Programme dans son ensemble ont récemment été présentées dans notre rapport annuel intitulé Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens.
« Le projet sur l’alignement des intelligences artificielles est un jalon important pour l’avancement du leadership de longue date du Canada dans le domaine de la recherche sur l’intelligence artificielle sécuritaire et digne de confiance. Avec l’influence croissante de l’IA au quotidien, nous devons plus que jamais nous assurer que cette technologie reflète nos valeurs et demeure dans l’intérêt du public. En investissant dans le travail de ces chercheurs canadiens, nous renforçons la résilience économique à long terme tout en consolidant la position du Canada à titre de chef de file mondial du développement et du déploiement responsables de l’IA. »
— L’honorable Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation numérique et ministre responsable de l’Agence fédérale de développement économique pour le sud de l’Ontario
« L’Alignment Project représente une occasion de renforcer les liens solides que le Canada a forgés avec ses partenaires internationaux et de travailler à l’atteinte d’un objectif commun visant à faire avancer la recherche sur la sécurité de l’IA. Les projets retenus abordent divers enjeux aussi essentiels que pressants liés à l’alignement de l’IA. Leurs retombées permettront de rendre l’IA plus sécuritaire, fiable et interprétable, au bénéfice des populations d’ici et d’ailleurs. »
— Catherine Régis et Nicolas Papernot, coresponsables du Programme de recherche de l’ICSIA au CIFAR
Zhijing Jin (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto)
À l’heure où les systèmes d’information deviennent de plus en plus autonomes et centrés sur l’IA, les cadres de sécurité traditionnels ne suffisent plus à remédier aux enjeux de sécurité, de contrôle et de protection de la confidentialité, en particulier dans les situations où plusieurs agents d’IA interagissent sans intervention humaine. Zhijing Jin, titulaire d’une chaire en IA Canada-CIFAR, propose de recourir à la théorie des jeux, un cadre théorique éprouvé, afin de fournir des garanties démontrables visant à limiter les comportements non conformes et à offrir des outils concrets aux responsables politiques et aux équipes de développement pour leur permettre de garder le contrôle sur les interactions multiagents.
Linglong Kong (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)
Une fois déployés dans le monde réel, les systèmes d’IA modernes manifestent souvent un début de désalignement (p. ex., le détournement de récompense ou un alignement trompeur), une faille comportementale interne qui les amène à s’éloigner de leurs fins premières. Le titulaire de chaire en IA Canada-CIFAR Linglong Kong propose de concevoir un cadre statistique afin d’optimiser l’ajustement en ligne des modèles selon une méthode économe en données. Ses travaux visent à établir si un entraînement correctif suffit à garantir la fiabilité des systèmes, ou s’il faut recourir à des mesures de protection plus fondamentales.
Yonatan Kahn (Université de Toronto)
La recherche théorique actuelle en IA repose souvent sur une modélisation simpliste des données, ce qui complique l’examen de questions fondamentales liées aux lois dimensionnelles ou à la capacité des modèles d’apprendre réellement les paramètres latents sous-jacents. Grâce à une méthode de génération de données fondée sur la physique, le professeur à l’Université de Toronto Yonatan Kahn souhaite fournir des données de référence absolues (ground truth) aux chercheurs et chercheuses. Ceux-ci pourront ainsi prédire et tester certains mécanismes fondamentaux qui régissent l’apprentissage, la généralisation et l’évolution de l’IA.
Bei Jiang (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)
L’un des principaux défis de l’alignement de l’IA consiste à mesurer des taux de défaillance extrêmement faibles, à savoir des probabilités si minimes qu’aucun test ordinaire ne peut les détecter. Les défaillances dites « de longue traîne », comme les débridages (jailbreaks), le contournement des politiques ou des manquements subtils aux règles de sécurité, sont parmi les moins bien surveillées. Cette lacune rend impossible toute comparaison entre les modèles, l’établissement de normes de sécurité et l’évaluation de la régression des modèles. La titulaire de chaire en IA Canada-CIFAR Bei Jiang propose de résoudre ce problème en recourant à des outils statistiques éprouvés pour l’analyse d’événements rares, des méthodes actuellement sous-utilisées dans l’évaluation des grands modèles de langage.