Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • NOTRE IMPACT
    • Pourquoi le CIFAR?
    • Pôles d’impact
    • Nouvelles
    • Stratégie du CIFAR
    • Favoriser la résilience de la Terre
    • Impact IA
    • Impact des dons
    • CIFAR 40
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
    • Initiative sur l’avenir de l’alimentation CIFAR-Arrell
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Direction – Stratégie en matière d’IA
    • Direction – CIFAR
    • Répertoire du personnel
  • Soutenez-nous
  • À propos
    • Notre histoire
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Équité, diversité et inclusion
    • Déclaration du CIFAR sur la neutralité institutionnelle
    • Sécurité de la recherche
  • Événements publics
  • en
Annonce

Le CIFAR s’engage à verser 1 M$ à une initiative mondiale en sécurité de l’IA

Par: Justine Brooks
19 Fév, 2026
19 février 2026
Le CIFAR s’engage à verser 1 M$ à une initiative mondiale en sécurité de l’IA

Quatre nouveaux projets de recherche canadiens rejoignent l’Alignment Project, une initiative internationale menée par le Royaume-Uni, et recevront jusqu’à 165 000 $ de financement par année 

Quatre nouveaux projets de recherche se verront attribuer des fonds dans le cadre du Programme de recherche de l’ICSIA (Institut canadien de la sécurité de l’intelligence artificielle) au CIFAR. L’Alignment Project, un fonds international dirigé par l’UK AI Security Institute, sert à financer des travaux de pointe en alignement de l’IA afin de garantir que les systèmes d’IA avancés demeurent à la fois sûrs, sans danger et bénéfiques pour la société. 

Les projets retenus, qui relèvent de disciplines comme la théorie des jeux, les statistiques et la physique, recevront un financement annuel de 165 000 $ chacun (avec possibilité de renouvellement l’année suivante). Ils bénéficieront également de ressources de calcul spécialisées et de l’apport d’une expertise reconnue afin de combler le fossé entre l’évolution fulgurante de l’IA et les mécanismes de sécurité nécessaires à son encadrement. 

Ces nouvelles initiatives portent à seize le nombre de projets financés par le Programme de recherche de l’ICSIA au CIFAR. Elles viennent s’ajouter aux projets Catalyseur et aux Réseaux de solutions mis en place pour faire avancer la recherche à fort impact sur la sécurité de l’IA et déployer des solutions concrètes au profit du plus grand nombre. Les retombées de ces projets et du Programme dans son ensemble ont récemment été présentées dans notre rapport annuel intitulé Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens. 

« Le projet sur l’alignement des intelligences artificielles est un jalon important pour l’avancement du leadership de longue date du Canada dans le domaine de la recherche sur l’intelligence artificielle sécuritaire et digne de confiance. Avec l’influence croissante de l’IA au quotidien, nous devons plus que jamais nous assurer que cette technologie reflète nos valeurs et demeure dans l’intérêt du public. En investissant dans le travail de ces chercheurs canadiens, nous renforçons la résilience économique à long terme tout en consolidant la position du Canada à titre de chef de file mondial du développement et du déploiement responsables de l’IA. »

— L’honorable Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation numérique et ministre responsable de l’Agence fédérale de développement économique pour le sud de l’Ontario

 

« L’Alignment Project représente une occasion de renforcer les liens solides que le Canada a forgés avec ses partenaires internationaux et de travailler à l’atteinte d’un objectif commun visant à faire avancer la recherche sur la sécurité de l’IA. Les projets retenus abordent divers enjeux aussi essentiels que pressants liés à l’alignement de l’IA. Leurs retombées permettront de rendre l’IA plus sécuritaire, fiable et interprétable, au bénéfice des populations d’ici et d’ailleurs. » 

— Catherine Régis et Nicolas Papernot, coresponsables du Programme de recherche de l’ICSIA au CIFAR

 

Assurer la sécurité des systèmes d’IA avancés par le recours à la théorie des jeux

Zhijing Jin (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto)

À l’heure où les systèmes d’information deviennent de plus en plus autonomes et centrés sur l’IA, les cadres de sécurité traditionnels ne suffisent plus à remédier aux enjeux de sécurité, de contrôle et de protection de la confidentialité, en particulier dans les situations où plusieurs agents d’IA interagissent sans intervention humaine. Zhijing Jin, titulaire d’une chaire en IA Canada-CIFAR, propose de recourir à la théorie des jeux, un cadre théorique éprouvé, afin de fournir des garanties démontrables visant à limiter les comportements non conformes et à offrir des outils concrets aux responsables politiques et aux équipes de développement pour leur permettre de garder le contrôle sur les interactions multiagents.

Ajustement en ligne économe en données contre les comportements réfractaires : fondements statistiques de l’alignement postérieur à l’entraînement

Linglong Kong (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)

Une fois déployés dans le monde réel, les systèmes d’IA modernes manifestent souvent un début de désalignement (p. ex., le détournement de récompense ou un alignement trompeur), une faille comportementale interne qui les amène à s’éloigner de leurs fins premières. Le titulaire de chaire en IA Canada-CIFAR Linglong Kong propose de concevoir un cadre statistique afin d’optimiser l’ajustement en ligne des modèles selon une méthode économe en données. Ses travaux visent à établir si un entraînement correctif suffit à garantir la fiabilité des systèmes, ou s’il faut recourir à des mesures de protection plus fondamentales.

Lois dimensionnelles, distributions des données et dynamiques d’apprentissage : les données simulées en physique des hautes énergies comme référence pour évaluer les données en conditions réelles

Yonatan Kahn (Université de Toronto)

La recherche théorique actuelle en IA repose souvent sur une modélisation simpliste des données, ce qui complique l’examen de questions fondamentales liées aux lois dimensionnelles ou à la capacité des modèles d’apprendre réellement les paramètres latents sous-jacents. Grâce à une méthode de génération de données fondée sur la physique, le professeur à l’Université de Toronto Yonatan Kahn souhaite fournir des données de référence absolues (ground truth) aux chercheurs et chercheuses. Ceux-ci pourront ainsi prédire et tester certains mécanismes fondamentaux qui régissent l’apprentissage, la généralisation et l’évolution de l’IA.

Cadre statistique unifié pour évaluer les risques de défaillances rares des modèles de langage

Bei Jiang (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)

L’un des principaux défis de l’alignement de l’IA consiste à mesurer des taux de défaillance extrêmement faibles, à savoir des probabilités si minimes qu’aucun test ordinaire ne peut les détecter. Les défaillances dites « de longue traîne », comme les débridages (jailbreaks), le contournement des politiques ou des manquements subtils aux règles de sécurité, sont parmi les moins bien surveillées. Cette lacune rend impossible toute comparaison entre les modèles, l’établissement de normes de sécurité et l’évaluation de la régression des modèles. La titulaire de chaire en IA Canada-CIFAR Bei Jiang propose de résoudre ce problème en recourant à des outils statistiques éprouvés pour l’analyse d’événements rares, des méthodes actuellement sous-utilisées dans l’évaluation des grands modèles de langage. 

Articles liés

  • Une année d’impact sur la sécurité de l’IA au Canada
    21 janvier 2026
  • Rendre l’IA plus sûre grâce à des méthodes d’évaluation avancées
    03 décembre 2025
  • Le CIFAR lance de nouveaux réseaux axés sur la sécurité de l’IA afin de se pencher sur les inégalités linguistiques et sur les preuves synthétiques dans le système judiciaire
    19 novembre 2025
  • Avancement de la recherche en IA au Canada : nomination de titulaires de chaires en IA Canada-CIFAR 
    02 octobre 2025

Soutenez-nous

L’Institut canadien de recherches avancées (CIFAR) est une organisation de recherche d’influence mondiale fièrement basée au Canada. Nous mobilisons les plus brillants personnes du monde, dans toutes les disciplines et à tous les stades de carrière, pour faire progresser les connaissances transformatrices et résoudre ensemble les plus grands problèmes de l’humanité. Nous recevons l’appui des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de particuliers, d’entreprises et d’organisations partenaires du Canada et du monde entier.

Dons
CIFAR header logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2026 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus