Subventions Catalyseur en IA du CIFAR
Accélérer les projets de recherche interdisciplinaires en IA
L’IA transforme le monde dans un large éventail de domaines, des soins de santé à la physique fondamentale. Mais aucune de ces applications ne peut voir le jour sans les percées réalisées grâce à la recherche fondamentale, motivée par la curiosité et menée sur le long terme.
Les subventions Catalyseur en IA du CIFAR visent à encourager de nouvelles collaborations et des projets de recherche inédits dans le domaine de l’apprentissage automatique, ainsi que son application à différents secteurs de la science et de la société.
Si vous avez des questions au sujet de ces appels de proposition pour les subventions Catalyseur ou sur les appels à venir, veuillez nous écrire à [email protected].
Subventions Catalyseur accordées à ce jour
Subventions de 2025
Lutter contre la mésinformation
CIPHER : Contrer l’influence par la mise en évidence de modèles et l’évolution des réponses
Matthew E. Taylor (Amii et Université de l’Alberta) et Brian McQuinn (Université de Regina)
L’augmentation de la mésinformation, induite par l’ingérence étrangère dans la politique intérieure, produit des effets délétères sur l’écosystème de l’information. Le titulaire de chaire en IA Canada-CIFAR Matthew E. Taylor et le professeur agrégé à l’Université de Regina Brian McQuinn mettent au point des techniques novatrices avec intervention humaine, combinant l’IA multimodale avec la contribution de spécialistes en chair et en os, afin de concevoir un outil innovant de détection des ingérences étrangères. Une fois entraîné, le modèle CIPHER sera déployé dans un réseau mondial d’organisations de la société civile pour leur donner les moyens de lutter contre la mésinformation.
La robustesse antagoniste dans les graphes de connaissances
Ebrahim Bagheri (Université de Toronto), Jian Tang (Mila, HEC Montréal et Université McGill) et Benjamin Fung (Mila et Université McGill)
L’introduction de renseignements faux ou trompeurs dans les graphes de connaissances – les modèles qui alimentent les agents de recherche et les agents conversationnels – a de graves conséquences pour la sécurité de l’IA, car elle permet à la mésinformation de s’intégrer dans les modèles et de se propager largement. Ebrahim Bagheri, professeur à l’Université de Toronto, Jian Tang, titulaire de chaire en IA Canada-CIFAR, et Benjamin Fung, professeur à l’Université McGill, concevront des défenses fondées sur l’apprentissage automatique afin de détecter et d’atténuer les modifications antagonistes dans les graphes de connaissances. En mettant au point des méthodologies évolutives d’entraînement antagoniste et d’évaluation de la robustesse, leurs travaux de recherche permettront le déploiement pratique de graphes de connaissances plus sûrs dans le monde réel.
Rendre les grands modèles de langage (GML) fiables et interprétables
Échantillonnage d’explications latentes à partir de GML au profit d’un raisonnement sûr et interprétable
Yoshua Bengio (Mila et Université de Montréal)
S’assurer que les GML produisent des résultats fiables et interprétables constitue un objectif majeur de la communauté de recherche sur la sécurité de l’IA. Le titulaire de chaire en IA Canada-CIFAR Yoshua Bengio veillera à ce que les GML fournissent des explications plus fiables en déployant des réseaux de flot génératif d’une manière novatrice. Il se consacre à entraîner l’IA à expliquer ce que disent les humains, en examinant les raisons cachées qui sous-tendent les décisions de l’IA et en évaluant leur précision afin de démêler les causes sous-jacentes de ce que l’IA produit. En fin de compte, ce projet vise à établir un garde-fou de surveillance pour les agents d’IA qui peut mener à un déploiement plus sécuritaire de l’IA dans de nombreuses applications.
Sur l’utilisation sécuritaire des modèles fondateurs à bruit statistique
Mijung Park (Amii et Université de la Colombie-Britannique)
À mesure que les modèles fondateurs génératifs sont employés dans un nombre croissant de domaines, leur diffusion s’accompagne de préoccupations concernant la protection de la vie privée. La titulaire de chaire en IA Canada-CIFAR Mijung Park abordera les problèmes de sécurité liés aux modèles à bruit statique en recourant à des techniques efficaces sur le plan du calcul et préservant l’utilité. Le projet met l’accent sur deux domaines importants : 1) la génération de contenus dits NSFW, c’est-à-dire inappropriés au travail et 2) la confidentialité et la mémorisation des données, afin de réduire les risques que les modèles enregistrent des renseignements privés, comme des numéros d’assurance sociale, à partir d’ensembles de données d’entraînement. En élaborant des techniques permettant de supprimer les points de données problématiques, Mijung Park contribuera à créer des modèles fondateurs plus sécuritaires et respectueux de la vie privée.
Faire progresser l’alignement de l’IA par le débat et le raisonnement normatif partagé
Gillian Hadfield (Institut Vecteur, Université Johns Hopkins et Université de Toronto [en congé])
Aligner les systèmes d’IA avec les valeurs humaines représente l’un des principaux défis en matière de sécurité de l’IA. La titulaire de chaire en IA Canada-CIFAR Gillian Hadfield s’appuiera sur des connaissances issues de l’économie, de l’évolution culturelle, des sciences cognitives et des sciences politiques pour adopter une nouvelle approche au défi de l’alignement. Au moyen d’un cadre de débat, ce projet évaluera et améliorera les capacités de raisonnement normatif des agents d’IA dans un contexte d’apprentissage par renforcement multiagent. Tenant compte de la nature pluraliste et hétérogène des valeurs humaines, cette approche reconnaît que des institutions normatives ont été créées afin de concilier des intérêts et des préférences divergents de manière à relever le défi de l’alignement et à permettre l’intégration d’agents d’IA dans des systèmes normatifs humains.
La robustesse antagoniste de la sécurité des GML
Gauthier Gidel (Mila et Université de Montréal)
L’évaluation des vulnérabilités des grands modèles de langage (GML) est devenue un domaine clé de la recherche sur la sécurité de l’IA. Gauthier Gidel, titulaire de chaire en IA Canada-CIFAR, propose une méthode novatrice, plus efficace et automatisée, pour trouver les vulnérabilités dans les GML. En faisant appel à l’optimisation et en empruntant des méthodes issues d’attaques antagonistes fondées sur les images, ce projet a pour but de fournir un modèle efficace d’attaque automatique. Cela permettra aux concepteurs et conceptrices de modèles d’améliorer les évaluations et l’entraînement des GML, de mesurer leur vulnérabilité, ainsi que de les rendre plus sûrs et plus robustes.
Assurer la sécurité des systèmes d’IA dans le monde réel
Des laboratoires de chimie autonomes et sécuritaires
Alán Aspuru-Guzik (Institut Vecteur et Université de Toronto)
Les laboratoires autonomes sont susceptibles de révolutionner la science. Toutefois, en l’absence de garde-fous adéquats, ils présentent des risques pour la sécurité. Le titulaire de chaire en IA Canada-CIFAR Alán Aspuru-Guzik est en train de mettre au point une architecture de sécurité pour les laboratoires de chimie autonomes qui s’inspire de l’industrie aérospatiale. Le cadre de sécurité reposera sur trois piliers : une boîte noire physique (semblable à celle d’un avion), des systèmes multiagents de supervision de la sécurité et un jumeau numérique pour surveiller les conditions environnementales et de laboratoire. Grâce à ces trois piliers, Alán Aspuru-Guzik entend établir des modèles de référence largement répandus relativement à la sécurité.
Assurance de la sécurité et ingénierie pour les systèmes d’IA multimodaux reposant sur des modèles fondateurs
Foutse Khomh (Mila et Polytechnique Montréal), Lei Ma et Randy Goebel (Amii et Université de l’Alberta)
Dans le monde réel, les modèles fondateurs multimodaux sont de plus en plus utilisés dans divers domaines. Pourtant, malgré leur importance, les approches actuelles en matière d’assurance de la sécurité ne conviennent pas à la complexité des modèles multimodaux. Les titulaires de chaire en IA Canada-CIFAR Foutse Khomh et Lei Ma ainsi que le professeur Randy Goebel de l’Université de l’Alberta mettent au point des techniques d’assurance de la sécurité de bout en bout pour les modèles fondateurs multimodaux dans plusieurs champs d’application clés : la robotique, le codage de logiciels et la conduite autonome. Ils concevront des modèles de référence, des tests et des cadres d’évaluation susceptibles d’améliorer la sécurité des modèles fondateurs dans le monde réel.
Maintenir un contrôle significatif : comment concilier agentivité et surveillance dans le codage assisté par l’IA?
Jackie Chi Kit Cheung (Mila et Université McGill) et Jin Guo (Université McGill)
Les ingénieurs et ingénieures en logiciels ont de plus en plus recours à l’IA pour générer, modifier et déboguer des codes. Jackie Chi Kit Cheung titulaire de chaire en IA Canada-CIFAR, et la professeure Jin Guo mettront au point un cadre de sécurité permettant aux ingénieurs et ingénieures en logiciels de mieux comprendre et de contrôler les systèmes de codage assistés par l’IA. Leur méthodologie consiste à recueillir les points de vue des praticiens et praticiennes, à concevoir conjointement des interfaces et à procéder à des essais empiriques. En intégrant des considérations relatives à l’interaction humain-ordinateur, ils visent à fournir aux ingénieurs et ingénieures davantage de connaissances et de moyens de contrôle de ces systèmes.
Formalisation des contraintes pour l’évaluation et l’atténuation du risque agentique
Sheila McIlraith (Institut Vecteur et Université de Toronto)
Alors que les agents d’IA sont de plus en plus présents dans les organisations de manière semi-autonome, leur utilisation suscite des inquiétudes quant aux risques qu’ils comportent. La titulaire de chaire en IA Canada-CIFAR Sheila McIlraith mettra au point des outils concrets en vue de trouver une solution technique en matière de sécurité. Pour ce faire, elle combinera des approches telles que l’évaluation contextualisée, la modélisation des récompenses et l’alignement. Ce projet se concentre sur le recours à des spécifications de comportement souhaitées, qui sont encodées dans des représentations, afin de dégager des règles interprétables par les humains – comme la conception d’un système capable d’extraire un ensemble de règles formelles d’un manuel de formation. Au final, en mettant au point un modèle de gouvernance distribuée pour atténuer les risques liés à l’IA agentique, ce projet veut favoriser un déploiement responsable de l’IA au sein de l’industrie.
Subventions de 2024
Générer des images grâce à des instructions multimodales
Faire progresser les nouvelles méthodes d’apprentissage automatique et les applications réussies en vue de créer un modèle de génération d’images d’entraînement plus généralisé.
Équipe de recherche : Wenhu Chen (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Waterloo), Aishwarya Agrawal (titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal)
Les principes fondamentaux des réseaux autoattentifs : de l’optimisation à la généralisation
Créer des algorithmes plus rapides et des architectures plus efficaces pour obtenir une optimisation concrète et des garanties statistiques des réseaux autoattentifs, applicables au traitement du langage naturel, à la vision par ordinateur et à la prévision des séries chronologiques.
Équipe de recherche : Murat Erdogdu (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto), Christos Thrampoulidis (Université de la Colombie-Britannique)
Résoudre des simulateurs au moyen de l’apprentissage par renforcement pour la conception de matériaux et de processus
Optimiser l’apprentissage par renforcement pour obtenir des simulateurs de conception de matériaux et de processus moins coûteux et plus efficaces pour la production de carburants propres.
Équipe de recherche : Martha White (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta), Mouloud Amazouz (Ressources naturelles Canada, Université de Waterloo), Ahmed Ragab (Ressources naturelles Canada, Polytechnique Montréal)
L’audit de l’IA par l’exploration de la multiplicité de modèles
Générer de nouvelles perspectives sur la façon dont les entrées de l’utilisateur ou de l’utilisatrice (« invites ») personnalisent le comportement des modèles fondateurs, ainsi que suggérer des façons de procéder à l’audit de tous les comportements affichés par un seul modèle fondateur.
Équipe de recherche : Golnoosh Farnadi (titulaire de chaire en IA Canada-CIFAR, Mila, Université McGill), Elliot Creager (Université de Waterloo)
Classification stratégique robuste et modélisation causale pour l’équité à long terme
Remédier aux erreurs dans les algorithmes de prise de décision en adoptent une approche de l’équité différente, l’objectif étant de permettre aux personnes étiquetées comme ayant des « résultats indésirables » d’obtenir des résultats « souhaités » à long terme.
Équipe de recherche : Nidhi Hegde (Titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta) et Dhanya Sridhar (Titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal)
Traitement du langage naturel pour les personnes issues de cultures différentes
Évaluer la conscience culturelle des grands modèles de langage occidentaux actuels dans le but d’améliorer leur compétence culturelle.
Équipe de recherche : Vered Shwartz (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de la Colombie-Britannique), Siva Reddy (titulaire de chaire en IA Canada-CIFAR, Mila, Université McGill)
Subventions de 2022-2023
Analyse de survie avec censure informative
Améliorer les méthodes statistiques permettant de faire des prédictions de la durée de vie en présence de données censurées à droite, un domaine connu sous le nom d’analyse de survie, avec une myriade d’applications dans différents secteurs d’activité.
Équipe de recherche : Rahul G. Krishnan (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto), Russ Greiner (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)
Mettre au point un cadre pour l’évaluation des risques de divulgation à partir de données synthétiques tabulaires sur la santé
Équipe de recherche : Linglong Kong (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta), Khaled El Emam (Université d’Ottawa)
Des contretemps sur la voie de l’apprentissage par renforcement explicable (XRL)
Faire progresser le domaine émergent de l’apprentissage automatique digne de confiance en veillant à ce que les modèles d’apprentissage par renforcement profond soient déployés de manière à réduire les risques pour les particuliers et les industries du Canada.
Équipe de recherche : Samira Ebrahimi Kahou (titulaire de chaire en IA Canada-CIFAR, Mila, Université McGill), Marlos Machado (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta), Ulrich Aïvodji (ÉTS Montréal)
Coadaptation humain-ordinateur dans l’improvisation musicale au moyen de l’apprentissage par renforcement multiagents
Concevoir des agents qui peuvent improviser avec des humains en tant que partenaires collaboratifs, capables de s’adapter au niveau de compétence et au style d’un musicien ou d’une musicienne, que cette personne soit débutante ou professionnelle.
Équipe de recherche : Cheng-Zhi Anna Huang (titulaire de chaire en IA Canada-CIFAR, Mila, Université McGill), Patrick M. Pilarski (titulaire de chaire en IA Canada-CIFAR, Amii, Université de l’Alberta)
Un cadre de reconstruction de l’imagerie par résonance magnétique fondé sur l’intelligence artificielle
Équipe de recherche : Mojgan Hodaie (Université de Toronto), Frank Rudzicz (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université Dalhousie), Timur Latypov (Université de Toronto), Marina Tawfik (Université de Toronto).
Financé en partenariat avec le Centre Temerty pour la recherche et l’enseignement de l’IA dans le domaine de la médecine
Expliquer l’explicabilité des applications d’apprentissage automatique dans les STIM
Équipe de recherche : Audrey Durand (titulaire de chaire en IA Canada-CIFAR, Mila, Université Laval), Flavie Lavoie-Cardinal (Université Laval), Jess McIver (Université de la Colombie-Britannique), Renee Hlozek (membre du programme de chercheurs mondiaux CIFAR-Azrieli, Extrême univers et gravité), Ashish Mahabal (Cal Tech), Daryl Haggard (membre du programme de chercheurs mondiaux CIFAR-Azrieli, Extrême univers et gravité)
L’IA culturellement inclusive dans le programme d’Actua destiné aux jeunes autochtones des domaines des STIM
SUBVENTION DE FORMATION EN IA POUR LES AUTOCHTONES
Chercheuse : Valeria Ianniti (Actua)
Établir des liens entre les jeunes autochtones et l’IA
SUBVENTION DE FORMATION EN IA POUR LES AUTOCHTONES
Chercheuse : Kate Arthur (Digital Moments)
Modèles génératifs respectueux de la vie privée pour la synthèse d’images de la rétine utilisées à des fins de diagnostic
SUBVENTION CATALYSEUR POUR LA RECHERCHE SUR LES DONNÉES SYNTHÉTIQUES RELATIVES À LA SANTÉ
Responsable : Xiaoxiao Li (Université de la Colombie-Britannique) en partenariat avec Roche
Synthèse des données d’une cohorte respectueuse de la vie privée en vue d’étudier et de stimuler la recherche sur la crise des opioïdes au Canada
SUBVENTION CATALYSEUR POUR LA RECHERCHE SUR LES DONNÉES SYNTHÉTIQUES RELATIVES À LA SANTÉ
Responsable : Sébastien Gambs (Université du Québec à Montréal) en partenariat avec Statistique Canada
Production de données synthétiques respectueuses de la confidentialité à partir de bases de données administratives sur la consommation de médicaments pour l’analyse de la consommation de médicaments dans la population québécoise
SUBVENTION CATALYSEUR POUR LA RECHERCHE SUR LES DONNÉES SYNTHÉTIQUES RELATIVES À LA SANTÉ
Coresponsables : Christian Gagné (Université Laval) en partenariat avec la Régie de l’assurance maladie du Québec
Un générateur capable de créer des images et des étiquettes associées pour différents types d’images, comme des images de rétine, des lésions cutanées et de l’histopathologie
SUBVENTION CATALYSEUR POUR LA RECHERCHE SUR LES DONNÉES SYNTHÉTIQUES RELATIVES À LA SANTÉ
Coresponsables : Raymond Ng et Mathias Lécuyer (Institut de la science des données de l’Université de la Colombie-Britannique) en partenariat avec Microsoft Research
Subventions de 2020
DeepCell : analyse et intégration de données spatiales de séquençage de l’ARN de cellule unique
Développement d’outils basés sur l’apprentissage profond pour analyser et intégrer des données spatiales de séquençage de l’ARN à l'échelle de la cellule unique de tumeurs cérébrales.
Collaborateurs : Bo Wang (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, UHN, Université de Toronto), Michael Taylor (Université de Toronto, Hôpital pour enfants malades de Toronto)
Repenser la généralisation et le diagnostic des modèles en apprentissage automatique moderne
Exploration des propriétés particulières des algorithmes modernes d’apprentissage automatique.
Collaborateurs : Murat Erdogdu (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto), Ioannis Mitliagkas (titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal), Manuela Girotti (Mila, Université Concordia)
Apprendre à résoudre des programmes linéaires mixtes en nombres entiers
Utilisation de l’apprentissage automatique pour la programmation linéaire mixte en nombres entiers.
Collaborateurs : Laurent Charlin (titulaire de chaire en IA Canada-CIFAR, Mila, HEC Montréal, Université de Montréal), Chris Maddison (Institut Vecteur, Université de Toronto)
Langage ancré dans le monde visuel pour la navigation et l’interaction des agents incarnés
Permettre à un agent intelligent de comprendre le langage naturel dans le cadre de tâches de navigation.
Collaborateurs : Chris Pal (titulaire de chaire en IA Canada-CIFAR, Mila, Polytechnique Montréal, Université de Montréal), Sanja Fidler (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto), David Meger (Mila, Université McGill)
Confidentialité et éthique en IA : comprendre les synergies et les tensions
Exploration des tensions et des synergies qui peuvent émerger lors du déploiement des algorithmes d’apprentissage automatique, en mettant l’accent sur la responsabilité, la transparence et les biais.
Collaborateurs : Nicolas Papernot (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto, Google), Sébastien Gambs (Université du Québec)
L'intelligence politique à l’ère de la désinformation
Utilisation de l’exploration de graphiques pour détecter et combattre la désinformation dans les systèmes d’information de masse.
Collaborateurs : Reihaneh Rabbany (titulaire de chaire en IA Canada-CIFAR, Mila, Université McGill), André Blais (Université de Montréal, Société royale du Canada), Jean-François Gagné (Université de Montréal), Jean-François Godbout (Université de Montréal)
Modèles rythmiques adaptatifs et génératifs pour la réadaptation neurologique
Exploration des bienfaits du son et de la musique, en particulier de la stimulation auditive rythmique, pour les patients atteints de la maladie de Parkinson.
Collaborateurs : Sageev Oore (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université Dalhousie), Michael Thaut (titulaire d’une Chaire de recherche du Canada, Université de Toronto)
Système d’apprentissage par renforcement pour l’adaptation du niveau d’automatisation des véhicules automatisés aux personnes atteintes de démence
Faire progresser le domaine de la compatibilité humaine avec l’IA appliquée aux personnes atteintes de démence en utilisant de nouveaux algorithmes pour faciliter la compatibilité.
Collaborateurs : Sarath Chandar (titulaire de chaire en IA Canada-CIFAR, Mila, Polytechnique Montréal), Alex Mihailidis (Université de Toronto, UHN)
Modélisation d’agents incarnés avec l’opérateur de Koopman
Utilisation de systèmes dynamiques pour prévoir l’état futur d’un système, puis le contrôler.
Collaborateurs : Liam Paull (titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal), James Forbes (Université McGill)