Par: Justine Brooks, Filippo Sposini
4 Mar, 2025
Sept nouveaux projets ont été retenus dans le cadre du cycle 2024-2025 d’octroi des subventions Catalyseur en IA du CIFAR, un programme destiné à catalyser de nouvelles avenues de recherche et de collaboration dans le domaine de l’apprentissage automatique. Ces subventions pouvant atteindre 50 000 $ par an pour une période maximale de 2 ans visent à encourager la recherche collaborative et les échanges entre les titulaires de chaires en IA Canada-CIFAR et d’autres chercheurs ou chercheuses. Quatre subventions plus modestes ont également été attribuées pour soutenir l’organisation de conférences et d’ateliers destinés principalement à la relève scientifique.
Adapter l’éclairage pour stimuler la croissance des plantes grâce à l’apprentissage par renforcement
Adam White (Amii, Université de l’Alberta), Glen Uhrig (Université de l’Alberta), Mo Chen (Amii, Université Simon Fraser)
Adam White et Mo Chen, titulaires de chaires en IA Canada-CIFAR, ainsi que Glen Uhrig, professeur agrégé à l’Université de l’Alberta, font appel à l’apprentissage par renforcement pour optimiser les dispositifs lumineux de précision utilisés dans des environnements de culture contrôlés. Leur projet vise à appliquer les systèmes d’apprentissage par renforcement au domaine de l’horticulture en procédant à l’ajustement dynamique des conditions d’éclairage pour maximiser la croissance des plantes. En explorant de nouveaux algorithmes d’apprentissage par renforcement, en déterminant les conditions de croissance optimales pour les différentes cultures et en développant des solutions immédiatement commercialisables, ces travaux pourraient révolutionner l’agriculture verticale, réduire l’insécurité alimentaire et faire progresser le rôle que joue l’IA dans la découverte scientifique.
Perte de plasticité des réseaux biologiques et neuronaux : explications et solutions
Alona Fyshe (Amii, Université de l’Alberta), Marlos C. Machado (Amii, Université de l’Alberta), Eilif Muller (Mila, Université de Montréal)
La perte de plasticité, c’est-à-dire la diminution de la capacité à s’adapter et à maintenir le même niveau de performance, constitue un problème fondamental pour les réseaux neuronaux tant biologiques qu’artificiels. Les titulaires de chaires en IA Canada-CIFAR Alona Fyshe, Eilif Muller et Marlos C. Machado dirigent un projet de collaboration portant sur cette question. S’inspirant des mécanismes biologiques, leur projet se penche sur les modèles de plasticité synaptique, les connexions neuronales bistables et les programmes de formation permettant l’acquisition de compétences transférables. Abordant la question sous l’angle des neurosciences, des sciences cognitives et de l’apprentissage automatique, l’équipe cherche à développer des systèmes d’apprentissage adaptatifs qui conservent leur flexibilité tout en améliorant l’exécution des tâches dans des environnements changeants.
Création d’un jeu de données de référence pour l’évaluation des risques d’atteinte à la vie privée inhérents aux données synthétiques sur la santé
Linglong Kong (Amii, Université de l’Alberta), Khaled El Emam (Université d’Ottawa)
Au moment où la génération de données synthétiques (GDS) gagne du terrain, il est primordial de connaître les risques qu’elle pose pour le respect de la confidentialité. Linglong Kong, titulaire d’une chaire en IA Canada-CIFAR, et Khaled El Emam, professeur à l’Université d’Ottawa, s’attachent à évaluer la protection des renseignements personnels dans les modèles de GDS à l’aide d’un jeu de données optimisé pour déceler les failles et renforcer les mécanismes de confidentialité. Ce projet ouvrira la voie à des comparaisons systématiques entre modèles de GDS afin d’en évaluer l’utilité et la performance en matière de protection des renseignements personnels dans le secteur des soins de santé et d’autres domaines.
Démocratiser les relations entre l’humain et l’IA : régler les interactions sur les valeurs, les préférences, la culture et le contexte
Golnoosh Farnadi (Mila, Université McGill), Amir-Hossein Karimi (Université de Waterloo), Igor Grossmann (Université de Waterloo)
Alors que les systèmes d’IA font de plus en plus partie de notre quotidien, il est crucial de veiller à ce qu’ils respectent les valeurs humaines, les préférences personnelles et les principes éthiques pour instaurer la confiance et maximiser les retombées sociétales. Golnoosh Farnadi, titulaire d’une chaire en IA Canada-CIFAR, s’applique à développer, en collaboration avec Amir-Hossein Karimi et Igor Grossmann, des mécanismes d’alignement qui améliorent les interactions entre l’humain et l’IA en adaptant celle-ci aux valeurs personnelles, en gérant la coopération entre les systèmes et en y intégrant des nuances d’ordre culturel et contextuel. Ces travaux interdisciplinaires à la croisée de l’apprentissage automatique, de la psychologie et de l’éthique visent à créer une IA qui n’est pas seulement performante d’un point de vue technologique, mais qui est aussi socialement responsable. Par une plus grande personnalisation, par des interactions plus justes entre les différents agents et par une prise en compte accrue du contexte, ce projet vise à rendre les transactions avec l’IA plus démocratiques, équitables et sensibles aux différents besoins sociétaux.
Lois d’échelle neuronale et nouveaux horizons de l’efficacité computationnelle
Courtney Paquette (Mila, Université McGill), Murat Erdogdu (Institut Vecteur, Université de Toronto), Elliot Paquette (Université McGill)
En révolutionnant l’optimisation, l’essor des grands modèles de langage soulève des questions fondamentales sur les lois d’échelle et l’efficacité computationnelle. Les titulaires de chaires en IA Canada-CIFAR Courtney Paquette et Murat Erdogdu, en collaboration avec Elliot Paquette, professeur agrégé à l’Université McGill, s’intéressent à la façon dont la taille, l’architecture et les hyperparamètres des modèles peuvent être optimisés dans les limites des budgets d’informatique. Leurs travaux visent à établir les fondements théoriques des courbes d’efficacité computationnelle en limitant les coûts d’entraînement des modèles tout en maximisant leur performance. Cette étude pourrait redéfinir l’efficacité computationnelle, en particulier pour les équipes hors secteur limitées par le manque de ressources.
Mise en correspondance simplifiée des flux pour la rétrosynthèse
Guy Wolf (Mila, Université de Montréal), Renjie Liao (Institut Vecteur Université de la Colombie-Britannique)
La rétrosynthèse, un procédé qui consiste à décomposer des molécules d’intérêt en leurs agents d’origine plus simples, joue un rôle prépondérant dans l’élaboration des nouveaux médicaments. Elle n’en pose pas moins des difficultés complexes. Les titulaires de chaires en IA Canada-CIFAR Guy Wolf et Renjie Liao s’appliquent à élaborer une nouvelle approche de bout en bout fondée sur la mise en correspondance simplifiée des flux. Cette méthode s’appuie sur des schémas moléculaires pour prendre en charge les correspondances co-univoques et améliorer l’efficacité de l’échantillonnage. Leur démarche innovante vise à simplifier les étapes de la rétrosynthèse afin de réaliser des prédictions plus efficaces et plus précises, tout en élargissant les capacités des modèles de mise en correspondance des flux en vue de multiplier les usages concrets dans le domaine de la génération moléculaire.
Contrer les attaques hostiles à l’aide de modèles de diffusion guidés par la confidentialité différentielle
Geoff Pleiss (Institut Vecteur, Université de la Colombie-Britannique), Mathias Lécuyer (Université de la Colombie-Britannique), Nidhi Hegde (Amii, Université de l’Alberta)
Si les modèles d’apprentissage profond ont transformé bon nombre de champs d’application concrète, leur vulnérabilité aux attaques malveillantes demeure un problème préoccupant. Les titulaires de chaires en IA Canada-CIFAR Geoff Pleiss et Nidhi Hegde s’associent à Mathias Lécuyer, professeur adjoint à l’Université de la Colombie-Britannique, pour améliorer la robustesse vérifiable des systèmes d’IA à l’aide de modèles de débruitage par diffusion guidés par les techniques de confidentialité différentielle. Leurs travaux portent sur des méthodes innovantes visant à adapter les données d’entrée, à établir des indicateurs de robustesse efficaces et à définir des garanties de robustesse en fonction de la complexité des données d’entrée. Cette approche a de vastes implications allant de l’amélioration de l’équité et de la confidentialité des données à la protection des modèles de fondation contre les menaces d’intrusion.
Quatre autres propositions se sont vu accorder du financement en soutien à l’organisation d’ateliers et de conférences.