Par: Krista Davidson
28 Mar, 2026
Le CIFAR a le plaisir d’annoncer la deuxième cohorte de projets Catalyseur en sécurité de l’IA dans le cadre du Programme de recherche de l’ICSIA (Institut canadien de la sécurité de l’intelligence artificielle) au CIFAR. Ces projets visent à encourager l’innovation en matière de recherche sociotechnique afin de relever les défis les plus pressants liés à la sécurité, à la responsabilité et au déploiement éthique de l’IA.
À l’heure où l’IA passe du statut de curiosité technique à celui d’outil autonome, désormais indissociable de notre vie professionnelle et démocratique, il apparaît plus que jamais nécessaire d’instaurer des balises de sécurité rigoureuses pour protéger la société. Cette nouvelle cohorte de huit projets regroupe des spécialistes en informatique, en sociologie, en économie et en gouvernance autochtone pour faire évoluer la sécurité de l’IA d’un simple correctif à des solutions globales, ancrées dans les réalités sociales et attentives aux impacts sociétaux.
En abordant divers enjeux tels que la souveraineté des peuples autochtones à l’égard de leurs données, l’homologation de l’IA dans certains contextes professionnels et la protection des processus démocratiques contre les biais utilisés pour influencer et persuader, ces projets jettent les bases réglementaires et éthiques d’un avenir où l’IA demeure au service du bien commun.
Les projets Catalyseur en sécurité de l’IA sont rendus possibles grâce au financement de l’Institut canadien de la sécurité de l’intelligence artificielle, un organisme fédéral placé sous l’égide du ministère de l’Innovation, des Sciences et du Développement économique (ISDE). Le Programme de recherche de l’ICSIA au CIFAR est l’organe scientifique indépendant de l’ICSIA.
Voir la liste complète des projets ci-dessous :
Solutions sociotechniques au service de la fiabilité de l’information et de l’éducation à l’IA
Jean-François Godbout (Mila et Université de Montréal), Nina Wang (Université York), Gordon Pennycook (Université Cornell), David Rand (Université Cornell), Kellin Pelrine (FAR.AI), Matt Kowal (Goodfire), Taylor Lynn Curtis (Mila)
Face à la menace mondiale que représentent la mésinformation et la désinformation, ce projet vise à élaborer un cadre sociotechnique propre à rendre l’information plus fiable et à améliorer l’éducation à l’IA. L’équipe de recherche entend mener des essais bilingues auprès de participantes et participants canadiens pour évaluer la capacité de l’IA à rectifier les idées fausses au sein des communautés anglophones et francophones du pays. Le projet examinera les enjeux éthiques liés à la personnalisation des réponses fournies par l’IA en fonction du profil cognitif de chaque personne, tout en concevant des modules éducatifs pour développer la pensée critique. Les résultats seront intégrés à des outils de vérification des faits en libre accès comme Veracity pour offrir aux Canadiens et Canadiennes des « compagnons épistémiques » proactifs destinés à protéger l’appareil démocratique contre la désinformation et la polarisation sociétale propagées par l’IA.
Remédier aux enjeux de sécurité de l’IA par la gouvernance communautaire autochtone
Victoria Lemieux (Université de la Colombie-Britannique), Jacob Taylor (Université des Premières Nations), Robin Billy (Nation secwepemc), Ethan Clark (Nationsfirst Technologies)
Ce projet vise à pallier l’absence critique de mécanismes tenant compte, au sein des cadres de sécurité de l’IA, des droits et de la souveraineté des Autochtones à l’égard de leurs données. En concevant la sécurité de l’IA comme une « ressource partagée », l’équipe de projet entend conjuguer la théorie des communs d’Elinor Ostrom et la Grande Loi de la paix des Haudenosaunee pour procéder à l’élaboration participative d’un modèle de gouvernance communautaire. À l’aide d’une infrastructure décentralisée et de technologies de renforcement de la confidentialité, l’initiative soumettra ce cadre à des essais dans le contexte d’une recherche ouverte en innovation. À terme, elle favorisera la réconciliation économique en donnant aux communautés autochtones les moyens de superviser le déploiement de l’IA, afin de veiller à ce que la technologie respecte le patrimoine culturel des Premières Nations et le principe de responsabilité envers les sept prochaines générations.
Théorie économique et alignement démocratique des grands modèles de langage : préférences relatives et coordination stratégique
Clemens Possnig (Université de Waterloo), Elliot Creager (Université de Waterloo), Rohit Lamba (Université Cornell)
Ce projet vise à pallier les limites des méthodes d’alignement de l’IA actuelles, qui peinent souvent à représenter la diversité des valeurs sociales et à résister aux manipulations stratégiques. Par l’application de la théorie économique et la mise au point de mécanismes, l’équipe élaborera un cadre de conformité aux valeurs démocratiques qui transcende les simples classements pour rendre compte de l’étendue des préférences humaines. En recourant à des techniques comme le « vote quadratique », les chercheurs prévoient de créer des protocoles qui permettent aux communautés d’encadrer le comportement des modèles tout en prévenant leur exploitation à des fins malveillantes. À terme, ces travaux définiront la voie vers des systèmes d’IA plus sûrs et responsables qui respectent la pluralité des points de vue et favorisent la résilience démocratique.
Répétition, résistance et renforcement : les effets longitudinaux de l’IA conversationnelle sur l’opinion politique
Semra Sevi (Université de Toronto), Can Mekik (Université de Toronto)
Les grands modèles de langage font maintenant partie du quotidien de millions de gens. Ce projet examine la manière dont les interactions répétées avec l’IA conversationnelle influencent la formation des opinions politiques, le niveau de confiance et la disposition à changer d’avis. S’il est prouvé qu’un seul échange avec un robot conversationnel peut influencer les opinions, on sait encore peu de choses sur les mécanismes de persuasion à l’œuvre lors d’interactions répétées avec un même système d’IA. Ce projet vise à réaliser un sondage expérimental en plusieurs rondes auprès d’un échantillon représentatif de l’électorat national pour comparer l’incidence d’interactions suivies avec un robot conversationnel à celles d’échanges isolés. L’équipe examinera si la familiarité et le maintien d’une relation dans le temps rendent les gens plus réceptifs aux mécanismes de persuasion et si la personnalisation des échanges en fonction des interactions précédentes renforce le pouvoir persuasif de l’IA. En dissociant la dimension relationnelle de la personnalisation des messages, le projet cernera les mécanismes qui permettent à l’IA d’influencer les opinions politiques, en tenant compte notamment des possibles effets de propagation.
Vers une sécurité de l’IA ancrée dans les réalités sociales : intégration du raisonnement causal et institutionnel dans les modèles de langage
Matt Ratto (Université de Toronto), Zhijing Jin (titulaire de chaire en IA Canada-CIFAR, Université de Toronto)
Ce projet vise à atténuer les risques que représentent des systèmes d’IA déconnectés des réalités sociales, qui ne tiennent pas compte des normes culturelles et des contextes institutionnels. Malgré leur sophistication technique, les modèles d’IA reposent souvent sur des corrélations superficielles, susceptibles de véhiculer involontairement des biais sociaux préjudiciables. À l’intersection de la sociologie et de l’informatique, ce projet vise à développer des architectures agentiques et des modules de raisonnement causal pour amener l’IA à tenir compte du contexte social dans ses interactions. À terme, ce projet transcendera le simple contrôle comportemental pour instaurer une responsabilité relationnelle permettant aux systèmes d’IA de trouver leurs repères dans des écologies humaines complexes, tout en favorisant une coordination plus fiable entre l’être humain et l’IA.
Fondements économiques de l’homologation de l’IA
Jesse Perla (Université de la Colombie-Britannique), Kevin Leyton-Brown (titulaire de chaire en IA Canada-CIFAR, Université de la Colombie-Britannique), Serena Wang (Université de la Colombie-Britannique)
Ce projet répond à la nécessité urgente de mettre en place une surveillance rigoureuse de l’IA, alors que les modèles présentent des capacités de plus en plus surhumaines, mais imprévisibles. Les cadres réglementaires actuels, axés sur les défaillances techniques, ne disposent pas de mécanismes d’homologation de l’IA pour certains rôles professionnels. En alliant théorie économique et informatique, l’équipe entend concevoir un cadre de « sécurité par l’homologation » qui évaluera la rationalité économique et modélisera les interactions multiagents à partir de la théorie comportementale des jeux. À plus long terme, ce projet proposera un modèle de normes d’homologation sectorielle afin de garantir que l’IA agentique demeure responsable et au service du bien commun dans des secteurs comme la santé et les finances.
Empathie performative et alignement trompeur
Michael Inzlicht (Université de Toronto)
Ce projet aborde les risques de sécurité associés à l’« empathie performative » des grands modèles de langage. Si l’empathie simulée par l’IA peut améliorer les interactions cliniques, elle comporte un risque d’« alignement trompeur », où une sollicitude artificielle peut instrumentaliser la confiance des patientes et patients et nuire à l’objectivité du jugement médical. Dans le cadre d’expériences à grande échelle, l’équipe isolera les caractéristiques susceptibles d’inspirer une confiance injustifiée et appliquera la théorie de la détection du signal afin de cerner les cas où l’empathie de l’IA compromet la qualité des décisions. À plus longue échéance, ce projet vise l’élaboration participative de garde-fous réglementaires et de cadres institutionnels pour garantir que l’IA reste un outil sûr pour le bien-être des patientes et patients, et non un instrument de manipulation dans le secteur de la santé.
Mise à l’essai, selon la méthode de l’équipe rouge, de mesures visant à protéger la gouvernance démocratique contre le pouvoir de persuasion de l’IA
Seth Wynes (Université de Waterloo), Sam Johnson (Université de Waterloo)
Alors que les instances décisionnelles s’appuient de plus en plus sur l’IA, les dispositifs de sécurité actuels, comme le contrôle par les pairs, sont souvent trop lents pour être efficaces. Ce projet aborde les risques liés à l’influence de systèmes d’IA avancés aptes à fausser les échanges démocratiques par une rhétorique biaisée et persuasive. Dans le cadre de sondages expérimentaux à grande échelle et de séances de délibération en petits groupes, l’équipe évaluera, selon la méthode de l’équipe rouge, l’efficacité de dispositifs de sécurité destinés à détecter et à invalider en temps réel toute information biaisée par l’IA. En produisant des données empiriques sur la capacité de persuasion de l’IA, ce projet offrira des orientations concrètes pour les politiques publiques canadiennes afin de garantir que la prise de décision démocratique reste à l’épreuve de toute manipulation lors des grandes consultations publiques.