Par: Justine Brooks
19 Nov, 2025
Le CIFAR a lancé ses deux premiers Réseaux de solutions pour la sécurité de l’IA sous l’égide du Programme de recherche de l’Institut canadien de la sécurité de l’intelligence artificielle (ICSIA) au CIFAR. Les deux équipes de recherche – Protéger les tribunaux contre les contenus synthétiques générés par l’IA et Réduire les biais dialectaux (cette dernière cofinancée par le Centre de recherches pour le développement international) – consacreront les deux prochaines années à élaborer et à mettre en œuvre des solutions d’IA à code source libre afin de rendre l’IA plus sûre et plus inclusive pour les populations du Canada et des pays du Sud. Chaque Réseau reçoit 700 000 dollars pour soutenir ses recherches novatrices et son développement.
Les Réseaux de solutions sont financés par le Programme de recherche de l’ICSIA au CIFAR, un volet de recherche indépendant et multidisciplinaire dirigé par le CIFAR. Ce programme spécialisé est une composante centrale de l’Institut canadien de la sécurité de l’IA du gouvernement du Canada (ICSIA). Lancé en novembre 2024 avec un investissement de 50 millions de dollars, cet institut a pour mission de contrer les risques liés à l’évolution de l’IA pour la population canadienne.
« La sécurité en matière d’intelligence artificielle devient un enjeu crucial à mesure que l’IA s’impose de plus en plus dans notre travail et dans nos vies. Essentiellement, il importe d’instaurer la confiance et de concevoir les outils nécessaires pour la préserver », affirme l’honorable Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation numérique et ministre responsable de l’Agence fédérale de développement économique pour le Sud de l’Ontario. « Il faut instaurer la confiance dans le fait que l’IA sera utilisée de manière responsable et que des outils la rendront plus sûre, plus équitable et plus transparente. Les nouveaux Réseaux de solutions illustrent comment les chercheuses et chercheurs canadiens font progresser la science même de la sécurité, en transformant des idées en solutions concrètes qui mettent l’IA au service des gens. »
« Les Réseaux de solutions du CIFAR proposent une approche unique relativement à la recherche et au développement dans le domaine de l’IA digne de confiance. Ils réunissent des équipes exceptionnelles de recherche interdisciplinaire – qui, autrement, ne se seraient peut-être jamais rencontrées – afin d’aborder des questions d’importance mondiale, mais surtout de concevoir, de mettre au point et de déployer des solutions, affirme Elissa Strome, directrice générale de la Stratégie pancanadienne en matière d’IA au CIFAR. Un élément central des travaux de ces deux Réseaux de solutions consiste à trouver des moyens de réduire les préjudices potentiels de l’IA pour les populations du Canada et du monde entier. »
Codirigé par Ebrahim Bagheri et Maura R. Grossman, ce Réseau de solutions vise à lutter contre la prévalence croissante de contenus synthétiques générés par l’IA dans le système judiciaire. Il peut s’agir de fausses preuves sous forme d’images ou de vidéos réalisées au moyen d’outils d’IA, mais aussi de documents judiciaires créés à l’aide de grands modèles de langage (GML) comme ChatGPT, qui peuvent produire des hallucinations.
« La question est désormais de savoir si cela peut être effectué à grande échelle et de manière pratique », souligne Ebrahim Bagheri. Auparavant, il fallait consacrer beaucoup de temps et d’argent pour falsifier des preuves. Aujourd’hui, les preuves peuvent être rapidement et facilement trafiquées, voire fabriquées de toutes pièces.
Les enjeux sont extrêmement élevés, d’après Maura R. Grossman. « Une personne peut être emprisonnée ou non selon qu’il s’agit d’une vidéo authentique ou fausse. »
Faire appel à une personne qualifiée pour évaluer la provenance d’une preuve ou d’un contenu généré par l’IA n’est pas toujours possible sur le plan financier. L’équipe propose de mettre au point un cadre gratuit et à code source libre dont toute partie prenante du système judiciaire pourra se servir pour repérer les contenus potentiellement problématiques.
« Nous avons besoin d’un outil [transparent] qui reconnaisse quand ses résultats peuvent ne pas être fiables. Cet outil doit être convivial pour ce groupe d’utilisateurs et d’utilisatrices, qui comprend à la fois les parties non représentées et les membres du personnel judiciaire », ajoute Maura R. Grossman.
Leur solution pourrait fortement améliorer l’efficacité et la fiabilité d’un système judiciaire qui doit composer avec de nombreux changements en peu de temps. « Même si notre solution n’est pas parfaite, même si elle permet d’exclure [les contenus synthétiques] dans une proportion de 50 %, de 60 % ou de 70 %, nous avons déjà fait un grand pas en avant pour le système judiciaire. »
Le recours à de grands modèles de langage (GML) comme ChatGPT a bondi ces dernières années. Cependant, ces outils sont moins sûrs et efficaces pour les personnes qui parlent un anglais non standard. C’est le problème auquel Laleh Seyyed-Kalantari et Blessing Ogbuokiri s’efforcent de remédier.
Leur Réseau de solutions se concentre sur le pidgin nigérian, une langue parlée par plus de 140 millions de personnes, principalement en Afrique de l’Ouest. Les GML formés à l’anglais standard interprètent souvent à tort les dialectes marginalisés – comme le pidgin – comme étant injurieux ou offensants et pénalisent ses locuteurs et locutrices. Cela peut entraîner des préjudices très réels, comme la censure sur les réseaux sociaux ou la discrimination dans l’accès aux services.
L’équipe veillera à définir les tout premiers indicateurs en matière de biais et de sécurité pour le pidgin nigérian dans le cadre d’une trousse à outils à code source libre d’audit et d’atténuation. Ces ressources seront mises à la disposition des équipes de développement et des responsables politiques afin de garantir que les systèmes d’IA soient équitables et sûrs pour l’ensemble des utilisateurs et utilisatrices. « Nous tentons de créer un système d’IA dans lequel les voix marginalisées peuvent se sentir à l’aise de faire appel à ces outils, car ils seront adaptés à leurs besoins », ajoute Blessing Ogbuokiri.
L’équipe collaborera avec un réseau citoyen au Nigéria, qui aidera à évaluer les ensembles de données et les GML employés lors du projet. « Ce qui rend notre solution unique, à mon avis, c’est qu’elle est ancrée localement et représentative sur le plan culturel des personnes vivant dans les pays africains », explique Laleh Seyyed-Kalantari.
L’équipe poursuit également un objectif en matière d’élaboration de politiques, ajoute-t-elle. « Nous voulons nous assurer que les recherches que nous menons […] procurent des changements positifs et concrets aux personnes qui utilisent ces GML en Afrique. »
Blessing Ogbuokiri souligne l’incidence que ce projet pourrait avoir au-delà de l’Afrique de l’Ouest pour les communautés immigrantes et autochtones du Canada qui ont recours à des variantes non standard de l’anglais. « Cela constituera une ressource publique essentielle pour les équipes de recherche et de développement, ainsi que pour les responsables politiques, déclare-t-il. Ce projet contribuera à la mise en place de systèmes d’IA ancrés localement et adaptés à la culture, qui reflètent les réalités des pays du Sud. »
À propos du Programme de recherche de l’ICSIA au CIFAR
Le Programme de recherche de l’ICSIA au CIFAR fait partie intégrante de l’Institut canadien de la sécurité de l’IA (ICSIA), lancé par Innovation, Sciences et Développement économique Canada. C’est le moteur scientifique d’un vaste effort national visant à promouvoir la mise en œuvre et le déploiement sûrs et responsables de l’IA. Ce programme chapeaute de manière indépendante des recherches multidisciplinaires canadiennes afin de trouver des solutions aux défis complexes liés à la sécurité de l’IA. Il veille également à mettre au point des outils pratiques pour rendre l’IA responsable, de sorte qu’elle soit sûre pour l’ensemble de la population canadienne.