Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • NOTRE IMPACT
    • Pourquoi le CIFAR?
    • Pôles d’impact
    • Nouvelles
    • Stratégie du CIFAR
    • Favoriser la résilience de la Terre
    • Impact IA
    • Impact des dons
    • CIFAR 40
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
    • Initiative sur l’avenir de l’alimentation CIFAR-Arrell
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Direction – Stratégie en matière d’IA
    • Direction – CIFAR
    • Répertoire du personnel
  • Soutenez-nous
  • À propos
    • Notre histoire
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Équité, diversité et inclusion
    • Déclaration du CIFAR sur la neutralité institutionnelle
    • Sécurité de la recherche
  • Événements publics
  • en
Annonce

Le CIFAR lance de nouveaux réseaux axés sur la sécurité de l’IA afin de se pencher sur les inégalités linguistiques et sur les preuves synthétiques dans le système judiciaire

Par: Justine Brooks
19 Nov, 2025
19 novembre 2025
A dark blue background with stylized circles and lines layered on top. In the centre is two circles; one featuring a statue of Lady Justice and the other a graphic of five people of varying ethnicities conversing around a simplified image of a globe. Un fond bleu foncé sur lequel se superposent des lignes et des cercles stylisés. Au centre se trouvent deux cercles : l’un montre une statue de la Justice, et l’autre, une illustration représentant cinq personnes d’origines diverses en train de discuter autour d’une image simplifiée du globe.

Chaque Réseau de solutions recevra 700 000 dollars sur 2 ans pour concevoir, développer et mettre en œuvre des solutions de sécurité de l’IA permettant de relever des défis urgents

Le CIFAR a lancé ses deux premiers Réseaux de solutions pour la sécurité de l’IA sous l’égide du Programme de recherche de l’Institut canadien de la sécurité de l’intelligence artificielle (ICSIA) au CIFAR. Les deux équipes de recherche – Protéger les tribunaux contre les contenus synthétiques générés par l’IA et Réduire les biais dialectaux (cette dernière cofinancée par le Centre de recherches pour le développement international) – consacreront les deux prochaines années à élaborer et à mettre en œuvre des solutions d’IA à code source libre afin de rendre l’IA plus sûre et plus inclusive pour les populations du Canada et des pays du Sud. Chaque Réseau reçoit 700 000 dollars pour soutenir ses recherches novatrices et son développement.

Les Réseaux de solutions sont financés par le Programme de recherche de l’ICSIA au CIFAR, un volet de recherche indépendant et multidisciplinaire dirigé par le CIFAR. Ce programme spécialisé est une composante centrale de l’Institut canadien de la sécurité de l’IA du gouvernement du Canada (ICSIA). Lancé en novembre 2024 avec un investissement de 50 millions de dollars, cet institut a pour mission de contrer les risques liés à l’évolution de l’IA pour la population canadienne.

« La sécurité en matière d’intelligence artificielle devient un enjeu crucial à mesure que l’IA s’impose de plus en plus dans notre travail et dans nos vies. Essentiellement, il importe d’instaurer la confiance et de concevoir les outils nécessaires pour la préserver », affirme l’honorable Evan Solomon, ministre de l’Intelligence artificielle et de l’Innovation numérique et ministre responsable de l’Agence fédérale de développement économique pour le Sud de l’Ontario. « Il faut instaurer la confiance dans le fait que l’IA sera utilisée de manière responsable et que des outils la rendront plus sûre, plus équitable et plus transparente. Les nouveaux Réseaux de solutions illustrent comment les chercheuses et chercheurs canadiens font progresser la science même de la sécurité, en transformant des idées en solutions concrètes qui mettent l’IA au service des gens. »

« Les Réseaux de solutions du CIFAR proposent une approche unique relativement à la recherche et au développement dans le domaine de l’IA digne de confiance. Ils réunissent des équipes exceptionnelles de recherche interdisciplinaire – qui, autrement, ne se seraient peut-être jamais rencontrées – afin d’aborder des questions d’importance mondiale, mais surtout de concevoir, de mettre au point et de déployer des solutions, affirme Elissa Strome, directrice générale de la Stratégie pancanadienne en matière d’IA au CIFAR. Un élément central des travaux de ces deux Réseaux de solutions consiste à trouver des moyens de réduire les préjudices potentiels de l’IA pour les populations du Canada et du monde entier. »

Protéger les tribunaux contre les contenus synthétiques générés par l’IA


Membres du Réseau de solutions

  • Ebrahim Bagheri, coresponsable, Réseau de solutions (Université de Toronto)
  • Maura R. Grossman, coresponsable, Réseau de solutions (Université de Waterloo, Osgoode Hall Law School [Université York], Institut Vecteur)
  • Karen Eltis, membre des Réseaux de solutions (Université d’Ottawa)
  • Jacquelyn Burkell, membre des Réseaux de solutions (Université Western) 
  • Vered Shwartz, membre des Réseaux de solutions (Université de la Colombie-Britannique, titulaire de chaire en IA Canada-CIFAR, Institut Vecteur) 
  • Yuntian Deng, membre des Réseaux de solutions (Université de Waterloo) 

Codirigé par Ebrahim Bagheri et Maura R. Grossman, ce Réseau de solutions vise à lutter contre la prévalence croissante de contenus synthétiques générés par l’IA dans le système judiciaire. Il peut s’agir de fausses preuves sous forme d’images ou de vidéos réalisées au moyen d’outils d’IA, mais aussi de documents judiciaires créés à l’aide de grands modèles de langage (GML) comme ChatGPT, qui peuvent produire des hallucinations.

« La question est désormais de savoir si cela peut être effectué à grande échelle et de manière pratique », souligne Ebrahim Bagheri. Auparavant, il fallait consacrer beaucoup de temps et d’argent pour falsifier des preuves. Aujourd’hui, les preuves peuvent être rapidement et facilement trafiquées, voire fabriquées de toutes pièces.

Les enjeux sont extrêmement élevés, d’après Maura R. Grossman. « Une personne peut être emprisonnée ou non selon qu’il s’agit d’une vidéo authentique ou fausse. »

Faire appel à une personne qualifiée pour évaluer la provenance d’une preuve ou d’un contenu généré par l’IA n’est pas toujours possible sur le plan financier. L’équipe propose de mettre au point un cadre gratuit et à code source libre dont toute partie prenante du système judiciaire pourra se servir pour repérer les contenus potentiellement problématiques. 

« Nous avons besoin d’un outil [transparent] qui reconnaisse quand ses résultats peuvent ne pas être fiables. Cet outil doit être convivial pour ce groupe d’utilisateurs et d’utilisatrices, qui comprend à la fois les parties non représentées et les membres du personnel judiciaire », ajoute Maura R. Grossman. 

Leur solution pourrait fortement améliorer l’efficacité et la fiabilité d’un système judiciaire qui doit composer avec de nombreux changements en peu de temps. « Même si notre solution n’est pas parfaite, même si elle permet d’exclure [les contenus synthétiques] dans une proportion de 50 %, de 60 % ou de 70 %, nous avons déjà fait un grand pas en avant pour le système judiciaire. »

Réduire les biais dialectaux


Membres du Réseau de solutions

  • Laleh Seyyed-Kalantari, coresponsable, Réseau de solutions (Université York, Institut Vecteur)
  • Blessing Ogbuokiri, coresponsable, Réseau de solutions (Université Brock)
  • Wenhu Chen, membre des Réseaux de solutions (Université de Waterloo, titulaire de chaire en IA Canada-CIFAR, Institut Vecteur) 
  • Collins Nnalue Udanor, membre des Réseaux de solutions (Université du Nigéria)
  • Thomas-Michael Emeka Chukwumezie, membre des Réseaux de solutions (Université du Nigéria)
  • Deborah Damilola Adeyemo, membre des Réseaux de solutions (Université d’Ibadan)

Le recours à de grands modèles de langage (GML) comme ChatGPT a bondi ces dernières années. Cependant, ces outils sont moins sûrs et efficaces pour les personnes qui parlent un anglais non standard. C’est le problème auquel Laleh Seyyed-Kalantari et Blessing Ogbuokiri s’efforcent de remédier. 

Leur Réseau de solutions se concentre sur le pidgin nigérian, une langue parlée par plus de 140 millions de personnes, principalement en Afrique de l’Ouest. Les GML formés à l’anglais standard interprètent souvent à tort les dialectes marginalisés – comme le pidgin – comme étant injurieux ou offensants et pénalisent ses locuteurs et locutrices. Cela peut entraîner des préjudices très réels, comme la censure sur les réseaux sociaux ou la discrimination dans l’accès aux services. 

L’équipe veillera à définir les tout premiers indicateurs en matière de biais et de sécurité pour le pidgin nigérian dans le cadre d’une trousse à outils à code source libre d’audit et d’atténuation. Ces ressources seront mises à la disposition des équipes de développement et des responsables politiques afin de garantir que les systèmes d’IA soient équitables et sûrs pour l’ensemble des utilisateurs et utilisatrices. « Nous tentons de créer un système d’IA dans lequel les voix marginalisées peuvent se sentir à l’aise de faire appel à ces outils, car ils seront adaptés à leurs besoins », ajoute Blessing Ogbuokiri. 

L’équipe collaborera avec un réseau citoyen au Nigéria, qui aidera à évaluer les ensembles de données et les GML employés lors du projet. « Ce qui rend notre solution unique, à mon avis, c’est qu’elle est ancrée localement et représentative sur le plan culturel des personnes vivant dans les pays africains », explique Laleh Seyyed-Kalantari. 

L’équipe poursuit également un objectif en matière d’élaboration de politiques, ajoute-t-elle. « Nous voulons nous assurer que les recherches que nous menons […] procurent des changements positifs et concrets aux personnes qui utilisent ces GML en Afrique. »

Blessing Ogbuokiri souligne l’incidence que ce projet pourrait avoir au-delà de l’Afrique de l’Ouest pour les communautés immigrantes et autochtones du Canada qui ont recours à des variantes non standard de l’anglais. « Cela constituera une ressource publique essentielle pour les équipes de recherche et de développement, ainsi que pour les responsables politiques, déclare-t-il. Ce projet contribuera à la mise en place de systèmes d’IA ancrés localement et adaptés à la culture, qui reflètent les réalités des pays du Sud. »


À propos du Programme de recherche de l’ICSIA au CIFAR

Le Programme de recherche de l’ICSIA au CIFAR fait partie intégrante de l’Institut canadien de la sécurité de l’IA (ICSIA), lancé par Innovation, Sciences et Développement économique Canada. C’est le moteur scientifique d’un vaste effort national visant à promouvoir la mise en œuvre et le déploiement sûrs et responsables de l’IA. Ce programme chapeaute de manière indépendante des recherches multidisciplinaires canadiennes afin de trouver des solutions aux défis complexes liés à la sécurité de l’IA. Il veille également à mettre au point des outils pratiques pour rendre l’IA responsable, de sorte qu’elle soit sûre pour l’ensemble de la population canadienne.

Articles liés

  • Une année d’impact sur la sécurité de l’IA au Canada
    21 janvier 2026
  • Rendre l’IA plus sûre grâce à des méthodes d’évaluation avancées
    03 décembre 2025
  • Les Réseaux de solutions du CIFAR en santé tiennent leurs premières réunions
    13 mars 2024
  • Le CIFAR annonce le lancement de deux Réseaux de solutions pour développer l’IA dans le secteur de la santé
    13 juillet 2023

Soutenez-nous

L’Institut canadien de recherches avancées (CIFAR) est une organisation de recherche d’influence mondiale fièrement basée au Canada. Nous mobilisons les plus brillants personnes du monde, dans toutes les disciplines et à tous les stades de carrière, pour faire progresser les connaissances transformatrices et résoudre ensemble les plus grands problèmes de l’humanité. Nous recevons l’appui des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de particuliers, d’entreprises et d’organisations partenaires du Canada et du monde entier.

Dons
CIFAR header logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2026 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus