Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • NOTRE IMPACT
    • Pourquoi le CIFAR?
    • Pôles d’impact
    • Nouvelles
    • Stratégie du CIFAR
    • Favoriser la résilience de la Terre
    • Impact IA
    • Impact des dons
    • CIFAR 40
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
    • Initiative sur l’avenir de l’alimentation CIFAR-Arrell
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Direction – Stratégie en matière d’IA
    • Direction – CIFAR
    • Répertoire du personnel
  • Soutenez-nous
  • À propos
    • Notre histoire
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Équité, diversité et inclusion
    • Déclaration du CIFAR sur la neutralité institutionnelle
    • Sécurité de la recherche
  • Événements publics
  • en

Suivez-nous

  • Accueil
  • ia
  • reseaux-de-solutions-du-cifar
  • Réduire les biais dialectaux

Réduire les biais dialectaux

Peut-on développer et déployer de grands modèles de langage d’une manière socialement responsable qui puisse à la fois prévenir les préjudices et assurer l’équité numérique d’un large éventail de communautés linguistiques?

L’essor mondial des grands modèles de langage constitue l’une des priorités des leaders technologiques et des gouvernements. Leur adoption massive pose toutefois un risque majeur pour la sécurité de millions de personnes. Pour les quelque 140 millions de locuteurs et locutrices du pidgin nigérian, ces systèmes d’IA avancés peuvent être des vecteurs de censure, de discrimination et d’exclusion numérique.

En raison de plusieurs obstacles systémiques, tels que la forte sous-représentation des dialectes marginalisés dans les données d’entraînement, le manque d’outils d’évaluation tenant compte des différences culturelles et les cadres réglementaires embryonnaires, il est difficile d’étendre des systèmes d’IA monolingues à la fois sûrs et inclusifs à l’ensemble des populations mondiales. Or, les communautés dont le dialecte n’est pas pris en compte dans le développement de l’IA sont moins susceptibles de profiter des progrès technologiques et davantage exposées aux préjudices causés par les biais algorithmiques, une situation qui perpétue ce qu’on peut appeler un « cycle d’exclusion numérique ».

Lever les obstacles à une IA sûre et équitable exige des efforts concertés de la part des équipes de développement, des chercheuses et chercheurs et des responsables politiques. Ces efforts se heurtent toutefois à l’absence d’outils d’analyse capables de mesurer et d’atténuer les risques de biais pour l’ensemble des populations — biais qui peuvent amener les modèles à considérer systématiquement la manière de parler d’une personne comme injurieuse, inappropriée ou nuisible.

Ce Réseau de solutions se consacrera à la cocréation citoyenne et socialement responsable d’indicateurs de biais dialectaux, d’outils d’atténuation et de solutions politiques, en collaboration avec une équipe multiculturelle du Canada et de l’Afrique, et avec la participation directe de communautés locutrices du pidgin nigérian.

Afficher la transcription

Fondation

2025

Partenaires de recherche

Centre de recherches pour le développement international (CRDI), CIFAR

Personne-ressource

Gagan Gill
Directeur associé, Sécurité de l’IA

Rencontrez les membres de ce Réseau de solutions du CIFAR :

Deborah Damilola Adeyemo

Deborah Damilola Adeyemo

Membre des Réseaux de solutions

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Université d’Ibadan
Nigeria
Wenhu Chen

Wenhu Chen

Membre des Réseaux de solutions
Titulaire de chaire en IA Canada-CIFAR

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Stratégie pancanadienne en matière d’IA
Université de Waterloo
Canada
Thomas-Michael Emeka Chukwumezie

Thomas-Michael Emeka Chukwumezie

Membre des Réseaux de solutions

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Université du Nigeria
Nigeria
Blessing Ogbuokiri

Blessing Ogbuokiri

Coresponsable, Réseau de solutions

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Université Brock
Canada
Laleh Seyyed-Kalantari

Laleh Seyyed-Kalantari

Coresponsable, Réseau de solutions

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Université York
Vector Institute
Canada
Collins Nnalue Udanor

Collins Nnalue Udanor

Membre des Réseaux de solutions

Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Réduire les biais dialectaux
Université du Nigeria
Nigeria

Soutenez-nous

L’Institut canadien de recherches avancées (CIFAR) est une organisation de recherche d’influence mondiale fièrement basée au Canada. Nous mobilisons les plus brillants personnes du monde, dans toutes les disciplines et à tous les stades de carrière, pour faire progresser les connaissances transformatrices et résoudre ensemble les plus grands problèmes de l’humanité. Nous recevons l’appui des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de particuliers, d’entreprises et d’organisations partenaires du Canada et du monde entier.

Dons
CIFAR header logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2026 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus