Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • NOTRE IMPACT
    • Pourquoi le CIFAR?
    • Pôles d’impact
    • Nouvelles
    • Stratégie du CIFAR
    • Favoriser la résilience de la Terre
    • Impact IA
    • Impact des dons
    • CIFAR 40
  • Activités
    • Événements publics
    • Réunions sur invitation seulement
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Chaires en IA Canada-CIFAR
    • Direction – Stratégie en matière d’IA
    • Membres du réseau de solutions
    • Direction – CIFAR
    • Répertoire du personnel
  • Soutenez-nous
  • À propos
    • Notre histoire
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Équité, diversité et inclusion
    • Déclaration du CIFAR sur la neutralité institutionnelle
    • Sécurité de la recherche
  • en
Apprentissage automatique, apprentissage biologique

Une culture éthique en IA

Par: Johnny Kung
25 Mar, 2021
25 mars 2021
PUBLIC POLICY RBG 300 YELLOW

Ces dernières années, le débat sur l’éthique de l’intelligence artificielle (IA) s’est accéléré, accompagné d’une multitude de lignes directrices et de principes formulés par des institutions universitaires et des organisations internationales. Même s’ils sont souvent exhaustifs et incitent à la réflexion, bon nombre de ces cadres ne traitent pas nécessairement de la manière dont on peut intégrer concrètement la pensée éthique dans les environnements de recherche et de formation en IA. Pour traduire ces cadres en décisions concrètes, il sera essentiel de favoriser une culture éthique en IA parmi les chercheurs et les institutions de recherche. En fin de compte, ce changement de culture peut déterminer comment se font la recherche et le développement en IA.

Fort du succès de la table ronde de mai 2019 sur l’éthique en IA, le CIFAR a tenu une table ronde virtuelle le 10 février 2021 pour faciliter la discussion sur les moyens de créer et de maintenir une culture éthique dans les milieux de recherche et de formation en IA, les besoins et les défis de la pensée et des pratiques éthiques dans les institutions de recherche en IA, et les mesures que doivent prendre les chefs de file de la recherche en IA afin de soutenir et de cultiver une culture éthique. Les participants à la réunion — des chefs de file de la recherche en IA (y compris des membres du programme Apprentissage automatique, apprentissage biologique du CIFAR et des titulaires d’une chaire en IA Canada-CIFAR), ainsi que des experts en éthique et en gouvernance des technologies et en culture organisationnelle — ont partagé des pratiques exemplaires, des exemples d’initiatives gagnantes et des lacunes dans les processus actuels. Ce rapport met en lumière les principaux résultats et les prochaines étapes découlant de la table ronde.

Parties prenantes cibles

  • Chercheurs universitaires et industriels en IA et dans d’autres domaines de l’informatique
  • Experts en droit, politiques, éthique et autres sciences sociales qui étudient la recherche sur l’IA et ses applications
  • Éducateurs et administrateurs dans les départements universitaires de génie, d’informatique et de mathématiques et dans les instituts de recherche en IA
  • Organisations universitaires et professionnelles d’ingénieurs, d’informaticiens et de chercheurs en IA
  • Décideurs politiques, organismes de réglementation gouvernementaux et organisations internationales qui formulent des lignes directrices et des cadres pour l’IA éthique

Résultats clés

  • On compte aujourd’hui plus de 160 déclarations et lignes directrices sur l’IA éthique et beaucoup d’entre elles évoquent des principes similaires de haut niveau comme la démocratie ou le respect de la vie privée. Cependant, elles sont pour la plupart largement eurocentriques et n’offrent pas vraiment de conseils pratiques sur la manière dont les chercheurs en IA devraient intégrer ces principes dans leurs programmes de recherche ou leurs pratiques. Pour que de telles lignes directrices puissent influencer l’éthique de la recherche en IA dans le monde entier, elles doivent proposer des outils, des politiques, des mesures et des mécanismes d’application spécifiques. Il doit aussi y avoir des structures de consultation à l’échelle internationale et un souci que les points de vue de l’ensemble des citoyens, en particulier les communautés vulnérables, puissent être entendus afin que leurs valeurs soient prises en compte à leur juste valeur dans les décisions en matière d’éthique.
  • Un cadre simple pourrait contribuer à susciter un changement culturel dans la conduite de la recherche en IA :
    • Une compréhension claire et commune de l’état actuel du domaine et de l’orientation que les chercheurs souhaitent lui donner, ainsi que les raisons pour lesquelles ces changements sont importants pour les chercheurs en tant que personnes, pour leur laboratoire ou leur institution, et pour la communauté dans son ensemble;
    • Des modèles à suivre quant à ces changements, notamment des chercheurs principaux ou établis;
    • Des outils et une formation pour permettre aux jeunes chercheurs d’intégrer un esprit éthique dans leur pratique;
    • Une harmonisation des motivations du système de recherche, telles que les subventions et le processus de publication, avec les objectifs visés.
  • L’IA est un domaine intrinsèquement interdisciplinaire et, pour mener à bien les travaux sur l’impact éthique et sociétal de l’IA, il faut réunir des informaticiens et des mathématiciens avec d’autres experts en droit, en éthique et en sciences sociales, ainsi que de domaines d’application en aval (comme la santé ou la finance).
    • Il est particulièrement important pour les chercheurs en IA de ne pas voir les questions éthiques comme des problèmes que seuls les éthiciens peuvent « résoudre » pour eux, mais plutôt comme quelque chose auquel ils doivent continuellement travailler dans un effort commun.
    • En collaborant avec des experts ou des professionnels dans des domaines d’application spécifiques, les chercheurs en IA peuvent mieux comprendre le contexte dans lequel les ensembles de données sont collectés, ainsi que les limites et les biais qui en découlent — de façon à entraîner les modèles d’apprentissage automatique à traiter correctement ces données — et la façon dont les modèles sont vraiment utilisés sur le terrain et comment cela touche différents groupes ou communautés.
    • Les chercheurs en IA peuvent bénéficier d’une collaboration ou d’un engagement actifs auprès des communautés touchées par leurs recherches (y compris celles associées au microtravail de l’annotation des données) afin de mieux comprendre les répercussions éthiques et sociétales de leurs travaux. Cela permettrait aussi d’accroître la transparence du domaine, et de renforcer la confiance qu’il suscite et sa légitimité au sein de la société dans son ensemble.
  • Les chefs de file de la recherche en IA peuvent appliquer leur grande curiosité scientifique au domaine de l’éthique. Bien qu’ils puissent au départ ressentir une certaine réticence ou vulnérabilité à se pencher sur des questions ou à travailler avec des experts en dehors de leurs propres domaines d’expertise, ils peuvent envisager le processus comme un exercice de vérification d’hypothèses — si tels ou tels outils et structures de motivation sont mis en œuvre, quel en sera l’impact sur la communauté de chercheurs? En dirigeant les efforts destinés à promouvoir et à mettre en œuvre de tels changements, les chercheurs principaux donnent également aux jeunes chercheurs un contexte où réaliser leurs travaux dans des cadres éthiques.

Priorités et prochaines étapes 

  • Mettre l’accent sur les incitatifs plutôt que de se limiter aux risques peut aider les chercheurs en IA à mieux aborder les questions éthiques. Donner aux chercheurs, en particulier ceux en formation, des occasions de réfléchir aux raisons pour lesquelles ils effectuent leurs recherches et à la façon dont celles-ci peuvent avoir une incidence sur des causes qui leur tiennent à cœur, comme les soins de santé ou les changements climatiques, peut les encourager à envisager plus largement les impacts positifs et négatifs éventuels de leurs travaux. On peut recourir à des études de cas dès le début de la formation des chercheurs en IA pour les aider à analyser les conséquences intentionnelles et non intentionnelles de la recherche et à anticiper différents scénarios pour leurs propres travaux.
  • Les chercheurs en IA mettent déjà en œuvre diverses pratiques pour favoriser une culture éthique dans leurs laboratoires, leurs institutions et leurs conférences; ces pratiques et d’autres peuvent faire l’objet d’une adoption encore plus large :
    • De nombreux groupes ou institutions de recherche en IA intègrent activement des experts en droit, en éthique et en sciences sociales dans leurs organisations. D’autres mesures, telles que des cours et des diplômes conjoints de premier cycle, et des clubs de lecture, des salles de lecture, des séminaires départementales ou des conférences multidisciplinaires, peuvent favoriser davantage la réflexion et la collaboration interdisciplinaires.
    • Certains instituts d’IA ont établi des mécanismes basés sur les conseils d’examen institutionnels en bioéthique pour évaluer les propositions de subventions en fonction de leurs répercussions éthiques et sociétales. De même, certaines conférences internationales sur l’IA, comme NeurIPS, commencent à mettre en place des processus d’examen éthique. Pour optimiser l’impact de ces mesures, les chercheurs en IA devront avoir accès aux outils, à la formation et aux pratiques exemplaires afin de préparer correctement leurs demandes.
    • Certains programmes d’informatique de premier cycle et aux études supérieures ont commencé à imposer des cours d’éthique ou des modules en éthique dans les cours sur l’IA et l’apprentissage profond. En outre, il serait possible d’exiger des volets sur l’éthique dans les réunions des comités d’étudiants diplômés ou dans les thèses, ou de mettre en place des listes de vérification de l’éthique que les étudiants pourraient utiliser au début de leurs projets, puis des contrôles périodiques. Cependant, comme chaque étudiant diplômé relève principalement de son propre directeur d’études, de telles actions nécessiteront une large adhésion et une coordination entre les membres du corps professoral. L’administration ou les départements universitaires devront aussi fournir des ressources et des fonds pour garantir la pérennité de certaines de ces mesures.

Participants à la table ronde

  • Stefan Bauer, chef du groupe de recherche, Institut Max-Planck sur les systèmes intelligents / chercheur mondial Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Yoshua Bengio, professeur et titulaire de la chaire de recherche du Canada en algorithmes d’apprentissage statistique, Université de Montréal / directeur scientifique et titulaire d’une chaire en IA Canada-CIFAR, Mila / directeur scientifique, IVADO / codirecteur, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Léon Bottou, scientifique, Facebook AI Research / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Jack Clark, coprésident du comité directeur, AI Index / ancien directeur des politiques, OpenAI
  • Allison Cohen, cheffe des projets appliqués, IA pour l’humanité, Mila
  • Rebecca Finlay, directrice générale par intérim, Partnership on AI
  • Alona Fyshe, professeure adjointe, Université de l’Alberta / boursière et titulaire d’une chaire en IA Canada-CIFAR, Amii / boursière, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Surya Ganguli, directeur agrégé, Stanford Institute for Human-Centered Artificial Intelligence, et professeur agrégé, Université de Stanford / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Marzyeh Ghassemi, professeure adjointe et titulaire de la Chaire de recherche du Canada en apprentissage automatique au service de la santé, Université de Toronto / professeure et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / chercheuse mondiale Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Raia Hadsell, directrice de la robotique, DeepMind / conseillère, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Will Hawkins, associé de recherche, DeepMind
  • Konrad Körding, professeur, Université de la Pennsylvanie / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Aapo Hyvärinen, professeur, Université de Helsinki / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Simon Lacoste-Julien, professeur agrégé, Université de Montréal / membre universitaire principal et titulaire d’une chaire en IA Canada-CIFAR, Mila / V.-P. de la direction du laboratoire, Samsung SAIT AI Lab Montréal / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Yann LeCun, vice-président et scientifique en chef – IA, Facebook AI Research / professeur, Université de New York / codirecteur, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Sasha Luccioni, chercheuse postdoctorale, IA pour l’humanité, Mila
  • Jason Millar, professeur adjoint et titulaire de la Chaire de recherche du Canada en ingénierie éthique de la robotique et de l’intelligence artificielle, Université d’Ottawa
  • Joelle Pineau, professeure agrégée, Université McGill / membre universitaire principale et titulaire d’une chaire en IA Canada-CIFAR, Mila / codirectrice administrative, Facebook AI Research / conseillère, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Valérie Pisano, présidente et chef de la direction, Mila
  • Benjamin Prud’homme, directeur exécutif, IA pour l’humanité, Mila
  • Sarah Rispin Sedlak, boursière principale, Duke Initiative for Science & Society, Université Duke
  • Graham Taylor, professeur agrégé et titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université de Guelph / professeur et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / ancien chercheur mondial Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Bernhard Schölkopf, directeur, Institut Max-Planck sur les systèmes intelligents / professeur affilié, ETH Zurich / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Richard Zemel, professeur et titulaire de la Chaire de recherche industrielle du CRSNG en apprentissage automatique, Université de Toronto / directeur de recherche et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Joel Zylberberg, professeur adjoint et titulaire de la Chaire de recherche du Canada en neuroscience computationnelle, Université York / professeur affilié, Institut Vecteur / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR

Lectures complémentaires

Ressources du CIFAR :

Éthique et recherche en IA (compte-rendu de recherche)
Une discussion sur l’éthique en IA (compte-rendu d’événement)
Responsabilité en matière d’IA : Promouvoir une plus grande confiance de la société (Document thématique pour la Conférence multipartite du G7 sur l’intelligence artificielle : Favoriser l’adoption responsable de l’IA)

Autres ressources :

UNESCO : Avant-projet de Recommandation sur l’éthique de l’intelligence artificielle
Déclaration de Montréal pour un développement responsable de l’intelligence artificielle
Le partenariat mondial sur l’intelligence artificielle – Groupe de travail sur l’IA responsable
ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT)
A Guide to Writing the NeurIPS Impact Statement
Certificat de premier cycle en intelligence numérique, Université Duke
Modules de cours Embedded EthiCS, Université Harvard
IA pour l’humanité, Mila
Déclaration de l’Ethics Review Board pour les subventions de démarrage en intelligence artificielle axée sur l’humain, Université de Stanford

Pour de plus amples renseignements, veuillez communiquer avec
Fiona Cunningham
Directrice, innovation
CIFAR
fiona.cunningham@cifar.ca

  • Suivez-nous

Articles liés

  • Réflexions sur l’IA du CIFAR : Transformation de la réglementation à l’ère de l’ia
    21 novembre 2023
  • Réflexions sur l’IA du CIFAR : Vers l’évaluation et l’atténuation de l’impact environnemental des grands modèles de langues
    25 septembre 2023
  • Réflexions sur l’IA du CIFAR: Vers Une Approche Proportionnelle Fondée Sur Le Risque Pour L’accès Aux Données Fédérées Au Canada
    03 août 2023
  • Une culture éthique en IA : rapport d’atelier
    03 août 2022

Soutenez-nous

L’Institut canadien de recherches avancées (CIFAR) est une organisation de recherche d’influence mondiale fièrement basée au Canada. Nous mobilisons les plus brillants personnes du monde, dans toutes les disciplines et à tous les stades de carrière, pour faire progresser les connaissances transformatrices et résoudre ensemble les plus grands problèmes de l’humanité. Nous recevons l’appui des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de particuliers, d’entreprises et d’organisations partenaires du Canada et du monde entier.

Dons
CIFAR footer logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2025 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Fields marked with an * are required

I prefer to register in English (click here)


S'abonner aux bulletins d'information du CIFAR: *

Vous pouvez vous désabonner de ces communications à tout moment. Consultez notrepolitique de confidentialité.

 À titre d’abonné, vous recevrez aussi un exemplaire numérique de REACH, notre revue annuelle qui met en lumière nos chercheurs et leurs découvertes au moyen d’articles de fond, d’entrevues et d’illustrations.


Si vous souhaitez recevoir une édition papier de la revue REACH, veuillez fournir les renseignements supplémentaires suivants :


Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus

Notifications