Suis nous sur

Une culture éthique en IA

Ces dernières années, le débat sur l’éthique de l’intelligence artificielle (IA) s’est accéléré, accompagné d’une multitude de lignes directrices et de principes formulés par des institutions universitaires et des organisations internationales. Même s’ils sont souvent exhaustifs et incitent à la réflexion, bon nombre de ces cadres ne traitent pas nécessairement de la manière dont on peut intégrer concrètement la pensée éthique dans les environnements de recherche et de formation en IA. Pour traduire ces cadres en décisions concrètes, il sera essentiel de favoriser une culture éthique en IA parmi les chercheurs et les institutions de recherche. En fin de compte, ce changement de culture peut déterminer comment se font la recherche et le développement en IA.

Fort du succès de la table ronde de mai 2019 sur l’éthique en IA, le CIFAR a tenu une table ronde virtuelle le 10 février 2021 pour faciliter la discussion sur les moyens de créer et de maintenir une culture éthique dans les milieux de recherche et de formation en IA, les besoins et les défis de la pensée et des pratiques éthiques dans les institutions de recherche en IA, et les mesures que doivent prendre les chefs de file de la recherche en IA afin de soutenir et de cultiver une culture éthique. Les participants à la réunion — des chefs de file de la recherche en IA (y compris des membres du programme Apprentissage automatique, apprentissage biologique du CIFAR et des titulaires d’une chaire en IA Canada-CIFAR), ainsi que des experts en éthique et en gouvernance des technologies et en culture organisationnelle — ont partagé des pratiques exemplaires, des exemples d’initiatives gagnantes et des lacunes dans les processus actuels. Ce rapport met en lumière les principaux résultats et les prochaines étapes découlant de la table ronde.

Parties prenantes cibles

  • Chercheurs universitaires et industriels en IA et dans d’autres domaines de l’informatique
  • Experts en droit, politiques, éthique et autres sciences sociales qui étudient la recherche sur l’IA et ses applications
  • Éducateurs et administrateurs dans les départements universitaires de génie, d’informatique et de mathématiques et dans les instituts de recherche en IA
  • Organisations universitaires et professionnelles d’ingénieurs, d’informaticiens et de chercheurs en IA
  • Décideurs politiques, organismes de réglementation gouvernementaux et organisations internationales qui formulent des lignes directrices et des cadres pour l’IA éthique

Résultats clés

  • On compte aujourd’hui plus de 160 déclarations et lignes directrices sur l’IA éthique et beaucoup d’entre elles évoquent des principes similaires de haut niveau comme la démocratie ou le respect de la vie privée. Cependant, elles sont pour la plupart largement eurocentriques et n’offrent pas vraiment de conseils pratiques sur la manière dont les chercheurs en IA devraient intégrer ces principes dans leurs programmes de recherche ou leurs pratiques. Pour que de telles lignes directrices puissent influencer l’éthique de la recherche en IA dans le monde entier, elles doivent proposer des outils, des politiques, des mesures et des mécanismes d’application spécifiques. Il doit aussi y avoir des structures de consultation à l’échelle internationale et un souci que les points de vue de l’ensemble des citoyens, en particulier les communautés vulnérables, puissent être entendus afin que leurs valeurs soient prises en compte à leur juste valeur dans les décisions en matière d’éthique.
  • Un cadre simple pourrait contribuer à susciter un changement culturel dans la conduite de la recherche en IA :
    • Une compréhension claire et commune de l’état actuel du domaine et de l’orientation que les chercheurs souhaitent lui donner, ainsi que les raisons pour lesquelles ces changements sont importants pour les chercheurs en tant que personnes, pour leur laboratoire ou leur institution, et pour la communauté dans son ensemble;
    • Des modèles à suivre quant à ces changements, notamment des chercheurs principaux ou établis;
    • Des outils et une formation pour permettre aux jeunes chercheurs d’intégrer un esprit éthique dans leur pratique;
    • Une harmonisation des motivations du système de recherche, telles que les subventions et le processus de publication, avec les objectifs visés.
  • L’IA est un domaine intrinsèquement interdisciplinaire et, pour mener à bien les travaux sur l’impact éthique et sociétal de l’IA, il faut réunir des informaticiens et des mathématiciens avec d’autres experts en droit, en éthique et en sciences sociales, ainsi que de domaines d’application en aval (comme la santé ou la finance).
    • Il est particulièrement important pour les chercheurs en IA de ne pas voir les questions éthiques comme des problèmes que seuls les éthiciens peuvent « résoudre » pour eux, mais plutôt comme quelque chose auquel ils doivent continuellement travailler dans un effort commun.
    • En collaborant avec des experts ou des professionnels dans des domaines d’application spécifiques, les chercheurs en IA peuvent mieux comprendre le contexte dans lequel les ensembles de données sont collectés, ainsi que les limites et les biais qui en découlent — de façon à entraîner les modèles d’apprentissage automatique à traiter correctement ces données — et la façon dont les modèles sont vraiment utilisés sur le terrain et comment cela touche différents groupes ou communautés.
    • Les chercheurs en IA peuvent bénéficier d’une collaboration ou d’un engagement actifs auprès des communautés touchées par leurs recherches (y compris celles associées au microtravail de l’annotation des données) afin de mieux comprendre les répercussions éthiques et sociétales de leurs travaux. Cela permettrait aussi d’accroître la transparence du domaine, et de renforcer la confiance qu’il suscite et sa légitimité au sein de la société dans son ensemble.
  • Les chefs de file de la recherche en IA peuvent appliquer leur grande curiosité scientifique au domaine de l’éthique. Bien qu’ils puissent au départ ressentir une certaine réticence ou vulnérabilité à se pencher sur des questions ou à travailler avec des experts en dehors de leurs propres domaines d’expertise, ils peuvent envisager le processus comme un exercice de vérification d’hypothèses — si tels ou tels outils et structures de motivation sont mis en œuvre, quel en sera l’impact sur la communauté de chercheurs? En dirigeant les efforts destinés à promouvoir et à mettre en œuvre de tels changements, les chercheurs principaux donnent également aux jeunes chercheurs un contexte où réaliser leurs travaux dans des cadres éthiques.

Priorités et prochaines étapes 

  • Mettre l’accent sur les incitatifs plutôt que de se limiter aux risques peut aider les chercheurs en IA à mieux aborder les questions éthiques. Donner aux chercheurs, en particulier ceux en formation, des occasions de réfléchir aux raisons pour lesquelles ils effectuent leurs recherches et à la façon dont celles-ci peuvent avoir une incidence sur des causes qui leur tiennent à cœur, comme les soins de santé ou les changements climatiques, peut les encourager à envisager plus largement les impacts positifs et négatifs éventuels de leurs travaux. On peut recourir à des études de cas dès le début de la formation des chercheurs en IA pour les aider à analyser les conséquences intentionnelles et non intentionnelles de la recherche et à anticiper différents scénarios pour leurs propres travaux.
  • Les chercheurs en IA mettent déjà en œuvre diverses pratiques pour favoriser une culture éthique dans leurs laboratoires, leurs institutions et leurs conférences; ces pratiques et d’autres peuvent faire l’objet d’une adoption encore plus large :
    • De nombreux groupes ou institutions de recherche en IA intègrent activement des experts en droit, en éthique et en sciences sociales dans leurs organisations. D’autres mesures, telles que des cours et des diplômes conjoints de premier cycle, et des clubs de lecture, des salles de lecture, des séminaires départementales ou des conférences multidisciplinaires, peuvent favoriser davantage la réflexion et la collaboration interdisciplinaires.
    • Certains instituts d’IA ont établi des mécanismes basés sur les conseils d’examen institutionnels en bioéthique pour évaluer les propositions de subventions en fonction de leurs répercussions éthiques et sociétales. De même, certaines conférences internationales sur l’IA, comme NeurIPS, commencent à mettre en place des processus d’examen éthique. Pour optimiser l’impact de ces mesures, les chercheurs en IA devront avoir accès aux outils, à la formation et aux pratiques exemplaires afin de préparer correctement leurs demandes.
    • Certains programmes d’informatique de premier cycle et aux études supérieures ont commencé à imposer des cours d’éthique ou des modules en éthique dans les cours sur l’IA et l’apprentissage profond. En outre, il serait possible d’exiger des volets sur l’éthique dans les réunions des comités d’étudiants diplômés ou dans les thèses, ou de mettre en place des listes de vérification de l’éthique que les étudiants pourraient utiliser au début de leurs projets, puis des contrôles périodiques. Cependant, comme chaque étudiant diplômé relève principalement de son propre directeur d’études, de telles actions nécessiteront une large adhésion et une coordination entre les membres du corps professoral. L’administration ou les départements universitaires devront aussi fournir des ressources et des fonds pour garantir la pérennité de certaines de ces mesures.

Participants à la table ronde

  • Stefan Bauer, chef du groupe de recherche, Institut Max-Planck sur les systèmes intelligents / chercheur mondial Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Yoshua Bengio, professeur et titulaire de la chaire de recherche du Canada en algorithmes d’apprentissage statistique, Université de Montréal / directeur scientifique et titulaire d’une chaire en IA Canada-CIFAR, Mila / directeur scientifique, IVADO / codirecteur, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Léon Bottou, scientifique, Facebook AI Research / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Jack Clark, coprésident du comité directeur, AI Index / ancien directeur des politiques, OpenAI
  • Allison Cohen, cheffe des projets appliqués, IA pour l’humanité, Mila
  • Rebecca Finlay, directrice générale par intérim, Partnership on AI
  • Alona Fyshe, professeure adjointe, Université de l’Alberta / boursière et titulaire d’une chaire en IA Canada-CIFAR, Amii / boursière, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Surya Ganguli, directeur agrégé, Stanford Institute for Human-Centered Artificial Intelligence, et professeur agrégé, Université de Stanford / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Marzyeh Ghassemi, professeure adjointe et titulaire de la Chaire de recherche du Canada en apprentissage automatique au service de la santé, Université de Toronto / professeure et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / chercheuse mondiale Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Raia Hadsell, directrice de la robotique, DeepMind / conseillère, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Will Hawkins, associé de recherche, DeepMind
  • Konrad Körding, professeur, Université de la Pennsylvanie / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Aapo Hyvärinen, professeur, Université de Helsinki / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Simon Lacoste-Julien, professeur agrégé, Université de Montréal / membre universitaire principal et titulaire d’une chaire en IA Canada-CIFAR, Mila / V.-P. de la direction du laboratoire, Samsung SAIT AI Lab Montréal / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Yann LeCun, vice-président et scientifique en chef – IA, Facebook AI Research / professeur, Université de New York / codirecteur, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Sasha Luccioni, chercheuse postdoctorale, IA pour l’humanité, Mila
  • Jason Millar, professeur adjoint et titulaire de la Chaire de recherche du Canada en ingénierie éthique de la robotique et de l’intelligence artificielle, Université d’Ottawa
  • Joelle Pineau, professeure agrégée, Université McGill / membre universitaire principale et titulaire d’une chaire en IA Canada-CIFAR, Mila / codirectrice administrative, Facebook AI Research / conseillère, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Valérie Pisano, présidente et chef de la direction, Mila
  • Benjamin Prud’homme, directeur exécutif, IA pour l’humanité, Mila
  • Sarah Rispin Sedlak, boursière principale, Duke Initiative for Science & Society, Université Duke
  • Graham Taylor, professeur agrégé et titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université de Guelph / professeur et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / ancien chercheur mondial Azrieli, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Bernhard Schölkopf, directeur, Institut Max-Planck sur les systèmes intelligents / professeur affilié, ETH Zurich / boursier, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Richard Zemel, professeur et titulaire de la Chaire de recherche industrielle du CRSNG en apprentissage automatique, Université de Toronto / directeur de recherche et titulaire d’une chaire en IA Canada-CIFAR, Institut Vecteur / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR
  • Joel Zylberberg, professeur adjoint et titulaire de la Chaire de recherche du Canada en neuroscience computationnelle, Université York / professeur affilié, Institut Vecteur / boursier associé, programme Apprentissage automatique, apprentissage biologique, CIFAR

Lectures complémentaires

Ressources du CIFAR :

Éthique et recherche en IA (compte-rendu de recherche)
Une discussion sur l’éthique en IA (compte-rendu d’événement)
Responsabilité en matière d’IA : Promouvoir une plus grande confiance de la société (Document thématique pour la Conférence multipartite du G7 sur l’intelligence artificielle : Favoriser l’adoption responsable de l’IA)

Autres ressources :

UNESCO : Avant-projet de Recommandation sur l’éthique de l’intelligence artificielle
Déclaration de Montréal pour un développement responsable de l’intelligence artificielle
Le partenariat mondial sur l’intelligence artificielle – Groupe de travail sur l’IA responsable
ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT)
A Guide to Writing the NeurIPS Impact Statement
Certificat de premier cycle en intelligence numérique, Université Duke
Modules de cours Embedded EthiCS, Université Harvard
IA pour l’humanité, Mila
Déclaration de l’Ethics Review Board pour les subventions de démarrage en intelligence artificielle axée sur l’humain, Université de Stanford

Soutenez-nous

Le CIFAR est un organisme de bienfaisance enregistré qui reçoit le soutien des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de donateurs individuels, d’entreprises et de partenaires canadiens et internationaux.

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada