Suis nous sur

Éthique et recherche en IA

Les progrès récents dans les domaines de l’intelligence artificielle (IA) et de l’apprentissage automatique (AA) ouvrent la voie à des applications dont l’incidence positive pourrait se révéler très importante dans tout un éventail de domaines, dont les soins de santé, l’éducation, le commerce et la protection de l’environnement. Pourtant, certains craignent, à juste titre, qu’un mauvais usage de l’IA pourrait compromettre la vie privée, faciliter la diffusion de fausses nouvelles et la désinformation, et reproduire ou exacerber les biais, la discrimination et les inégalités dans la société. Une pléthore de principes et de déclarations éthiques a vu le jour pour guider et orienter le domaine, mais il faut poursuivre le travail pour concrétiser ces principes et influencer le mode d’exécution des activités de recherche et développement en matière d’IA.

Le programme Apprentissage automatique, apprentissage biologique du CIFAR réunit des chercheurs de premier plan du monde entier dont les travaux fondamentaux ont modelé, et continueront à modeler, les domaines de l’IA et de l’AA. Nombre d’entre eux ont aussi pris part à des discussions plus générales sur l’IA éthique et l’impact de la technologie sur la société. Des mesures prises par les chefs de file de la recherche en IA, y compris des boursiers du CIFAR, à tous les niveaux et dans tous les contextes — au sein de leur propre laboratoire, de leur institution ou lors de conférences internationales — pourraient éventuellement avoir un effet d’entraînement sur l’ensemble du domaine et permettre une transition essentielle vers un renforcement de la prise en compte, de la mise en œuvre et de la culture de l’éthique dans les environnements de recherche et de formation en IA.

Voici quelques initiatives récentes des boursiers, chercheurs et conseillers du programme Apprentissage automatique, apprentissage biologique du CIFAR destinées à examiner les enjeux liés à l’IA éthique :

  • Dans un commentaire récent, Yoshua Bengio et Alexandra Luccioni ont souligné les préoccupations éthiques suscitées par les applications de l’IA, notamment les biais qui pourraient s’introduire dans les données utilisées pour entraîner les algorithmes, les biais que pourraient programmer les créateurs de systèmes ou les biais découlant de la définition des problèmes. Les auteurs soutiennent qu’il est nécessaire d’inciter les chercheurs individuels à se montrer plus réfléchis dans leur travail, et de favoriser des changements sociétaux collectifs au moyen de normes, de lois et de règlements. Ils proposent quatre questions que les chercheurs en IA et en AA devraient se poser dans le cadre de leur travail : Comment la technologie sera-t-elle utilisée? Qui en bénéficiera ou en souffrira? Quelles seront l’ampleur et la nature de son impact social? Est-ce que mon travail est en adéquation avec mes valeurs?
  • En 2019, le CIFAR a coparrainé un institut d’été sur l’IA et la société. Dans un résumé des discussions tenues lors de cet institut, Alona Fyshe et les autres coorganisateurs ont souligné la nécessité de poursuivre les discussions sur les répercussions à grande échelle et à moyen terme (plutôt que sur les répercussions actuelles ou ponctuelles) de l’IA, et sur l’importance pour les chercheurs en IA, qu’ils soient débutants ou chevronnés, de participer à des collaborations interdisciplinaires soutenues et intensives en sciences et en sciences humaines afin de faire ressortir la vaste perspective nécessaire pour comprendre et traiter ces questions.
  • Les soins de santé constituent l’un des principaux domaines d’application où les progrès de l’IA suscitent beaucoup d’espoir, mais on craint également que l’IA ne perpétue les inégalités existantes. Marzyeh Ghassemi, Anna Goldenberg (boursières du programme Développement du cerveau et de l’enfant du CIFAR) et leurs collègues ont établi une feuille de route destinée aux chercheurs en IA pour favoriser l’exécution de recherches et un déploiement responsables en matière d’AA dans les soins de santé; il faut notamment choisir les bons problèmes (plutôt que les seuls problèmes pour lesquels nous disposons de données annotées, en collaborant tôt avec les acteurs de la santé et les patients pour mieux comprendre les données et formuler des problèmes cliniquement significatifs), élaborer des solutions utiles (en examinant quand et pourquoi les données ont été recueillies et dans quelle mesure elles sont représentatives), prendre en compte les répercussions éthiques (en travaillant avec des éthiciens et des spécialistes des sciences sociales pour comprendre les biais dans les données et la pertinence de l’énoncé du problème), évaluer rigoureusement le modèle (par. ex., en utilisant des mesures d’évaluation pertinentes sur le plan clinique ou des analyses qualitatives pour cerner les biais et les facteurs confusionnels éventuels) et communiquer les résultats de manière réfléchie (en partageant le code et en indiquant les contextes dans lesquels le modèle est valable).
  • Les chercheurs en IA pourraient aussi contribuer à une IA éthique en mettant au point des solutions techniques pour s’attaquer aux biais et autres problèmes liés aux données et aux algorithmes. Parmi les travaux récents de Richard Zemel et de ses collègues sur la conception de techniques éthiques d’IA, notons la modélisation causale non discriminante qui permet aux modèles d’AA d’apprendre comment les décisions passées mènent à des biais dans les ensembles de données et, en retour, de prendre des décisions plus justes et plus précises; l’appariement sous contrainte qui permet aux systèmes recommandeurs de créer des résultats plus justes pour maximiser le bien-être social; des algorithmes d’AA qui apprennent à cerner l’origine des biais intégrés dans les données textuelles et les sous-ensembles de documents qui peuvent être supprimés pour réduire les biais; et un cadre d’apprentissage adaptatif avec rejet où un modèle d’AA apprend quand reporter les décisions — lorsque les données sont insuffisantes pour prendre une décision responsable — pour qu’un agent en aval (même s’il est potentiellement biaisé) tranche, de façon à maximiser la précision et l’équité du système décisionnel global.
  • Les conférences internationales peuvent jouer un rôle déterminant dans l’élaboration de normes et de pratiques dans le domaine qui favorisent des activités de recherche plus éthiques et responsables en IA et en AA. Les membres du comité organisateur de la conférence NeurIPS 2019, dont Joelle Pineau et Hugo Larochelle, ont mis en place un programme de reproductibilité qui comprend une politique de soumission de codes, un défi de reproductibilité à l’échelle communautaire pour les articles retenus et une liste de vérification en matière de reproductibilité pour le processus de soumission et d’examen. En 2020, les organisateurs de NeurIPS, dont Raia Hadsell, ont commencé à exiger que les soumissions s’accompagnent d’une déclaration d’impact plus large. De plus, ils ont nommé un conseiller en éthique et mis en place un processus d’examen éthique des articles soumis.

Références

Brunet M-E et coll. 2019. Understanding the origins of bias in word embeddings. Dans Proceedings of the 36th International Conference on Machine Learning, 9 au 15 juin 2019, Long Beach, CA, É.-U., PMLR 97:803-811.

Lin H-T et coll. 2020. What we learned from NeurIPS 2020 reviewing process. [blogue] Neural Information Processing Systems Conference. Disponible à l’adresse : https://neuripsconf.medium.com/what-we-learned-from-neurips-2020-reviewing-process-e24549eea38f

Luccioni A et Bengio Y. 2020. On the morality of artificial intelligence. IEEE Technol. Soc. Mag. 39:16-25.

Madras D et coll. 2018. Predict responsibly: Improving fairness and accuracy by learning to defer. Dans Advances in Neural Information Processing Systems 31: NeurIPS 2018, 3 au 8 décembre 2018, Montréal, QC, Canada (p. 6147-6157).

Madras D et coll. 2019. Fairness through causal awareness: Learning causal latent-variable models for biased data. Dans FAT* ’19: Proceedings of the Conference on Fairness, Accountability, and Transparency, 29 au 31 janvier 2019, Atlanta, GA, É.-U. (p. 349-358).

McCoy LG et coll. 2020. Ensuring machine learning for healthcare works for all. BMJ Health Care Inform. 27:e100237.

Mladenov M et coll. 2020. Optimizing long-term social welfare in recommender systems: A constrained matching approach. Dans Proceedings of the 37th International Conference on Machine Learning, 13 au 18 juillet 2020, mode virtuel, PMLR 119:6987-6998.

Parson E et coll. 2019. Artificial Intelligence’s Societal Impacts, Governance, and Ethics: Introduction to the 2019 Summer Institute on AI and Society and its Rapid Outputs. UCLA: The Program on Understanding Law, Science, and Evidence (PULSE). Disponible à l’adresse : https://escholarship.org/uc/item/2gp9314r

Pineau J et coll. 2020. Improving reproducibility in machine learning research (A report from the NeurIPS 2019 Reproducibility Program). arXiv. Préimpression.

Wiens J et coll. 2019. Do no harm: A roadmap for responsible machine learning for health care. Nat. Med. 25:1337.

 

Soutenez-nous

Le CIFAR est un organisme de bienfaisance enregistré qui reçoit le soutien des gouvernements du Canada, de l’Ontario, de l’Alberta et du Québec, ainsi que de fondations, de donateurs individuels, d’entreprises et de partenaires canadiens et internationaux.

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada