Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • NOTRE IMPACT
    • Pourquoi le CIFAR?
    • Pôles d’impact
    • Nouvelles
    • Stratégie du CIFAR
    • Favoriser la résilience de la Terre
    • Impact IA
    • Impact des dons
    • CIFAR 40
  • Activités
    • Événements publics
    • Réunions sur invitation seulement
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Chaires en IA Canada-CIFAR
    • Direction – Stratégie en matière d’IA
    • Membres du réseau de solutions
    • Direction – CIFAR
    • Répertoire du personnel
  • Soutenez-nous
  • À propos
    • Notre histoire
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Équité, diversité et inclusion
    • Déclaration du CIFAR sur la neutralité institutionnelle
    • Sécurité de la recherche
  • en
Apprentissage automatique, apprentissage biologique

Éthique et recherche en IA

Par: Johnny Kung
12 Fév, 2021
12 février 2021
PUBLIC-POLICY-RBG

Les progrès récents dans les domaines de l’intelligence artificielle (IA) et de l’apprentissage automatique (AA) ouvrent la voie à des applications dont l’incidence positive pourrait se révéler très importante dans tout un éventail de domaines, dont les soins de santé, l’éducation, le commerce et la protection de l’environnement. Pourtant, certains craignent, à juste titre, qu’un mauvais usage de l’IA pourrait compromettre la vie privée, faciliter la diffusion de fausses nouvelles et la désinformation, et reproduire ou exacerber les biais, la discrimination et les inégalités dans la société. Une pléthore de principes et de déclarations éthiques a vu le jour pour guider et orienter le domaine, mais il faut poursuivre le travail pour concrétiser ces principes et influencer le mode d’exécution des activités de recherche et développement en matière d’IA.

Le programme Apprentissage automatique, apprentissage biologique du CIFAR réunit des chercheurs de premier plan du monde entier dont les travaux fondamentaux ont modelé, et continueront à modeler, les domaines de l’IA et de l’AA. Nombre d’entre eux ont aussi pris part à des discussions plus générales sur l’IA éthique et l’impact de la technologie sur la société. Des mesures prises par les chefs de file de la recherche en IA, y compris des boursiers du CIFAR, à tous les niveaux et dans tous les contextes — au sein de leur propre laboratoire, de leur institution ou lors de conférences internationales — pourraient éventuellement avoir un effet d’entraînement sur l’ensemble du domaine et permettre une transition essentielle vers un renforcement de la prise en compte, de la mise en œuvre et de la culture de l’éthique dans les environnements de recherche et de formation en IA.

Voici quelques initiatives récentes des boursiers, chercheurs et conseillers du programme Apprentissage automatique, apprentissage biologique du CIFAR destinées à examiner les enjeux liés à l’IA éthique :

  • Dans un commentaire récent, Yoshua Bengio et Alexandra Luccioni ont souligné les préoccupations éthiques suscitées par les applications de l’IA, notamment les biais qui pourraient s’introduire dans les données utilisées pour entraîner les algorithmes, les biais que pourraient programmer les créateurs de systèmes ou les biais découlant de la définition des problèmes. Les auteurs soutiennent qu’il est nécessaire d’inciter les chercheurs individuels à se montrer plus réfléchis dans leur travail, et de favoriser des changements sociétaux collectifs au moyen de normes, de lois et de règlements. Ils proposent quatre questions que les chercheurs en IA et en AA devraient se poser dans le cadre de leur travail : Comment la technologie sera-t-elle utilisée? Qui en bénéficiera ou en souffrira? Quelles seront l’ampleur et la nature de son impact social? Est-ce que mon travail est en adéquation avec mes valeurs?
  • En 2019, le CIFAR a coparrainé un institut d’été sur l’IA et la société. Dans un résumé des discussions tenues lors de cet institut, Alona Fyshe et les autres coorganisateurs ont souligné la nécessité de poursuivre les discussions sur les répercussions à grande échelle et à moyen terme (plutôt que sur les répercussions actuelles ou ponctuelles) de l’IA, et sur l’importance pour les chercheurs en IA, qu’ils soient débutants ou chevronnés, de participer à des collaborations interdisciplinaires soutenues et intensives en sciences et en sciences humaines afin de faire ressortir la vaste perspective nécessaire pour comprendre et traiter ces questions.
  • Les soins de santé constituent l’un des principaux domaines d’application où les progrès de l’IA suscitent beaucoup d’espoir, mais on craint également que l’IA ne perpétue les inégalités existantes. Marzyeh Ghassemi, Anna Goldenberg (boursières du programme Développement du cerveau et de l’enfant du CIFAR) et leurs collègues ont établi une feuille de route destinée aux chercheurs en IA pour favoriser l’exécution de recherches et un déploiement responsables en matière d’AA dans les soins de santé; il faut notamment choisir les bons problèmes (plutôt que les seuls problèmes pour lesquels nous disposons de données annotées, en collaborant tôt avec les acteurs de la santé et les patients pour mieux comprendre les données et formuler des problèmes cliniquement significatifs), élaborer des solutions utiles (en examinant quand et pourquoi les données ont été recueillies et dans quelle mesure elles sont représentatives), prendre en compte les répercussions éthiques (en travaillant avec des éthiciens et des spécialistes des sciences sociales pour comprendre les biais dans les données et la pertinence de l’énoncé du problème), évaluer rigoureusement le modèle (par. ex., en utilisant des mesures d’évaluation pertinentes sur le plan clinique ou des analyses qualitatives pour cerner les biais et les facteurs confusionnels éventuels) et communiquer les résultats de manière réfléchie (en partageant le code et en indiquant les contextes dans lesquels le modèle est valable).
  • Les chercheurs en IA pourraient aussi contribuer à une IA éthique en mettant au point des solutions techniques pour s’attaquer aux biais et autres problèmes liés aux données et aux algorithmes. Parmi les travaux récents de Richard Zemel et de ses collègues sur la conception de techniques éthiques d’IA, notons la modélisation causale non discriminante qui permet aux modèles d’AA d’apprendre comment les décisions passées mènent à des biais dans les ensembles de données et, en retour, de prendre des décisions plus justes et plus précises; qui permet aux systèmes recommandeurs de créer des résultats plus justes pour maximiser le bien-être social; des algorithmes d’AA qui apprennent à cerner l’origine des et les sous-ensembles de documents qui peuvent être supprimés pour réduire les biais; et un où un modèle d’AA apprend quand reporter les décisions — lorsque les données sont insuffisantes pour prendre une décision responsable — pour qu’un agent en aval (même s’il est potentiellement biaisé) tranche, de façon à maximiser la précision et l’équité du système décisionnel global.
  • Les conférences internationales peuvent jouer un rôle déterminant dans l’élaboration de normes et de pratiques dans le domaine qui favorisent des activités de recherche plus éthiques et responsables en IA et en AA. Les membres du comité organisateur de la conférence NeurIPS 2019, dont Joelle Pineau et Hugo Larochelle, ont mis en place un qui comprend une politique de soumission de codes, un défi de reproductibilité à l’échelle communautaire pour les articles retenus et une liste de vérification en matière de reproductibilité pour le processus de soumission et d’examen. En 2020, les organisateurs de NeurIPS, dont Raia Hadsell, ont commencé à exiger que les soumissions s’accompagnent d’une déclaration d’impact plus large. De plus, ils ont nommé un conseiller en éthique et mis en place un processus d’examen éthique des articles soumis.

Références

Brunet M-E et coll. 2019. Understanding the origins of bias in word embeddings. Dans Proceedings of the 36th International Conference on Machine Learning, 9 au 15 juin 2019, Long Beach, CA, É.-U., PMLR 97:803-811.

Lin H-T et coll. 2020. What we learned from NeurIPS 2020 reviewing process. [blogue] Neural Information Processing Systems Conference. Disponible à l’adresse : https://neuripsconf.medium.com/what-we-learned-from-neurips-2020-reviewing-process-e24549eea38f

Luccioni A et Bengio Y. 2020. On the morality of artificial intelligence. IEEE Technol. Soc. Mag. 39:16-25.

Madras D et coll. 2018. Predict responsibly: Improving fairness and accuracy by learning to defer. Dans Advances in Neural Information Processing Systems 31: NeurIPS 2018, 3 au 8 décembre 2018, Montréal, QC, Canada (p. 6147-6157).

Madras D et coll. 2019. Fairness through causal awareness: Learning causal latent-variable models for biased data. Dans FAT* ’19: Proceedings of the Conference on Fairness, Accountability, and Transparency, 29 au 31 janvier 2019, Atlanta, GA, É.-U. (p. 349-358).

McCoy LG et coll. 2020. Ensuring machine learning for healthcare works for all. BMJ Health Care Inform. 27:e100237.

Mladenov M et coll. 2020. Optimizing long-term social welfare in recommender systems: A constrained matching approach. Dans Proceedings of the 37th International Conference on Machine Learning, 13 au 18 juillet 2020, mode virtuel, PMLR 119:6987-6998.

Parson E et coll. 2019. Artificial Intelligence’s Societal Impacts, Governance, and Ethics: Introduction to the 2019 Summer Institute on AI and Society and its Rapid Outputs. UCLA: The Program on Understanding Law, Science, and Evidence (PULSE). Disponible à l’adresse : https://escholarship.org/uc/item/2gp9314r

Pineau J et coll. 2020. Improving reproducibility in machine learning research (A report from the NeurIPS 2019 Reproducibility Program). arXiv. Préimpression.

Wiens J et coll. 2019. Do no harm: A roadmap for responsible machine learning for health care. Nat. Med. 25:1337.

 

  • Suivez-nous

Articles liés

  • Fin de l’APAR 2022 et reprise de la formation en personne en 2023
    28 septembre 2022
  • Atelier en astronomie/cosmologie et intelligence artificielle du CIFAR
    19 juillet 2022
  • Le CIFAR annonce les plans de la deuxième phase de la Stratégie pancanadienne en matière d’intelligence artificielle
    22 juin 2022
  • Le AI4Good Lab s’étend à trois villes canadiennes
    21 juin 2022

Soutenez-nous

L’Institut canadien de recherches avancées (CIFAR) est une organisation de recherche d’influence mondiale fièrement basée au Canada. Nous mobilisons les plus brillants personnes du monde, dans toutes les disciplines et à tous les stades de carrière, pour faire progresser les connaissances transformatrices et résoudre ensemble les plus grands problèmes de l’humanité. Nous recevons l’appui des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de particuliers, d’entreprises et d’organisations partenaires du Canada et du monde entier.

Dons
CIFAR footer logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2025 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Fields marked with an * are required

I prefer to register in English (click here)


S'abonner aux bulletins d'information du CIFAR: *

Vous pouvez vous désabonner de ces communications à tout moment. Consultez notrepolitique de confidentialité.

 À titre d’abonné, vous recevrez aussi un exemplaire numérique de REACH, notre revue annuelle qui met en lumière nos chercheurs et leurs découvertes au moyen d’articles de fond, d’entrevues et d’illustrations.


Si vous souhaitez recevoir une édition papier de la revue REACH, veuillez fournir les renseignements supplémentaires suivants :


Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus

Notifications