Suis nous sur
CIFAR header logo
en
menu_mobile_logo_alt
  • Nouvelles
  • Activités
    • Événements publics
    • Réunions sur invitation seulement
  • Programmes
    • Programmes de recherche
    • Stratégie pancanadienne en matière d’IA
    • Initiatives à l’intention de la prochaine génération
    • Appel à idées mondial
  • Communauté
    • Membres et spécialiste-conseils
    • Chercheurs mondiaux CIFAR-Azrieli
    • Chaires en IA Canada-CIFAR
    • Direction – Stratégie en matière d’IA
    • Membres du réseau de solutions
    • Direction – CIFAR
  • Soutenez-nous
  • À propos
    • Notre histoire
    • CIFAR 40
    • Prix
    • Partenariats
    • Publications et rapports
    • Carrières
    • Répertoire du personnel
    • Équité, diversité et inclusion
  • en
Apprentissage automatique, apprentissage biologique

Une discussion sur l’éthique en IA

Par: Johnny Kung
29 Juil, 2019
29 juillet 2019
PUBLIC POLICY RBG

La création et le déploiement d’algorithmes d’intelligence artificielle (IA) de plus en plus complexes ont d’immenses répercussions sur la société. Bien que les technologies d’IA contribuent à la création de nouveaux produits et services dans tous les secteurs d’activité qui apportent de nombreux avantages potentiels, il faut aussi tenir compte des questions et des défis liés à la conception éthique et à l’utilisation de l’IA. Pour répondre à ces questions, il faudra faire appel à l’expertise de diverses disciplines des sciences physiques et sociales.

Le 4 mai 2019, une table ronde a réuni les boursiers du programme Apprentissage automatique, apprentissage biologique du CIFAR et d’autres experts invités dans les domaines de l’IA, de l’éthique, du droit, des politiques publiques et de la conception pour discuter des dimensions éthiques de l’IA. La discussion s’est concentrée sur trois thèmes principaux : la conception éthique de l’apprentissage automatique (AA), les biais qui interviennent dans les systèmes d’AA et le faux contenu. Au moyen de brèves présentations et de discussions dirigées, la réunion avait pour but de définir, au-delà de l’élaboration de lignes directrices ou de recommandations, des mesures concrètes pour aborder les questions éthiques entourant la recherche et les applications en matière d’IA.

Parties prenantes cibles

  • Chercheurs universitaires et de l’industrie en IA et dans d’autres domaines de l’informatique
  • Experts en droit, en politiques et dans d’autres disciplines qui étudient Ies incidences de l’IA sur la société
  • Sociétés qui développent des applications d’IA
  • Décideurs politiques et organismes gouvernementaux de réglementation (dans les domaines de l’économie, des communications, du droit et d’autres domaines stratégiques)
  • Enseignants et administrateurs dans les départements de génie, d’informatique et de mathématiques
  • Organismes d’ingénieurs professionnels

Résultats clés

  • L’IA permet déjà de créer de nombreuses applications bénéfiques, notamment dans les domaines médical, environnemental, éducatif et humanitaire. Toutefois, certaines applications militaires, de surveillance et de publicité manipulatrice suscitent de plus en plus de préoccupations. Ces enjeux exigent des discussions nuancées sur les possibilités de l’IA, et il faut éviter les spéculations farfelues sur les incidences positives et négatives possibles.
  • La technologie n’est pas neutre sur le plan culturel. Les concepteurs de systèmes technologiques s’appuient sur des hypothèses fondées sur les valeurs et les idéaux de la culture dont ils sont issus. Ces hypothèses peuvent créer des biais dans les algorithmes qui se traduisent par des désavantages systématiques pour des collectivités précises, souvent des minorités raciales ou d’autres types.
  • On présume souvent à tort que les « personnes éthiques » créeront une technologie éthique. Cependant, l’éthique ne peut être réduite à un seul enjeu, une seule solution ou une seule formule. Un groupe démographique diversifié doit prendre place à la table afin de représenter plusieurs points de vue éthiques et de relever les questions qui ne sont pas abordées. Il doit y avoir un processus continu visant à peaufiner la réflexion sur les enjeux éthiques associés à l’IA.
  • On se sert de modèles génératifs en AA pour créer des hypertrucages de plus en plus réalistes et difficiles à détecter. La présence de ces technologies de truquage peut miner grandement la confiance de la population envers les médias et le processus démocratique.
  • La croissance exponentielle de la puissance de calcul entraîne des changements technologiques plus rapides que le développement de l’infrastructure politique. L’élaboration de normes ou d’initiatives de mesure peut aider à créer un système d’alerte rapide qui pourrait faciliter une meilleure prise de décision gouvernementale.

Priorités et prochaines étapes

  • Les chercheurs en IA devraient se pencher sur le mur conceptuel entre la recherche fondamentale et la recherche appliquée en IA afin d’intégrer une éthique de bout en bout.
  • Il faut créer un environnement dans lequel le personnel ou les chercheurs débutants n’ont pas peur de s’exprimer sur les enjeux éthiques au sein de leur entreprise, de leur gouvernement ou de tout autre organisme.
  • Les chercheurs en IA devraient saisir les occasions d’autonomisation locale en faisant la promotion de l’éthique et de l’inclusion au sein de leurs collectivités de diverses façons : 1) en préconisant une meilleure inclusion dans leur département ou dans leur conférence ; 2) en prenant en considération la diversité des étudiants qu’ils forment ; et 3) en amenant ceux-ci à réfléchir aux conséquences éthiques de leur travail.
  • Il est important de mettre à jour l’enseignement de l’éthique dispensé aux ingénieurs et aux chercheurs. Il existe des exemples d’écoles de génie qui intègrent pleinement l’éthique dans leur programme d’études. D’autres départements de génie et d’informatique, ainsi que des associations professionnelles, peuvent contribuer à étendre cette pratique à l’ensemble du domaine de l’IA et de l’AA.
  • Des ateliers interdisciplinaires ou des occasions de financement devraient être mis sur pied pour établir un dialogue mutuel sur l’éthique en IA entre, d’une part, les informaticiens et ingénieurs et, d’autre part, les chercheurs en sciences sociales.
  • Il peut être enrichissant d’examiner comment d’autres domaines, comme la génomique, abordent les implications éthiques de leurs recherches et applications.

Participants à la table ronde

  • Pieter Abbeel, Université de la Californie à Berkeley / CIFAR
  • Foteini Agrafioti, Borealis AI / RBC
  • Yoshua Bengio, Université de Montréal / Mila / CIFAR
  • Jack Clark, OpenAI
  • Aaron Courville, Université de Montréal / Mila / CIFAR
  • Nando de Freitas, DeepMind / Université Oxford / CIFAR
  • Chelsea Finn, Google / Université Stanford / CIFAR
  • Michael Froomkin, École de droit de l’Université de Miami
  • Timnit Gebru, Black in AI / Google
  • Zaid Harchaoui, Université de Washington / CIFAR
  • Simon Lacoste-Julien, Université de Montréal / Mila / CIFAR
  • Hugo Larochelle, Google / Université de Sherbrooke / CIFAR
  • Yann LeCun, Facebook / Université de New York / CIFAR
  • Honglak Lee, Google / Université du Michigan / CIFAR
  • Jason Edward Lewis, Université Concordia
  • Christopher Manning, Université Stanford / CIFAR
  • Jason Millar, Université d’Ottawa
  • Margaret Mitchell, Google
  • Osonde Osoba, RAND
  • Blake Richards, Université de Toronto / CIFAR
  • Saeed Saremi, Université de la Californie à Berkeley
  • Graham Taylor, Université Guelph / CIFAR
  • Pascal Vincent, Université de Montréal / Mila / CIFAR
  • Joel Zylberberg, Université York / CIFAR

Lectures complémentaires

Le programme du CIFAR Intelligence artificielle et société
Responsabilité en matière d’IA : Promouvoir une plus grande confiance de la société (document thématique pour la conférence multipartite du G7 sur l’intelligence artificielle : Permettre l’adoption responsable de l’IA)
Un système d’apprentissage automatique génère des légendes d’images à partir de zéro (résumé de recherche)
Comprendre le comportement des machines (entrevue avec Hugo Larochelle, directeur adjoint du programme Apprentissage automatique, apprentissage biologique, et Matthew Jackson, boursier du programme Institutions, organisations et croissance)

Pour de plus amples renseignements, communiquez avec : Fiona Cunningham, Directrice, innovation.

  • FOLLOW US

Articles liés

  • Comprendre le comportement des machines
    26 avril 2019

Soutenez-nous

Le CIFAR est un organisme de bienfaisance enregistré qui reçoit le soutien des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de donateurs individuels, d’entreprises et de partenaires canadiens et internationaux.

Dons
CIFAR header logo

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada

Contactez-nous
Médias
Carrières
Politiques sur l’accessibilité
Bienfaiteurs
Rapports financiers
Abonnez-vous

  • © Copyright 2023 CIFAR. Tous les droits sont réservés.
  • Numéro d’enregistrement d’organisme de bienfaisance : 11921 9251 RR0001
  • Conditions d'utilisation
  • Politique de confidentialité
  • Plan du Site

Souscrire

Rejoignez notre communauté! Restez à jour avec nos nouvelles, événements, conférences et ateliers et dernières découvertes à travers le monde.

Ce site Web enregistre des témoins sur votre ordinateur. Ces témoins sont utilisés pour recueillir des renseignements sur votre interaction avec notre site Web et nous permettre de vous reconnaître. Nous utilisons ces renseignements afin d'améliorer et de personnaliser votre expérience de navigation et à des fins d'analyse et de mesures concernant nos visiteurs, tant sur ce site Web que sur d'autres médias. Pour en savoir plus sur les témoins que nous utilisons, consultez notre politique deconfidentialité.
Accepter En savoir plus