La création et le déploiement d’algorithmes d’intelligence artificielle (IA) de plus en plus complexes ont d’immenses répercussions sur la société. Bien que les technologies d’IA contribuent à la création de nouveaux produits et services dans tous les secteurs d’activité qui apportent de nombreux avantages potentiels, il faut aussi tenir compte des questions et des défis liés à la conception éthique et à l’utilisation de l’IA. Pour répondre à ces questions, il faudra faire appel à l’expertise de diverses disciplines des sciences physiques et sociales.
Le 4 mai 2019, une table ronde a réuni les boursiers du programme Apprentissage automatique, apprentissage biologique du CIFAR et d’autres experts invités dans les domaines de l’IA, de l’éthique, du droit, des politiques publiques et de la conception pour discuter des dimensions éthiques de l’IA. La discussion s’est concentrée sur trois thèmes principaux : la conception éthique de l’apprentissage automatique (AA), les biais qui interviennent dans les systèmes d’AA et le faux contenu. Au moyen de brèves présentations et de discussions dirigées, la réunion avait pour but de définir, au-delà de l’élaboration de lignes directrices ou de recommandations, des mesures concrètes pour aborder les questions éthiques entourant la recherche et les applications en matière d’IA.
Parties prenantes cibles
- Chercheurs universitaires et de l’industrie en IA et dans d’autres domaines de l’informatique
- Experts en droit, en politiques et dans d’autres disciplines qui étudient Ies incidences de l’IA sur la société
- Sociétés qui développent des applications d’IA
- Décideurs politiques et organismes gouvernementaux de réglementation (dans les domaines de l’économie, des communications, du droit et d’autres domaines stratégiques)
- Enseignants et administrateurs dans les départements de génie, d’informatique et de mathématiques
- Organismes d’ingénieurs professionnels
Résultats clés
- L’IA permet déjà de créer de nombreuses applications bénéfiques, notamment dans les domaines médical, environnemental, éducatif et humanitaire. Toutefois, certaines applications militaires, de surveillance et de publicité manipulatrice suscitent de plus en plus de préoccupations. Ces enjeux exigent des discussions nuancées sur les possibilités de l’IA, et il faut éviter les spéculations farfelues sur les incidences positives et négatives possibles.
- La technologie n’est pas neutre sur le plan culturel. Les concepteurs de systèmes technologiques s’appuient sur des hypothèses fondées sur les valeurs et les idéaux de la culture dont ils sont issus. Ces hypothèses peuvent créer des biais dans les algorithmes qui se traduisent par des désavantages systématiques pour des collectivités précises, souvent des minorités raciales ou d’autres types.
- On présume souvent à tort que les « personnes éthiques » créeront une technologie éthique. Cependant, l’éthique ne peut être réduite à un seul enjeu, une seule solution ou une seule formule. Un groupe démographique diversifié doit prendre place à la table afin de représenter plusieurs points de vue éthiques et de relever les questions qui ne sont pas abordées. Il doit y avoir un processus continu visant à peaufiner la réflexion sur les enjeux éthiques associés à l’IA.
- On se sert de modèles génératifs en AA pour créer des hypertrucages de plus en plus réalistes et difficiles à détecter. La présence de ces technologies de truquage peut miner grandement la confiance de la population envers les médias et le processus démocratique.
- La croissance exponentielle de la puissance de calcul entraîne des changements technologiques plus rapides que le développement de l’infrastructure politique. L’élaboration de normes ou d’initiatives de mesure peut aider à créer un système d’alerte rapide qui pourrait faciliter une meilleure prise de décision gouvernementale.
Priorités et prochaines étapes
- Les chercheurs en IA devraient se pencher sur le mur conceptuel entre la recherche fondamentale et la recherche appliquée en IA afin d’intégrer une éthique de bout en bout.
- Il faut créer un environnement dans lequel le personnel ou les chercheurs débutants n’ont pas peur de s’exprimer sur les enjeux éthiques au sein de leur entreprise, de leur gouvernement ou de tout autre organisme.
- Les chercheurs en IA devraient saisir les occasions d’autonomisation locale en faisant la promotion de l’éthique et de l’inclusion au sein de leurs collectivités de diverses façons : 1) en préconisant une meilleure inclusion dans leur département ou dans leur conférence ; 2) en prenant en considération la diversité des étudiants qu’ils forment ; et 3) en amenant ceux-ci à réfléchir aux conséquences éthiques de leur travail.
- Il est important de mettre à jour l’enseignement de l’éthique dispensé aux ingénieurs et aux chercheurs. Il existe des exemples d’écoles de génie qui intègrent pleinement l’éthique dans leur programme d’études. D’autres départements de génie et d’informatique, ainsi que des associations professionnelles, peuvent contribuer à étendre cette pratique à l’ensemble du domaine de l’IA et de l’AA.
- Des ateliers interdisciplinaires ou des occasions de financement devraient être mis sur pied pour établir un dialogue mutuel sur l’éthique en IA entre, d’une part, les informaticiens et ingénieurs et, d’autre part, les chercheurs en sciences sociales.
- Il peut être enrichissant d’examiner comment d’autres domaines, comme la génomique, abordent les implications éthiques de leurs recherches et applications.
Participants à la table ronde
- Pieter Abbeel, Université de la Californie à Berkeley / CIFAR
- Foteini Agrafioti, Borealis AI / RBC
- Yoshua Bengio, Université de Montréal / Mila / CIFAR
- Jack Clark, OpenAI
- Aaron Courville, Université de Montréal / Mila / CIFAR
- Nando de Freitas, DeepMind / Université Oxford / CIFAR
- Chelsea Finn, Google / Université Stanford / CIFAR
- Michael Froomkin, École de droit de l’Université de Miami
- Timnit Gebru, Black in AI / Google
- Zaid Harchaoui, Université de Washington / CIFAR
- Simon Lacoste-Julien, Université de Montréal / Mila / CIFAR
- Hugo Larochelle, Google / Université de Sherbrooke / CIFAR
- Yann LeCun, Facebook / Université de New York / CIFAR
- Honglak Lee, Google / Université du Michigan / CIFAR
- Jason Edward Lewis, Université Concordia
- Christopher Manning, Université Stanford / CIFAR
- Jason Millar, Université d’Ottawa
- Margaret Mitchell, Google
- Osonde Osoba, RAND
- Blake Richards, Université de Toronto / CIFAR
- Saeed Saremi, Université de la Californie à Berkeley
- Graham Taylor, Université Guelph / CIFAR
- Pascal Vincent, Université de Montréal / Mila / CIFAR
- Joel Zylberberg, Université York / CIFAR
Lectures complémentaires
Le programme du CIFAR Intelligence artificielle et société
Responsabilité en matière d’IA : Promouvoir une plus grande confiance de la société (document thématique pour la conférence multipartite du G7 sur l’intelligence artificielle : Permettre l’adoption responsable de l’IA)
Un système d’apprentissage automatique génère des légendes d’images à partir de zéro (résumé de recherche)
Comprendre le comportement des machines (entrevue avec Hugo Larochelle, directeur adjoint du programme Apprentissage automatique, apprentissage biologique, et Matthew Jackson, boursier du programme Institutions, organisations et croissance)
Pour de plus amples renseignements, communiquez avec : Fiona Cunningham, Directrice, innovation.