Par: Justine Brooks
12 Déc, 2024
Le mois dernier, le gouvernement du Canada a annoncé la création de l’ICSIA et son adhésion au Réseau international des instituts de sécurité de l’IA aux côtés de plusieurs autres instituts nationaux travaillant ensemble sur cet enjeu crucial. On a également annoncé la mise sur pied du Programme de recherche de l’ICSIA au CIFAR, qui s’appuiera sur la communauté de spécialistes du CIFAR pour faire progresser la compréhension des risques associés aux systèmes d’IA avancés, ainsi que notre capacité à les détecter et à en atténuer les effets.
Le Conseil de recherche de l’ICSIA conseillera et orientera le CIFAR dans la mise en œuvre du Programme de recherche de l’ICSIA. Il sera composé de spécialistes de la recherche et de représentants et représentantes du CIFAR, des instituts nationaux d’intelligence artificielle et du Conseil national de recherches. Le CIFAR a nommé les titulaires de chaires en IA Canada-CIFAR Nicolas Papernot et Catherine Régis à la codirection du Programme de recherche de l’ICSIA. Ils sont responsables de présider le Conseil de recherche de l’ICSIA et d’assurer la direction scientifique du Programme de recherche de l’ICSIA.
Nicolas Papernot est titulaire de chaire en IA Canada-CIFAR à l’Institut Vecteur, professeur adjoint au département de génie électrique et informatique au Département d’informatique et à la Faculté de droit de l’Université de Toronto, ainsi que membre du corps professoral à l’Institut Schwartz Reisman pour la technologie et la société. Ses recherches portent sur la confidentialité et la sécurité des systèmes d’apprentissage automatique.
Catherine Régis est titulaire de chaire en IA Canada-CIFAR à Mila — Institut québécois d’intelligence artificielle, titulaire d’une Chaire de recherche du Canada, professeure titulaire à la Faculté de droit de l’Université de Montréal et directrice de l’innovation sociale et des politiques internationales à IVADO. Ses recherches se concentrent sur la gouvernance mondiale de l’IA, la réglementation de l’IA dans le secteur des soins de santé et les approches en matière de droits de la personne en IA.
« À bien des égards, une IA non sécuritaire ne serait pas viable aux plans local et international. Par conséquent, il est essentiel de veiller à la sécurité de l’IA non seulement pour protéger nos avancées sociales, mais aussi pour que l’IA elle-même demeure une technologie significative. »
— Nicolas Papernot et Catherine Régis
Dans une séance de questions-réponses avec le CIFAR, Nicolas Papernot et Catherine Régis discutent de l’importance de l’Institut canadien de la sécurité de l’ICSIA et de l’occasion offerte au Canada d’être un chef de file mondial en matière de sécurité de l’IA.
CIFAR : Que signifie pour vous la sécurité de l’IA et pourquoi est-elle importante pour le domaine de l’IA en général?
Les deux : L’IA est de plus en plus présente dans de nombreux secteurs de la société, mais elle est encore en cours de développement. Cela soulève un certain nombre de questions et de défis à différents horizons temporels, auxquels nous devons nous attaquer si nous voulons que les applications de l’IA soient réellement bénéfiques pour nos sociétés. À bien des égards, une IA non sécuritaire ne serait pas viable aux plans local et international. Par conséquent, il est essentiel de veiller à la sécurité de l’IA non seulement pour protéger nos avancées sociales, mais aussi pour que l’IA elle-même demeure une technologie significative.
CIFAR : Parlez-moi de vos propres travaux sur la sécurité de l’IA.
N. Papernot : La motivation fondatrice de mon groupe est d’étudier les limites des algorithmes d’IA, qui éclairent la conception d’approches de l’IA plus robustes, plus respectueuses de la vie privée, plus justes et plus transparentes. Nous accordons une importance considérable à l’évaluation du rendement des algorithmes d’IA en présence d’entités malveillantes. Cela nous donne une perspective de la pire éventualité concernant le rendement de l’IA, ce qui nous aide à comprendre comment la mettre en œuvre de manière plus responsable. Par exemple, nos recherches sur l’utilisation de l’IA pour préserver la vie privée ont mené à des recherches sur le désapprentissage automatique — comment supprimer les données des systèmes d’IA. Aujourd’hui, il s’agit d’une considération essentielle avant de déployer des systèmes d’IA à grande échelle, comme des agents conversationnels.
C. Régis : En tant qu’universitaire spécialisée en droit, il est assez instinctif d’anticiper les risques et de trouver des moyens de les réduire au minimum. La plupart de mes recherches et de mes travaux politiques poursuivent cet objectif. Je collabore régulièrement avec des équipes interdisciplinaires et multipartites afin de recenser, d’analyser et d’atténuer les éventuelles atteintes aux droits de la personne que les systèmes d’IA peuvent engendrer. Je m’intéresse également à la conceptualisation et à la mise en œuvre de mécanismes de surveillance et de recours couvrant l’ensemble du cycle de vie de l’IA. Ainsi, si un risque d’ordre juridique ou social se matérialise (pour nos institutions démocratiques, par exemple), nous pourrons réagir de manière adéquate afin d’éviter d’autres préjudices. Je suis particulièrement intéressée par l’utilisation de l’IA dans le domaine des soins de santé. L’IA peut jouer un rôle important pour améliorer la santé et la vie des personnes, ainsi que la qualité des services qu’on leur prodigue. Toutefois, les risques qui y sont associés peuvent être considérables s’ils ne sont pas correctement régis. Je me penche également sur les approches de gouvernance mondiale de l’IA (normes, institutions, mécanismes de collaboration interétatique, etc.), car la capacité à mener des actions concertées à ce niveau sera essentielle pour réduire au minimum la concentration du marché, définir des lignes rouges communes à tous les pays, garantir le respect des droits de la personne et diminuer le fossé en matière d’IA.
CIFAR : Qu’espérez-vous apporter à votre nouveau rôle de codirecteur ou de codirectrice? En quoi cette nouvelle occasion vous enthousiasme-t-elle?
Les deux : Le CIFAR a l’habitude de mettre en place des programmes de recherche qui ont une incidence considérable; l’IA est d’ailleurs l’un des domaines dans lesquels le CIFAR a fait œuvre de pionnier. En tant que codirectrice et codirecteur du Programme de recherche de l’ICSIA, nous avons hâte de collaborer à la conception d’un programme de recherche qui soit un catalyseur de la recherche canadienne en matière de sécurité de l’IA. Nous souhaitons créer une communauté d’universitaires qui veille à ce que toutes les perspectives soient représentées à mesure que nous élaborons des réponses technologiques et sociotechniques aux grands défis sociétaux soulevés par l’IA.
CIFAR : Pourquoi l’ICSIA est-il important?
N. Papernot : L’innovation en IA est rapidement adoptée et déployée dans le monde réel. Il est donc nécessaire de créer un institut central, l’ICSIA, pour coordonner et diffuser dans les meilleurs délais les travaux des scientifiques et des praticiens et praticiennes, afin qu’ils et elles puissent s’inspirer mutuellement de leurs travaux. L’ICSIA augmentera également la notoriété de l’innovation canadienne en matière d’IA sécuritaire sur la scène internationale, tout en facilitant la coopération avec les pays partageant les mêmes idées.
C. Régis : Grâce à une collaboration active avec l’écosystème de recherche canadien et d’autres instituts nationaux de sécurité de l’IA, l’ICSIA vise à doter le gouvernement canadien et la population canadienne en général d’une compréhension plus approfondie des risques liés à l’IA et d’outils pratiques pour orienter le développement et le déploiement de l’IA en toute sécurité. Cette initiative clé permettra au Canada d’accélérer et de redoubler ses efforts de recherche interdisciplinaire sur l’IA sécuritaire et de contribuer aux démarches mondiales dans ce domaine.
« Fort de sa réputation mondiale de chef de file responsable en matière d’IA, le Canada est bien placé pour contribuer grandement à façonner notre capacité à comprendre et à atténuer les risques liés à l’IA, ce qui nous permettra en fin de compte de récolter les immenses avantages qu’offre cette technologie. »
— Catherine Régis
CIFAR : Selon vous, comment le Canada peut-il devenir un chef de file en matière de sécurité de l’IA sur la scène mondiale?
N. Papernot : La société canadienne dispose d’un puissant éventail de valeurs démocratiques. En outre, l’écosystème de l’IA au Canada est tissé serré entre les universités, l’industrie, le système de santé et les parties prenantes gouvernementales et législatives. Cela permet aux chercheurs et chercheuses du Canada d’adopter une approche véritablement interdisciplinaire. Cela sera essentiel pour faire avancer en toute sécurité la science de l’IA et déployer cette technologie de manière responsable.
C. Régis : La progression rapide de l’IA exige une collaboration internationale majeure pour garantir que cette technologie transformatrice serve les intérêts supérieurs des personnes et des communautés du monde entier, les droits de la personne servant de cadre d’orientation. Le Canada est à l’avant-garde de ces discussions depuis plusieurs années, comme en témoigne son leadership dans la création du Partenariat mondial sur l’intelligence artificielle en 2020. Fort de sa réputation mondiale de chef de file responsable en matière d’IA, le Canada est bien placé pour contribuer grandement à façonner notre capacité à comprendre et à atténuer les risques liés à l’IA, ce qui nous permettra en fin de compte de récolter les immenses avantages qu’offre cette technologie.
Le Conseil de recherche de l’ICSIA recrute actuellement trois nouveaux membres à titre personnel. La date limite de dépôt des candidatures est fixée au 16 décembre. Le conseil se réunira en janvier, puis tous les mois, afin d’établir des priorités et de prendre des décisions de financement concernant les activités à venir, comme les fonds Catalyseur et les réseaux de solutions. Ces activités rassembleront et financeront un éventail de perspectives disciplinaires dans le but d’aborder les questions relatives à la sécurité de l’IA. De plus, le CIFAR et l’institut de cybersécurité et de confidentialité de l’Université de Waterloo s’associeront pour la publication, en mars 2025, d’un numéro spécial de la revue Analyse de politiques portant sur l’intelligence artificielle et les politiques publiques au Canada.