Par: Krista Davidson
19 Jan, 2021
Nidhi Hegde élabore des méthodes d’apprentissage automatique qui permettent aux technologies d’IA de se développer sans compromettre la vie privée.
Dans le cadre de ses recherches, elle applique des techniques calibrées à l’apprentissage automatique afin de comprendre comment les algorithmes réagissent et s’adaptent à certains paramètres relatifs à la vie privée. La bonne approche permet aux algorithmes de fonctionner de manière optimale tout en préservant la vie privée.
La définition de la vie privée est l’un des plus grands défis auxquels nous sommes confrontés aujourd’hui. De nombreuses entreprises s’appuient sur une protection différenciée de la vie privée, obtenue au moyen de perturbation dans l’entraînement des modèles. Cela fonctionne bien pour de nombreuses applications, mais c’est moins efficace pour d’autres, comme dans le domaine de la santé, où les données personnelles fournissent des renseignements importants. Nidhi Hegde explore également de nouvelles définitions de la vie privée pour de tels scénarios. Sans solutions innovantes au problème, davantage de violations de la vie privée pourraient se produire.
« Les atteintes à la vie privée ont de nombreuses conséquences négatives dont nous devons tenir compte lors de la construction des algorithmes, explique-t-elle. Pour assurer la sécurité des personnes et les protéger des dangers de l’IA, comme les violations de la vie privée, il est important de faire la distinction entre les renseignements qui doivent rester privés et ceux qui peuvent se retrouver dans le domaine public. »
Nidhi Hegde s’intéresse également à la manière dont les différentes mesures de l’éthique interagissent les unes avec les autres. Par exemple, la protection de la vie privée est-elle un obstacle ou un avantage pour les classificateurs qui assurent l’équité ? Elle vise à construire des cadres qui permettent une intégration calibrée de ces composantes éthiques.
Membre du corps professoral de l’Amii, Nidhi Hegde a intégré le département d’informatique de l’Université de l’Alberta en février 2020, au début de la pandémie de COVID-19. Sa carrière de recherche s’est déroulée en grande partie dans le domaine des algorithmes pour la science des réseaux et l’apprentissage automatique en France, dans des entreprises telles que le laboratoire de recherche de Technicolor à Paris et Nokia Bell Labs, avant de rejoindre Borealis AI, l’institut de recherche en intelligence artificielle de RBC, en 2018.
Nidhi Hegde se dit honorée d’avoir été nommée titulaire de chaire en IA Canada-CIFAR, un rôle qui lui permettra, espère-t-elle, de faire progresser la compréhension de la protection de la vie privée et de l’équité en IA dans la communauté de recherche et dans le grand public.
Mo Chen enseigne aux robots mobiles autonomes à réagir aux situations dangereuses. Il étudie comment faire fonctionner ces robots en toute sécurité et, plus important encore, comment ils peuvent coexister avec les humains et d’autres robots, même s’ils fonctionnent de manière autonome. C’est un défi qui pourrait transformer le transport et la livraison de marchandises ainsi que des dizaines d’autres secteurs d’activité.
Grâce à une approche appelée analyse d’accessibilité, il est capable de déterminer l’ensemble des configurations qui représentent un danger imminent pour les robots. Il combine des méthodes classiques d’IA, telles que l’optimisation, et l’apprentissage par renforcement (où un agent autonome apprend en interagissant avec un environnement contrôlé) pour entraîner les robots à éviter les collisions entre eux et avec leur environnement.
Mo Chen veut également rendre les systèmes d’IA plus centrés sur l’humain et plus naturels.
« Je veux que les robots puissent agir naturellement autour des gens, et cela implique la sécurité, la prévention des collisions, la prédiction des intentions et la prise de décision », explique-t-il.
En pouvant prédire les intentions des gens, les robots savent quand et comment interagir de manière appropriée avec les humains. Par exemple, dans les centres commerciaux ou les aéroports, un robot pourrait être capable de détecter quand une personne est perdue, confuse ou a besoin d’aide.
Boursier de l’Amii, Mo Chen dirige le laboratoire des systèmes robotiques multiagents de l’Université Simon Fraser, où il est professeur adjoint au département d’informatique. Son laboratoire se concentre sur la prise de décision robotique fondée sur des principes et combine des méthodes analytiques traditionnelles avec des techniques modernes basées sur des données. Il a obtenu son doctorat en 2017 à l’Université de Californie à Berkeley.
Rahul G. Krishnan, titulaire de chaire en IA Canada-CIFAR, utilise l’IA pour fournir un aperçu du comportement des maladies, non pas chez un seul patient, mais dans des populations entières.
En examinant les dossiers électroniques des patients, il développe des modèles probabilistes qui examinent la progression d’une maladie dans le temps et la façon dont elle répond à différents traitements. La compréhension de l’évolution de la maladie est utile aux cliniciens pour déterminer si certains patients devraient recevoir des thérapies plus ciblées. Son approche pourrait réduire considérablement les coûts des soins de santé et renseigner sur les traitements de maladies chroniques comme le cancer et le diabète.
Pour le chercheur, l’IA offre la possibilité d’examiner dans son ensemble un système de santé complexe et à multiples facettes. En particulier, le système à payeur unique de l’Ontario et la diversité de sa population offrent de nombreuses possibilités d’avoir une compréhension claire et précise des maladies qui révolutionnera les traitements futurs.
« Le fait que nous disposions de données sur les soins de santé représentatives d’une population diversifiée, et pas seulement des personnes qui peuvent s’offrir une assurance maladie, est essentiel pour comprendre la science des maladies et des traitements », explique-t-il.
Rahul G. Krishnan a terminé ses études de premier cycle à l’Université de Toronto et son doctorat au MIT en 2020. Il a ensuite travaillé comme chercheur principal chez Microsoft Research New England avant de revenir au Canada pour occuper son premier poste de professeur à l’Université de Toronto en tant que professeur adjoint en informatique et en médecine.
David Rolnick mobilise la communauté de recherche pour que ses membres utilisent l’apprentissage automatique dans la lutte contre les changements climatiques.
Cofondateur de Climate Change AI, une initiative qui regroupe des spécialistes des entreprises, des universités et de la sphère politique, il encourage l’utilisation de l’apprentissage automatique pour atténuer les changements climatiques et s’adapter à leurs conséquences.
Ses travaux portent sur les applications de l’apprentissage automatique pour la gestion des réseaux électriques, la modélisation du climat et de la météo, et la surveillance de la biodiversité. David Rolnick et ses collaborateurs ont récemment publié un article intitulé , qui incite la communauté de l’apprentissage automatique à se joindre à la lutte et à collaborer avec des chercheurs d’autres disciplines et des décideurs politiques pour apporter des changements.
« La question n’est plus de savoir s’il y aura ou non des changements climatiques, mais dans quelle mesure nous les laissons s’aggraver », dit-il. Selon lui, il est essentiel que les experts et les scientifiques ayant des compétences pertinentes contribuent à ce qui devrait constituer un effort planétaire.
En plus de s’intéresser à la lutte contre les changements climatiques, les recherches en IA de David Rolnick se concentrent sur les fondements mathématiques de l’apprentissage profond et des réseaux neuronaux. Titulaire d’un doctorat en mathématiques appliquées du MIT, il est membre du corps professoral de Mila et professeur adjoint à l’École d’informatique de l’Université McGill.