Hugo Larochelle
La nomination
Membre auxiliaire
Titulaire de chaire en IA Canada-CIFAR
Apprentissage automatique, apprentissage biologique
Stratégie pancanadienne en matière d’IA
À Propos
Titulaire de chaire en IA Canada-CIFAR – Nouveau mandat – 2019
Hugo Larochelle est chercheur associé au programme Apprentissage automatique, apprentissage biologique du CIFAR, titulaire d’une chaire en IA Canada-CIFAR à Mila et chercheur principal dans l’équipe Google DeepMind à Montréal. Son champ de compétences principal est l’apprentissage profond. Ses travaux antérieurs comprennent le préentraînement non supervisé avec des autoencodeurs, les autoencodeurs débruiteurs, la classification fondée sur l’attention visuelle, les modèles neuronaux de distribution autorégressive et l’apprentissage sans exemple. Plus largement, il s’intéresse aux applications de l’apprentissage profond au traitement du langage naturel, au code, à la vision par ordinateur et aux problèmes de durabilité environnementale.
Il a cofondé l’entreprise Whetlab, qui a été rachetée en 2015 par Twitter, où il a ensuite travaillé en tant que chercheur scientifique au sein du groupe Twitter Cortex. Il est notamment membre des conseils d’administration de la Conférence internationale sur l’apprentissage automatique (ICML) et de la Conférence sur les systèmes de traitement de l’information neuronale (NeurIPS). Il a également cofondé la revue Transactions on Machine Learning Research.
Hugo Larochelle donne un cours en ligne très apprécié sur l’apprentissage profond et les réseaux de neurones, accessible gratuitement sur YouTube.
Prix
- Google Faculty Research Award, 2013 et 2012
- Subvention à la découverte du CRSNG, 2012
- Prix pour un article remarquable, AISTATS, 2011
Publications Pertinentes
- Teng, M., Elmustafa, A., Akera, B., Bengio, Y., Radi, H., Larochelle, H. et Rolnick, D. (2023). « Satbird: a dataset for bird species distribution modeling using remote sensing and citizen science data ». In Proceedings of the Neural Information Processing System conference - Datasets and Benchmarks Track.
- Shrivastava, D., Larochelle, H. et Tarlow, D. (2023). « Repository-level prompt generation for large language models of code ». In International Conference on Machine Learning (pp. 31693 - 31715). PMLR.
- Afrasiyabi, A., Larochelle, H., Lalonde, J-F. et Gagné, C. (2022). « Matching feature sets for few-shot image classification ». In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp.9014-9024).
- Zhou, H., Vani, A., Larochelle, H. et Courville, A. (2022). « Fortuitous forgetting in connectionist networks ». In Proceedings of the International Conference on Learning Representations.
- Larochelle, H., & Murray, I. (2011). The neural autoregressive distribution estimator. In Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics (pp. 29-37).
- Vincent, P., Larochelle, H., Lajoie, I., Bengio, Y., Manzagol, P. A., Bottou, L. (2010). « Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion », Journal of Machine Learning Research, 11(12).
- Bengio, Y., Lamblin, P., Popovici, D., Larochelle, H. (2007). « Greedy layer-wise training of deep networks », Advances in Neural Information Processing Systems, 19.