Suis nous sur
12-andrew-saxe_bw

Andrew Saxe

Titre

  • Chercheur mondial ou chercheuse mondiale CIFAR-Azrieli 2020-2022
  • Apprentissage automatique, apprentissage biologique

Profil

website

À Propos

Nos pensées et nos actions sont le fruit de milliards d’interactions neuronales.

Il est remarquable de constater qu’une grande partie de notre comportement s’apprend dès la petite enfance et se poursuit tout au long de la vie. Andrew Saxe souhaite créer une boîte à outils mathématiques pour analyser et décrire divers aspects de l’apprentissage dans le cerveau et l’esprit. Il se penche actuellement sur la théorie de l’apprentissage profond, une classe de modèles de réseaux neuronaux artificiels qui s’inspire du cerveau. En plus de ces travaux théoriques, il tisse d’étroites collaborations avec des expérimentateurs pour mettre à l’essai de façon empirique les principes de l’apprentissage dans les organismes biologiques.

Prix

  • Prix Wellcome-Beit, Wellcome Trust, 2019
  • Bourse Sir Henry Dale, Wellcome Trust et Royal Society, 2019
  • Prix de thèse de doctorat exceptionnelle Robert J. Glushko, Cognitive Science Society, 2016
  • Bourse NDSEG, 2010

Publications Pertinentes

  • Saxe, A. M., McClelland, J. L. et Ganguli, S. (2019). A mathematical theory of semantic development in deep neural networks. Proceedings of the National Academy of Sciences, 116(23), 11537–11546. https://doi.org/10.1073/pnas.1820226116
  • Earle, A. C., Saxe, A. M. et Rosman, B. (2018). Hierarchical Subtask Discovery with Non-Negative Matrix Factorization. Dans Y. Bengio et Y. LeCun (éd.), International Conference on Learning Representations.
  • Advani*, M. et Saxe*, A. M. (2017). High-dimensional dynamics of generalization error in neural networks. ArXiv.
  • Musslick, S., Saxe, A. M., Ozcimder, K., Dey, B., Henselman, G. et Cohen, J. D. (2017). Multitasking Capability Versus Learning Efficiency in Neural Network Architectures. Annual Meeting of the Cognitive Science Society, 829–834.
  • Saxe, A. M., McClelland, J. L. et Ganguli, S. (2014). Exact solutions to the nonlinear dynamics of learning in deep linear neural networks. Dans Y. Bengio et Y. LeCun (éd.), International Conference on Learning Representations.

Soutenez-nous

Le CIFAR est un organisme de bienfaisance enregistré qui reçoit le soutien des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de donateurs individuels, d’entreprises et de partenaires canadiens et internationaux.

Centre MaRS, tour Ouest
661, avenue University, bureau 505
Toronto (Ontario) M5G 1M1 Canada