Mark Schmidt
La nomination
Titulaire de chaire en IA Canada-CIFAR
Stratégie pancanadienne en matière d’IA
À Propos
Titulaire de chaire en IA Canada-CIFAR – Nouveau mandat – 2019
Mark Schmidt est titulaire d’une chaire en IA Canada-CIFAR, boursier de l’Amii et professeur titulaire au Laboratoire d’intelligence informatique de l’Université de la Colombie-Britannique. Il est également expert-conseil auprès de 1QBit.
Il explore les défis que pose l’apprentissage de modèles complexes à partir de grands ensembles de données. Ses recherches portent principalement sur l’accélération et la vérification des algorithmes fondamentaux d’apprentissage automatique. Il travaille notamment dans les domaines de l’optimisation de l’apprentissage automatique, de l’apprentissage automatique probabiliste et des applications de vision par ordinateur.
Le chercheur vise à améliorer la vitesse, l’efficacité et l’efficience des modèles d’apprentissage automatique. Dans le domaine de la vision par ordinateur, il s’est intéressé à la reconnaissance d’objets distincts dans des images, à la segmentation d’images extérieures et à l’estimation de la profondeur, ainsi qu’à la restauration et à l’incrustation d’images. Il a également développé des applications pour analyser la propagation des idées dans les réseaux sociaux, pour étiqueter des séquences en langage naturel et pour modéliser la cinématique des brins d’ADN.
Prix
- Bourse Arthur-B.-McDonald, Conseil de recherches en sciences naturelles et en génie du Canada, 2023
- Prix du meilleur article, AISTAT, 2021
- Prix du meilleur article étudiant, Conférence internationale sur les ordinateurs basés sur l’ADN, 2017
- Prix Lagrange en optimisation continue, Mathematical Optimization Society, 2018
- Bourse de recherche Sloan, 2017
- Bourse postdoctorale, CRSNG, 2012
Publications Pertinentes
- Kunstner, F., Portella, V.S., Schmidt, M. et Harvey, N. (2023). « Searching for Optimal Per-Coordinate Step-sizes with Multidimensional Backtracking ». Publié dans Advances in Neural Information Processing Systems.
- Dubois-Taine, B., Vaswani, S., Babanezhad, R., Schmidt, M. et Lacoste-Julien, S. (2022). « SVRG meets AdaGrad: painless variance reduction ». Publié dans Machine Learning.
- Kunstner, F., Kumar, R., Schmidt, M. (2021). « Homeomorphic-Invariance of EM: Non-Asymptotic Convergence in KL Divergence for Exponential Families via Mirror Descent », Proceedings of the 24th International Conference on Artificial Intelligence and Statistics (AISTATS), PMLR 130:3295-3303.
- Schmidt, M., Le Roux, N., Bach, F. (2017). « Minimizing finite sums with the stochastic average gradient », Mathematical Programming, 162(1-2), 83-112.
- Roux, N. L., Schmidt, M., Bach, F. (2012). « A stochastic gradient method with an exponential convergence rate for finite training sets », Advances in Neural Information Processing Systems, 25.