Adam White
La nomination
Titulaire de chaire en IA Canada-CIFAR
Stratégie pancanadienne en matière d’IA
À Propos
Titulaire de chaire en IA Canada-CIFAR – Nouveau mandat – 2020
Adam White est titulaire de chaire en IA Canada-CIFAR et directeur des activités scientifiques d’Amii, ainsi que professeur adjoint au Département d’informatique de l’Université de l’Alberta. À l’Université de l’Alberta, il est également chercheur principal au Laboratoire d’apprentissage par renforcement et d’intelligence artificielle.
Les recherches d’Adam White sont axées sur la compréhension des principes fondamentaux de l’apprentissage dans des contextes d’apprentissage continu, qu’il s’agisse de mondes simulés ou d’applications de contrôle industriel dans le monde réel. Son groupe se passionne pour les pratiques exemplaires empiriques et les nouvelles méthodologies qui permettent de déterminer si nos algorithmes sont prêts à être déployés dans le monde réel.
Il a cocréé la spécialisation en apprentissage par renforcement, suivie par plus de 85 000 étudiants et étudiantes sur Coursera. Il a mis au point des fonctions de valeur générales et l’architecture Horde, une architecture évolutive en temps réel permettant l’apprentissage de connaissances à partir d’une interaction sensorimotrice non supervisée.
Prix
- Highlighted Area Chair, ICLR, 2022
- Prix du meilleur article, Conférence internationale IEEE sur la robotique développementale et la robotique épigénétique, 2012
- Prix du meilleur article, Atelier international sur les algorithmes évolutionnaires et l’apprentissage par renforcement pour les systèmes robotiques autonomes, 2013
- Nombreux prix de meilleur lecteur critique dans le cadre de conférences internationales, 2015, 2017, 2018, 2019
Publications Pertinentes
- Wang, H., Miahi, E., White, M., Machado, M. C., Abbas, Z., Kumaraswamy, R., Liu, V. et White, A. (2024). « Investigating the Properties of Neural Network Representations in Reinforcement Learning ». Publié dans AI Journal.
- Sutton, R. S., Machado, M. C., Holland, G. Z., Timbers, D. S. F., Tanner, B. et White, A. (2023). « Reward-respecting subtasks for model-based reinforcement learning ». Publié dans AI Journal.
- Abbas, Z., Zhao, R. Modayil, J., White, A. et Machado M. C. (2023). « Loss of plasticity in continual deep reinforcement learning ». Publié dans Conférence sur les agents d’apprentissage continu, pp. 620-636.
- White, A., Modayil, J., Sutton, R. S. (2012). « Scaling life-long off-policy learning », IEEE International Conference on Development and Learning and Epigenetic Robotics, p. 1-6.
- Sutton, RS., Modayil J., Delp, M., Degris, T., Pilarski, PM., White, A., & Precup D. (2011). Horde: A scalable real-time architecture for learning knowledge from unsupervised sensorimotor interaction. In the 10th International Conference on Autonomous Agents and Multiagent Systems - Volume 2 (pp. 761-768).
- Tanner, B. et White, A. (2009). « RL-Glue: Language-independent software for reinforcement-learning experiments ». Publié dans Journal of Machine Learning Research, vol. 10, pp.2133-2136.