Richard S. Sutton
La nomination
Membre auxiliaire
Titulaire de chaire en IA Canada-CIFAR
Apprentissage automatique, apprentissage biologique
Stratégie pancanadienne en matière d’IA
À Propos
Titulaire de chaire en IA Canada-CIFAR – Nouveau mandat – 2021
Richard Sutton est titulaire d’une chaire en IA Canada-CIFAR et membre auxiliaire du programme Apprentissage automatique, apprentissage biologique du CIFAR. Il est conseiller scientifique en chef de l’Amii et professeur au département d’informatique de l’Université de l’Alberta.
Richard S. Sutton est un pionnier et demeure un leader de l’apprentissage par renforcement, une approche de l’intelligence artificielle et naturelle qui met l’accent sur l’apprentissage et la planification à partir d’un échantillon d’expériences. Il cherche surtout à comprendre ce que signifient être intelligent, prévoir et influencer le monde, apprendre, percevoir, agir et penser. Il tente d’identifier les principes généraux de calcul qui sous-tendent ce que nous entendons par intelligence et comportement orienté vers un but. Au cours de sa carrière, il a fait d’importantes contributions dans ce domaine, notamment la théorie d’apprentissage par différence temporelle, la classe d’algorithmes acteur-critique (gradient de politique), l’architecture Dyna (intégration de l’apprentissage, de la planification et de la réaction), l’architecture Horde ainsi que les algorithmes du gradient et les algorithmes emphatiques (apprentissage par différence temporelle). Il cherche actuellement à étendre les concepts de l’apprentissage par renforcement à une approche empirique de la représentation des connaissances basée sur la prédiction.
Prix
- Membre de la Royal Society of London (R.-U.), 2021
- Prix de l’IJCAI pour l’excellence en recherche, International Joint Conference on Artificial Intelligence, 2021
- Membre principal, programme Apprentissage automatique, apprentissage biologique du CIFAR, depuis 2018
- Prix d’excellence pour l’ensemble de ses réalisations et membre de l’Association pour l’intelligence artificielle au Canada, 2018
- Membre de la Société royale du Canada, 2017
- Boursier, Association for the Advancement of Artificial Intelligence, 2007-2010
Publications Pertinentes
- Sutton, R. S., Machado, M. C., Holland, G. Z., Szepesvari, D., Timbers, F., Tanner, B. et White, A. (2023). « Reward-respecting subtasks for model-based reinforcement learning », Artificial Intelligence, vol. 324, p. 104001.
- Silver, D., Singh, S., Precup, D. et Sutton, R. S. (2021). « Reward is enough », Artificial Intelligence, vol. 299, p. 103535.
- Sutton, R.S., Barto, A.G. (2018). Reinforcement Learning: An Introduction. Cambridge, MA, MIT Press, deuxième édition.
- Sutton, R.S., McAllester, D., Singh, S., Mansour, Y. (1999). « Policy Gradient Methods for Reinforcement Learning with Function Approximation », Advances in Neural Information Processing Systems (NeurIPS 1999), 12, p. 1057-1063.
- Sutton, R.S., Precup, D., Singh, S. (1999). « Between MDPs and semi-MDPs: A Framework for Temporal Abstraction in Reinforcement Learning », Artificial Intelligence, 112:181-211.
- Sutton, R. S. (1988). « Learning to Predict by the Methods of Temporal Differences », Machine Learning 3:9-44.