
Richard S. Sutton
La nomination
Membre auxiliaire
Titulaire de chaire en IA Canada-CIFAR
Apprentissage automatique, apprentissage biologique
Stratégie pancanadienne en matière d’IA
À Propos
Richard Sutton est titulaire d’une chaire en IA Canada-CIFAR et membre auxiliaire du programme Apprentissage automatique, apprentissage biologique du CIFAR. Il est conseiller scientifique en chef de l’Amii, chercheur scientifique émérite de DeepMind et professeur au département d’informatique de l’Université de l’Alberta.
Richard S. Sutton est un pionnier et demeure un leader de l’apprentissage par renforcement, une approche de l’intelligence artificielle et naturelle qui met l’accent sur l’apprentissage et la planification à partir d’un échantillon d’expériences. Il cherche surtout à comprendre ce que signifient être intelligent, prévoir et influencer le monde, apprendre, percevoir, agir et penser. Il tente d’identifier les principes généraux de calcul qui sous-tendent ce que nous entendons par intelligence et comportement orienté vers un but. Au cours de sa carrière, il a fait d’importantes contributions dans ce domaine, notamment la théorie d’apprentissage par différence temporelle, la classe d’algorithmes acteur-critique (gradient de politique), l’architecture Dyna (intégration de l’apprentissage, de la planification et de la réaction), l’architecture Horde ainsi que les algorithmes du gradient et les algorithmes emphatiques (apprentissage par différence temporelle). Il cherche actuellement à étendre les concepts de l’apprentissage par renforcement à une approche empirique de la représentation des connaissances basée sur la prédiction.
Prix
- Membre principal, programme Apprentissage automatique, apprentissage biologique du CIFAR, depuis 2018
- Prix d’excellence pour l’ensemble de ses réalisations et membre de l’Association pour l’intelligence artificielle au Canada, 2018
- Membre de la Société royale du Canada, 2017
- Boursier, Association for the Advancement of Artificial Intelligence, 2007-2010
Publications Pertinentes
- Sutton, R.S., Barto, A.G. (2018). Reinforcement Learning: An Introduction. Cambridge, MA, MIT Press, deuxième édition.
- Sutton, R.S., McAllester, D., Singh, S., Mansour, Y. (2000). « Policy Gradient Methods for Reinforcement Learning with Function Approximation », Advances in Neural Information Processing Systems (NeurIPS 1999), 12, p. 1057-1063.
- Sutton, R.S., Precup, D., Singh, S. (1999). « Between MDPs and semi-MDPs: A Framework for Temporal Abstraction in Reinforcement Learning », Artificial Intelligence, 112:181-211.
- Sutton, R.S., Barto, A.G. (1990). « Time-Derivative Models of Pavlovian Reinforcement », Learning and Computational Neuroscience: Foundations of Adaptive Networks, MIT Press, M. Gabriel et J. Moore (dir.), p. 497-537.
- Sutton, R. S. (1988). « Learning to Predict by the Methods of Temporal Differences », Machine Learning 3:9-44.
Soutenez-nous
Le CIFAR est un organisme de bienfaisance enregistré qui reçoit le soutien des gouvernements du Canada, de l’Alberta et du Québec, ainsi que de fondations, de donateurs individuels, d’entreprises et de partenaires canadiens et internationaux.