
Colin Raffel
La nomination
Titulaire de chaire en IA Canada-CIFAR
Stratégie pancanadienne en matière d’IA
Connect
À Propos
Colin Raffel est professeur agrégé au Département d’informatique de l’université de Toronto, directeur de recherche associé à l’Institut Vecteur et professeur-chercheur à Hugging Face. Son laboratoire mène des travaux de recherche sur la décentralisation, la démocratisation et l’élimination des risques inhérents aux systèmes d’IA de grande envergure.
Prix
- Prix pour un article exceptionnel (finaliste), NeurIPS, 2023
- Prix Caspar-Bowder du meilleur projet de recherche en technologies d’amélioration de la confidentialité (finaliste), 2023
- Prix du meilleur article (mention honorable), atelier du congrès NeurIPS sur l’élargissement de la recherche collaborative en apprentissage automatique, 2022
- Bourse CAREER de la NSF, 2022
- Bourse de recherche Google, 2021
Publications Pertinentes
- Muqeeth, M., Liu, H., Liu, Y. et Raffel, C. (2024). « Learning to route among specialized experts for zero-shot generalization », Proceedings of the 41st International Conference on Machine Learning (ICML).
- Yadav, P., Tam, D., Choshen, L., Raffel, C. et Bansal, M. (2023). « TIES-Merging: Resolving interference when merging models », Proceedings of the 37th Neural Information Processing Systems (NeurIPS).
- Kandpal, N., Lester, B., Muqeeth, M., Mascarenhas, A., Evans, M., Baskaran, V., Huang, T., Liu, H. et Raffel, C. (2023). « Git-Theta: A Git extension for collaborative development of machine learning models », Proceedings of the 40th International Conference on Machine Learning (ICML).
- Kandpal, N., Deng, H., Roberts, A., Wallace, E. et Raffel, C. (2023). « Large language models struggle to learn long-tail knowledge », Proceedings of the 40th International Conference on Machine Learning (ICML).
- Raffel, C. (2023). « Building machine learning models like open-source software », Communications of the Association for Computing Machinery (CACM).
- Liu, H., Tam, D., Muqeeth, M., Mohta, J., Huang, T., Bansal, M. et Raffel, C. (2022). « Few-shot parameter-efficient fine-tuning is better and cheaper than in-context learning », Proceedings of the 36th Neural Information Processing Systems (NeurIPS).