Dhanya Sridhar
La nomination
Titulaire de chaire en IA Canada-CIFAR
Stratégie pancanadienne en matière d’IA
Connect
À Propos
Titulaire de chaire en IA Canada-CIFAR – Nouveau mandat – 2021
Dhanya Sridhar est titulaire d’une chaire en IA Canada-CIFAR à Mila et professeure adjointe au département d’informatique et de recherche opérationnelle (DIRO) de l’Université de Montréal.
Ses recherches portent sur l’utilisation de modèles causaux aux fins de l’élaboration de grands systèmes d’intelligence artificielle aptes à faire face à des contextes inédits, à s’adapter efficacement à de nouvelles tâches et à orienter le processus de découverte scientifique. Les travaux de son groupe couvrent les domaines de l’apprentissage de la représentation causale, de la fiabilité des prédictions (en particulier pour les grands modèles autorégressifs), de l’interprétabilité et de la découverte causale.
Prix
- Étoile montante, EECS, 2020
- Bourse du recteur pour la thèse de l’année, Université de Californie à Santa Cruz, 2017
Publications Pertinentes
- Mittal, S., Elmoznino, E., Gagnon, L., Bhardwaj, S., Sridhar, D. et Lajoie, G. (2024). « Does learning the right latent variables necessarily improve in-context learning? » [tirage préliminaire], arXiv.
- Montagna, F., Cairney-Leeming, M., Sridhar, D. et Locatello, F. (2024). « Demystifying amortized causal discovery with transformers » [tirage préliminaire], arXiv.
- Kasetty, T., Mahajan, D., Dziugaite, G. K., Drouin, A. et Sridhar, D. (2024). « Evaluating interventional reasoning capabilities of large language models » [tirage préliminaire], arXiv.
- Feder, A., Keith, K. A., Manzoor, E., Pryzant, R., Sridhar, D., Wood-Doughty, Z., Eisenstein, J., Grimmer, J., Reichart, R., Roberts, M. E., Stewart, B. M., Veitch, V. et Yang, D. (2022). « Causal inference in natural language processing: Estimation, prediction, interpretation and beyond », Transactions of the Association for Computational Linguistics, vol. 10, p. 1138-1158.
- Moran, G.E., Sridhar, D., Wang, Y. et Blei, D. (2021). « Identifiable Deep Generative Models via Sparse Decoding », Transactions on Machine Learning Research.