Yuntian Deng
La nomination
Membre des Réseaux de solutions
Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Protéger les tribunaux contre les contenus synthétiques générés par l’IA
À Propos
Yuntian Deng se spécialise dans le traitement du langage naturel. Il conçoit des méthodes d’apprentissage destinées à mieux comprendre et à améliorer les interactions entre l’être humain et l’intelligence artificielle. Ses premiers travaux sur les modèles à énergie résiduelle analysaient les différences entre le langage humain et le langage artificiel afin de rehausser la qualité des textes produits par l’IA. En tant que responsable du projet WildChat, il a supervisé la collecte de millions de dialogues réels entre humains et IA. Ce corpus a été utilisé par des organisations comme OpenAI et Anthropic et a fait l’objet d’un reportage dans The Washington Post. Dans ses travaux sur le raisonnement implicite, mis de l’avant sur le site TechCrunch, Yuntian Deng étudie les limites inhérentes au raisonnement des modèles de langage actuels. Ces percées ouvrent la voie à de nouvelles pistes de recherche qui permettent aux modèles de raisonner de manière interne, sans recourir à un raisonnement explicite de type « réflexion à voix haute ». M. Deng s’intéresse parallèlement à de nouvelles formes d’interactions entre humains et IA, telles que l’entraînement interactif, un processus où la rétroaction humaine en temps réel oriente l’apprentissage des modèles, un peu comme les profs s’adaptent immédiatement à leurs élèves. Il examine également le paradigme du NeuralOS, qui repense les interfaces utilisateur-IA comme des structures dynamiques plutôt que comme des systèmes figés.
Prix
- Prix Gordon Bell de l’ACM (Association for Computing Machinery) (2022)
- Prix Rising Stars in Data Science, université de Chicago (2022)
- Bourse de recherche, NVIDIA (2021)
- Bourse de recherche, Baidu (2019)
- Deuxième prix du meilleur article de démonstration, Association for Computational Linguistics (2017)
Publications Pertinentes
- Zhang, W., Lu, Y. Y., et Deng, Y. (2025). « Interactive Training : Feedback-Driven Neural Network Optimization », EMNLP 2025 Demo.
- Rivard, L., Sun, S., Guo, H., Chen, W. et Deng, Y. (2025). « NeuralOS: Towards Simulating Operating Systems via Neural Generative Models », arXiv preprint arXiv : 2507.08800.
- Zhao, W., Ren, X., Hessel, J., Cardie, C., Choi, Y., et Deng, Y. (2024), « WildChat: 1M ChatGPT Interaction Logs in the Wild », ICLR 2024.
- Deng, Y., Choi, Y. et Shieber, S. (2024). « From Explicit CoT to Implicit CoT: Learning to Internalize CoT Step by Step. » arXiv preprint arXiv:2405.14838.
- Deng, Y., Bakhtin, A., Ott, M., Szlam, A. et Ranzato, M. (2020). « Residual Energy-Based Models for Text Generation » ICLR 2020.