Mathias Lécuyer
La nomination
Membre des Réseaux de solutions
Programme de recherche de l’Institut canadien de la sécurité de l’IA (ICSIA)
Protéger les tribunaux contre les contenus synthétiques générés par l’IA
À Propos
Mathias Lécuyer est professeur adjoint à l’Université de la Colombie-Britannique. Ses travaux portent sur l’IA digne de confiance, et plus particulièrement sur la protection de la confidentialité, la robustesse, l’explicabilité et la causalité. Il s’intéresse tout spécialement aux applications assorties de garanties rigoureuses.
Parmi ses contributions récentes à fort impact figure le premier moyen de défense évolutif assorti de garanties démontrables contre les exemples contradictoires, ces infimes modifications des intrants capables d’influencer les prédictions des modèles d’IA et de servir à des attaques de type « débridage de l’IA ». Il a également mis au point une technique efficace pour mesurer l’influence des données d’entraînement sur le comportement des modèles d’IA, ainsi qu’une méthode d’évaluation des fuites de données personnelles à l’aide de modèles d’IA accessibles uniquement via une API. Enfin, il a conçu un système fédéré et respectueux de la confidentialité permettant de mesurer le rendement publicitaire. Ce système est désormais utilisé comme modèle de référence en vue de l’établissement d’une nouvelle norme visant à limiter le traçage par des tiers sur Internet.
Prix
- Chercheur boursier, Google (2021)
Publications Pertinentes
- Kazmi, M., Lautraite, H., Akbari, A., Tang, Q., Soroco, M., Wang, T. et Lécuyer, M. (2024). « Panoramia: Privacy auditing of machine learning models without retraining », Advances in Neural Information Processing Systems.
- Lyu, S., Shaikh, S., Shpilevskiy, F., Shelhamer, E. et Lécuyer, M. (2024). « Adaptive Randomized Smoothing: Certified Adversarial Robustness for Multi-Step Defences ». Advances in Neural Information Processing Systems.
- Tholoniat, P., Kostopoulou, K., McNeely, P., Sodhi, P. S., Varanasi, A., Case, B. et Lécuyer, M. (2024). « Cookie Monster: Efficient On-Device Budgeting for Differentially-Private Ad-Measurement Systems », Proceedings of the ACM SIGOPS Symposium on Operating Systems Principles.
- Lin, J., Zhang, A., Lécuyer, M., Li, J., Panda, A. et Sen, S. (2022). « Measuring the effect of training data on deep learning predictions via randomized experiments », International Conference on Machine Learning.
- Lécuyer, M., Atlidakis, V., Geambasu, R., Hsu, D. et Jana, S. (2019). « Certified robustness to adversarial examples with differential privacy », IEEE symposium on security and privacy (SP).