À Propos
Jim Rehg se consacre à la mise au point de méthodes basées sur l’IA pour la modélisation et l’analyse du comportement social et cognitif et de son émergence dans le développement de l’enfant. Son laboratoire a créé la vision informatique égocentrique qui permet l’étude du monde visuel par l’analyse d’images de caméras portées sur la tête. En collaboration avec ses collègues, il a conçu une approche égocentrique de quantification automatique des épisodes de contact visuel au cours d’interactions naturalistes en personne. Il s’agit du premier exemple d’un modèle d’IA capable d’évaluer un comportement de communication sociale avec une précision comparable à celle d’un être humain. Son laboratoire conçoit des méthodes informatiques pour comprendre les fondements comportementaux de l’autisme, en mettant l’accent sur l’élaboration de nouvelles méthodes diagnostiques et thérapeutiques. Dans le cadre d’autres travaux de recherche, il analyse les données de capteurs portables afin de modéliser les facteurs de risque et de mettre au point des interventions pour des maladies chroniques. Il a été chercheur principal d’un projet soutenu par le programme NSF Expeditions destiné à créer de nouvelles méthodes de calcul pour modéliser le comportement social et communicatif au moyen d’une détection multimodale.
Prix
- Prix du meilleur article, Proceedings of the ACM on Interactive, Mobile, Wearable, and Ubiquitous Technologies, 2018
- Prix de la méthode de l’année, Nature Methods, 2012
- Prix du meilleur article, Conférence internationale sur l’apprentissage automatique, 2005
- Bourse de recherche Raytheon, Institut de technologie de la Géorgie, 2005
- Bourse de carrière, National Science Foundation, 2001
Publications Pertinentes
- Li, Y., Liu, M., & Rehg, J. M. (2021). In the Eye of the Beholder: Gaze and Actions in First Person Video. IEEE Transactions on Pattern Analysis and Machine Intelligence, 45(6), 6731-6747, DOI: 10.1109/TPAMI.2021.3051319
- Chong, E., Clark-Whitney, E., Southerland, A., Stubbs, E., Miller, C., Ajodan, E. L., Silverman, M. R., Lord, C., Rozga, A., Jones, R. M., & Rehg, J. M. (2020). Detection of eye contact with deep neural networks is as accurate as human experts. Nature Communications, 11(6386), 1–30. DOI: 10.1038/s41467-020-19712-x
- Li, Y., Hou, X., Koch, C., Rehg, J. M., & Yuille, A. L. (2014). The Secrets of Salient Object Segmentation. Proceedings IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 280–287. DOI: 10.1109/CVPR.2014.43