Joel Zylberberg
La nomination
Membre du programme des chercheurs mondiaux CIFAR-Azrieli 2016-2018
Membre auxiliaire
Apprentissage automatique, apprentissage biologique
Connect
À Propos
Les stimulations visuelles suscitent des potentiels d’action dans la rétine et ceux-ci se propagent jusqu’au cerveau où d’autres potentiels d’action se produisent.
Quelle est la nature de cette représentation visuelle? En d’autres mots, quelle est la correspondance entre les motifs de potentiels d’action dans le cerveau et les stimulations qui les produisent? De plus, comment le cerveau fait-il pour apprendre ces représentations par l’expérience? Finalement, pouvons-nous (et comment) « télécharger » les représentations visuelles du cerveau dans des ordinateurs pour créer de meilleurs systèmes basés sur l’intelligence artificielle? Voilà les thèmes principaux de mon programme de recherche.
Prix
- Bourse de recherche Sloan, 2017
- Google Faculty Research Award, 2017
- Prix international de recherche étudiante du Howard Hughes Medical Institute (HHMI), 2011
- Bourse doctorale Fulbright en science et technologie, 2008
Publications Pertinentes
- W. Kindel, E. Christensen et J. Zylberberg (2019). Using deep learning to probe the neural code for images in primary visual cortex. Journal of Vision 19: 29.
- J. A. Pruszynski et J. Zylberberg (2019). The language of the brain: real-world neural population codes. Current Opinion in Neurobiology 58: 30.
- J. Zylberberg et B. Strowbridge (2017). Mechanisms of persistent activity in cortical circuits: possible neural substrates for working memory. Annual Review of Neuroscience 40: 603-627.
- J. Zylberberg, J.T. Murphy et M.R. DeWeese (2011). A sparse coding model with synaptically local plasticity and spiking neurons can account for the diverse shapes of V1 simple cell receptive fields. PLoS Computational Biology 7: e1002250.