Par: Amii
3 Oct, 2019
Alona Fyshe est boursière de l’Amii, professeure adjointe à l’Université de l’Alberta et titulaire d’une chaire en IA Canada-CIFAR, le programme prestigieux du CIFAR destiné à maintenir en poste, à embaucher et à appuyer les plus grands chercheurs en IA au Canada.
Comment les ordinateurs s’y prennent-ils pour découvrir notre monde? Il s’avère que leur méthode n’est peut-être pas si différente de la nôtre.
Alona Fyshe, boursière de l’Amii à l’Université de l’Alberta, enseigne aux départements d’informatique et de psychologie. Dans ses recherches, elle utilise les ordinateurs pour comprendre comment le cerveau traite le langage et se sert des résultats pour améliorer les modèles informatiques.
Alors qu’elle était étudiante de premier cycle, Fyshe a été inspirée par le livre Digital Biology de Peter J. Bentley qui explore la biologie computationnelle. Il était tout à fait naturel que ce concept suscite l’intérêt de Fyshe, car elle suivait des cours de génétique tout en faisant son diplôme en informatique. Quand elle a découvert qu’un groupe de recherche à l’Université de l’Alberta faisait de la biologie computationnelle, elle a entrepris un stage de 18 mois avec le groupe, s’engageant ainsi dans la voie de l’IA et de la recherche.
Dans ses recherches récentes, elle a tenté de cerner des liens entre les modèles informatiques du monde et le cerveau humain. En utilisant des modèles informatiques du langage et de la vision, Fyshe explore comment les machines perçoivent le monde qui les entoure, comparativement à la façon dont les humains s’y prennent.
« Il est surprenant et intrigant que les modèles informatiques de la vision et du langage aient des points communs. Il s’agit de sources de données complètement différentes, de modèles différents et leur entraînement se fait de façon différente. Le paradigme est si différent, mais ils apprennent la même chose », explique Fyshe.
« Il est surprenant et intrigant que les modèles informatiques de la vision et du langage aient des points communs. »
Par exemple, les deux modèles sont capables d’observer que les chats et les chiens se ressemblent davantage que les chats et les voitures, ou qu’il est possible de trouver des chevaux et des vaches sur une ferme. Les deux modèles peuvent assimiler les motifs de choses qui sont similaires – par la vision en regardant des images, et aussi par le langage en lisant des textes sur Internet.
« Le monde n’est que relations – des formes qui illustrent ce que sont les choses et les rapports qui existent entre elles. Vous pouvez découvrir tout cela en observant le monde et aussi en lisant sur le monde. Et c’est évidemment ce que font les gens, et c’est pourquoi c’est aussi lié à la façon dont le cerveau représente le sens. Conséquemment, ces trois choses sont interdépendantes et elles présentent toutes des formes similaires. »
Elle met à profit ses recherches pour ensuite améliorer les modèles informatiques du langage et de la vision, et leur permettre de se comporter de façon plus humaine.
« En ce moment, je travaille, entre autres, à l’amélioration des modèles informatiques de la vision en incluant des données d’imagerie cérébrale. Vous pouvez imaginer que si un modèle informatique de la vision sait comment les gens représentent le sens, il pourrait s’agir d’un meilleur modèle pour construire, par exemple, une voiture autonome. Le modèle pourrait commettre des erreurs qui sont plus humaines que celles d’un modèle informatique qui s’est entraîné seul. »
Alona Fyshe a obtenu un doctorat de l’Université Carnegie Mellon sous la direction de Tom Mitchell. Elle a obtenu un baccalauréat et une maîtrise ès sciences de l’Université de l’Alberta.
Cet article a été publié dans le Bulletin IACan. Abonnez-vous à la publication électronique bimestrielle pour rester au fait des plus récentes nouvelles en IA au Canada.