Par: Justine Brooks
4 Fév, 2026
Angelica Lim, l’une des nouvelles titulaires de chaires en IA Canada-CIFAR, redéfinit dans ses travaux la relation entre l’humain et la machine. Chercheuse à l’Amii et professeure agrégée à l’Université Simon Fraser, elle dirige le ROSIE Lab (Robots with Social Intelligence and Empathy, ou robots doués d’intelligence sociale et d’empathie). À l’intersection de l’IA et de la robotique, ce laboratoire repousse les frontières de l’interaction humain-machine en explorant jusqu’où peuvent aller la capacité de compréhension des robots et leur intégration dans notre quotidien.
Dans un entretien accordé au CIFAR, Angelica Lim parle de ce qui inspire ses travaux, explique en quoi l’intelligence émotionnelle diffère de l’empathie en IA, et revient sur les raisons de son retour au Canada.
Ce programme change énormément de choses pour moi, car il me donne plus de latitude pour mener mes recherches. En sécurité de l’IA, par exemple, cette souplesse me permet de creuser une piste dès qu’elle se présente, sans devoir soumettre chaque fois une nouvelle demande de subvention.
Je me réjouis aussi de pouvoir côtoyer d’autres chercheuses et chercheurs passionnés par l’intelligence sous toutes ses formes et d’échanger sur la direction que nous voulons prendre, en tant que pays, dans ce domaine. Quand j’étais en Europe, j’étais parfois sollicitée par l’UE pour donner mon avis d’experte sur différents dossiers. Je crois que nous pourrions jouer ce rôle-là ici aussi. Il est vrai que nos recherches personnelles sont très prenantes, mais nous devons penser à la manière dont nous pouvons apporter notre contribution à l’échelle nationale.
Le nom « ROSIE Lab » est un clin d’œil à Rosie, le robot du dessin animé des années 1960 Les Jetson. Il renvoie à l’idée qu’un jour, nous serons entourés de robots dotés d’une utilité pratique. Le plus remarquable, c’est que Rosie ne se contentait pas d’interagir avec les humains : elle faisait réellement partie de la famille, d’une manière vraiment chouette et bien acceptée de tous.
Du moment où la technologie comprend nos gestes, notre voix et nos intonations, ce n’est plus à nous de nous adapter. Ce sont les machines qui se familiarisent avec notre palette d’expressions. Au fond, ce que j’essaie de faire, c’est de concevoir des machines capables de comprendre nos modes de communication naturels.

J’ai toujours pensé que les robots devaient avoir un corps pour vraiment nous comprendre. Prenons une chaise. Qu’est-ce que c’est, une chaise, au fond? On peut dire que c’est un objet muni de quatre pattes, et tout ça. Mais quand on y réfléchit bien, une chaise, c’est avant tout un objet sur lequel on peut s’asseoir. Pour revenir aux robots, c’est justement parce qu’ils partagent notre réalité physique qu’ils peuvent appréhender le monde comme nous le faisons.
La robotique nous permet de mieux définir les facultés de compréhension que nous souhaitons donner à l’IA, ce qui en fait un domaine complémentaire à l’intelligence artificielle. Pour les robots humanoïdes en particulier, ces capacités perceptives sont actuellement explorées à l’aide de modèles vision-langage ou vision-langage-action. Pour interagir efficacement avec les humains, l’IA ne peut pas être programmée une fois pour toutes : elle doit pouvoir évoluer en fonction des personnes qui l’entourent.
Des systèmes comme ChatGPT manifestent une certaine forme d’empathie, mais souvent de manière excessive. Ces systèmes sont parfois si complaisants qu’on les soupçonne de provoquer des psychoses induites par l’IA pouvant mener à des délires, à des hospitalisations ou même, dans des cas extrêmes, à des décès.
L’empathie, pour moi, signifie qu’un robot fait preuve de compassion, place l’humain au premier plan et tient compte des besoins de l’autre. L’intelligence émotionnelle à elle seule ne suffit pas. On pourrait se retrouver avec un système très intelligent sur le plan émotionnel, mais dépourvu d’empathie, ce qui chez l’humain est associé à de la manipulation ou même à des traits psychopathiques. C’est une différence subtile, mais qui me passionne au plus haut point et qu’il m’importe de bien saisir.
L’un des grands risques des robots compagnons, c’est que les gens s’y attachent émotionnellement et développent une forme de dépendance envers eux. Prenez l’exemple du robot Jibo. Les enfants l’adoraient, et quand l’entreprise a fait faillite, ils ont vécu cela comme un deuil.
Plusieurs de ces enjeux doivent être encadrés par des politiques afin de tracer la ligne entre ce qui relève du simple divertissement et ce qui correspond à un réel problème de santé. En ce moment, je travaille sur une proposition de recherche qui s’intéresse à l’activité cérébrale lors des interactions avec l’IA, afin d’aider les décideurs et décideuses à évaluer si ces interactions sont néfastes ou si l’on peut en atténuer les effets négatifs.

J’ai en fait la double nationalité américaine et canadienne. J’avais le choix entre retourner en Californie, mon État d’origine, là où se trouvent énormément de jeunes pousses, ou revenir ici, à Vancouver. J’ai toujours été très motivée par le fait de soutenir d’autres minorités en informatique et en IA, et le Canada s’accorde avec mes valeurs d’inclusion. Simon Fraser figure aussi parmi les meilleures universités canadiennes en vision artificielle, un domaine très complémentaire à mes travaux en robotique.