Par: Jon Farrow
26 Avr, 2019
Le comportement machine est l’étude interdisciplinaire de systèmes basés sur l’IA qui correspondent à une nouvelle famille d’acteurs affichant des modes comportementaux et un environnement particuliers. (Credit: Scalable Cooperation group/MIT Media Lab under a CC-By 4.0 license)
Les Boursiers du CIFAR Hugo Larochelle et Matthew Jackson préconisent la création d’une nouvelle discipline scientifique pour étudier les effets généraux de l’IA.
Un groupe interdisciplinaire de chercheurs souhaite créer une nouvelle discipline scientifique appelée comportement machine pour comprendre comment l’intelligence artificielle influencera la société, la culture, l’économie et la politique.
Dans un article de synthèse publié dans Nature, les auteurs avancent qu’il faut élargir la portée de l’étude des algorithmes d’IA au-delà des départements d’informatique et inclure la perspective de différentes sciences physiques et sociales.
Parmi les coauteurs de l’article, notons deux boursiers du CIFAR : Hugo Larochelle est titulaire d’une chaire en IA Canada-CIFAR, directeur adjoint du programme Apprentissage automatique, apprentissage biologique, chercheur scientifique chez Google Brain et membre du Mila.
Matthew Jackson est professeur d’économie à l’Université de Stanford, membre du programme Institutions, organisations et croissance du CIFAR, spécialiste des réseaux humains et auteur d’un nouveau livre intitulé The Human Network qui examine les effets des hiérarchies et des interactions sociales.
Les entrevues qui suivent peuvent avoir été condensées et révisées par souci de clarté et de précision.
(Credit: Scalable Cooperation group/MIT Media Lab under a CC-By 4.0 license)
Hugo Larochelle : L’auteur principal, Iyad Rahwan [du MIT Media Lab], a communiqué avec moi. Il souhaitait réunir diverses perspectives sur l’IA, ainsi qu’aborder les interactions entre la machine et la société. Et il voulait que je contribue aux éléments techniques relatifs à l’informatique et à l’apprentissage automatique.
L’idée de réunir de nombreux chercheurs de domaines différents et de voir s’ils peuvent apprendre des choses des uns et des autres me plaît.
J’ai toujours trouvé qu’Iyad était un chercheur intéressant, car il fait des choses bien différentes de ce à quoi je suis habitué en tant que spécialiste plus traditionnel de l’apprentissage automatique et de l’apprentissage profond. Et voilà en partie pourquoi je suis membre du CIFAR. L’idée de réunir de nombreux chercheurs de domaines différents et de voir s’ils peuvent apprendre des choses des uns et des autres me plaît.
Matthew Jackson : J’ai participé à cet article, car j’étudie les réseaux. Je tente de comprendre comment différentes structures d’interactions humaines influencent le comportement des gens. En raison des plateformes de médias sociaux, cette question jouit maintenant d’une vaste perspective algorithmique. J’étudie aussi l’inégalité, la mobilité et d’autres types de structures dans les sociétés humaines qui sont exacerbées par les interactions entre l’humain et la machine.
Larochelle : Les questions qui m’intéressent le plus sont celles sur les robots conversationnels, car il s’agit d’une interaction beaucoup plus directe entre une personne et une machine.
Je trouve que c’est intéressant, car sur le plan technologique les robots ne sont pas aussi bons qu’ils pourraient l’être. Mais il faut aussi poser une question plus profonde sur la façon dont on se sent lors d’une conversation avec une machine. Ressentons-nous quelque chose de différent ou bien est-ce la même chose? Quelles en sont les répercussions? Je crois qu’il y a des questions très intéressantes que nous n’avons pas encore vraiment explorées.
Jackson : Les questions sur les réseaux humains et les sites de rencontre en ligne correspondent parfaitement aux types de sujets que j’aborde dans mon travail.
Les gens ont tendance à s’associer avec des gens qui leur ressemblent. Dans les écrits scientifiques, on parle d’« homophilie » et divers critères entrent en jeu, comme le sexe, la religion, l’âge, la profession, l’ethnicité et une foule d’autres choses. Les gens ont tendance à passer du temps, à tisser des liens d’amitié et à parler avec des gens qui leur ressemblent.
Vous pouvez maintenant voir tous les attributs d’une personne et choisir précisément qui vous voulez.
Grâce à des technologies, comme les sites de rencontre en ligne, il est de plus en plus facile d’être sélectif. Vous pouvez maintenant voir tous les attributs d’une personne et choisir précisément qui vous voulez. Et si vous réfléchissez à la façon dont LinkedIn ou Facebook font des suggestions d’amitié, l’algorithme tente de choisir des gens avec qui vous aimeriez interagir. Cela diminue le nombre d’amitiés qui sont le fruit d’un heureux hasard et augmente le nombre d’amitiés ciblées avec des gens qui vous ressemblent davantage.
Cette méthode comporte des avantages et des inconvénients. D’un côté, il s’agit de gens avec lesquels vous souhaitez établir des liens, car ils partagent vos intérêts et vos convictions. D’un autre côté, il s’en suit aussi une augmentation de la ségrégation dans la société et une amplification des effets de chambres d’écho.
Jackson : Je réfléchissais déjà à certaines de ces questions. Quand une personne étudie les réseaux sociaux aujourd’hui, elle se rend facilement compte que les nouvelles technologies y entraînent des changements fondamentaux.
Mes échanges avec Iyad et avec les autres coauteurs ont considérablement élargi mes horizons. Iyad a réalisé de nombreux travaux pour arriver à comprendre la moralité sur laquelle reposent certains des algorithmes, comme la question de savoir qui prioriser dans la programmation d’une voiture autonome. Chaque fois qu’une entreprise élabore un algorithme pour modifier votre distribution de nouvelles ou faire de nouvelles suggestions d’amitié, elle prend position sur les plans moral et éthique.
Larochelle : Je crois que ça m’a ouvert l’esprit un peu plus sur la façon dont les gens voient l’IA et sur la nature des questions qu’ils souhaitent résoudre. Voilà pourquoi j’ai participé à cet article. Je crois que mon rôle en tant que chercheur scientifique en IA et en apprentissage automatique est de mettre à profit mes connaissances pour guider cette conversation.
Jackson : L’un des problèmes c’est que bien des algorithmes appartiennent à des intérêts privés et on ne peut y avoir accès. En tant que spécialistes des sciences sociales, nous ne pouvons pas regarder à l’intérieur de la boîte noire. Il nous faut donc étudier les algorithmes indirectement. Et la plupart des entreprises ne veulent pas qu’on examine à la loupe ou qu’on vérifie leurs activités ni que des chercheurs créent de faux profils. Il y a tout un ensemble de contraintes qui déterminent ce qu’on nous permet d’examiner et comment on le fait.
Il y a tout un ensemble de contraintes qui déterminent ce qu’on nous permet d’examiner et comment on le fait.
Ce qui est encore plus difficile, c’est de comprendre quelles sont les répercussions. De façon générale, chaque fois que vous menez des recherches sur des sujets humains, il faut veiller à s’y prendre de la bonne façon. Maintenant, le travail se fait à des échelles de plus en plus grandes, il est de plus en plus difficile de réaliser les observations voulues et, en cas d’erreur, l’impact est encore plus lourd. De toute évidence, c’est un défi de taille pour la recherche.
Larochelle : Je crois que la communauté de l’apprentissage automatique est maintenant plus sensibilisée à l’importance d’exploiter la technologie de façon responsable. Chez Google, par exemple, nous avons publié l’ouvrage Responsible AI Practices qui vise à sensibiliser les gens au fait que la technologie peut être utilisée à bon et à mauvais escient.
En tant que chercheur scientifique, je crois qu’il est de notre responsabilité d’étudier la technologie que nous créons, en l’occurrence l’apprentissage automatique et l’IA, et de la caractériser du mieux que nous pouvons. Cela veut dire que nous devrions cerner les choses qu’elle fait bien et les choses qu’elle fait moins bien.
En tant que chercheur scientifique, je crois qu’il est de notre responsabilité d’étudier la technologie que nous créons.
La communauté de l’apprentissage automatique mène beaucoup de recherches sur l’IA responsable pour voir comment accroître l’interprétabilité des systèmes, ce qui pourrait nous aider à mieux comprendre le mode de fonctionnement et le comportement de ces méthodes. Il y a aussi des initiatives qui visent à produire des fiches techniques sur les modèles et des fiches techniques sur les données afin de rehausser la transparence sur le mode de création des modèles et des systèmes d’apprentissage automatique.
Je crois que cela nous permettra d’avoir un dialogue fondé sur des données techniques avec des gens qui travaillent dans d’autres domaines que l’informatique.
Jackson : Bien souvent, en tant que chercheur, nous étudions des questions que d’autres étudient depuis longtemps et, tout d’un coup, une grande question complètement nouvelle surgit. C’est excitant. Et j’ai l’impression que nous sommes en présence de l’une de ces questions.
C’est vraiment une période intéressante pour un chercheur. Je crois que si des gens dans l’avenir analysent ce moment de l’histoire, ils diront : « Regardez, c’est au début des années 2000 que les gens se sont vraiment rendu compte des interactions qu’il y a entre eux et l’IA. »
Larochelle : Nous devrions toujours chercher de nouveaux moyens d’aborder un problème. Voilà l’une des raisons principales pour lesquelles je suis membre du CIFAR. C’est difficile, mais il est important d’essayer sans relâche de favoriser la participation de gens de domaines différents.