Par: Justine Brooks
12 Sep, 2022
Des cotes de crédit, aux services de soins de santé ou au système de justice pénale, l’IA aide les humains à prendre des décisions. Mais s’agit-il de décisions qui profitent à tout le monde?
Dhanya Sridhar, titulaire de chaire en IA Canada-CIFAR au Mila et professeure adjointe à l’Université de Montréal, explique comment l’IA peut perpétuer les inégalités existantes. « Historiquement, les humains ont perpétué les injustices et les inégalités et maintenant, il arrive que les algorithmes apprennent de ces données. Bien que dans l’idéal, l’intelligence artificielle n’ait pas ses propres biais cognitifs, elle hérite de modèles nuisibles issus de données historiques. »
En se concentrant sur la causalité plutôt que sur les corrélations, Sridhar espère développer un système d’IA apte à la généralisation, un processus par lequel l’IA peut travailler avec des données complètement différentes de celles utilisées pour son entraînement. Enseigner à l’IA la différence entre causalité et corrélation pourrait être une façon de promouvoir l’équité algorithmique.
Dans un entretien avec le CIFAR, Dhanya Sridhar parle du chemin parcouru par l’IA et le potentiel passionnant de son évolution.
CIFAR : Qu’est-ce que l’équité en IA?
Dhanya Sridhar : Je vais appeler ce vaste domaine l’équité algorithmique. Les données historiques sont utilisées pour entraîner des modèles prédictifs, surtout pour la réalisation d’évaluations ou de cotes de risque qui servent ensuite à prendre des décisions concernant les gens. Le système de justice pénale en est un exemple. Les algorithmes utilisent des données antérieures sur le récidivisme pour produire des cotes permettant de décider qui libérer avant un procès. Nous en sommes au point où je crois que les machines et les humains peuvent collaborer à la prise de décision; nous ne confions pas exclusivement la prise de décision à l’IA, mais elle devient assurément un élément essentiel pour aider au processus décisionnel humain. Il s’agit d’une interface intéressante où les humains ont des préjugés cognitifs et l’IA, en soi, n’en a pas, mais elle apprend à partir de données créées par des êtres humains. Ces données comprennent toutes sortes de modèles qui découlent des préjugés humains, et les évaluations algorithmiques produites par l’apprentissage automatique et l’IA pourraient éventuellement exacerber les types de biais que nous observons déjà dans la société moderne. Cela inclut la discrimination directe à l’encontre de divers groupes protégés, mais cela pourrait également perpétuer les inégalités ou les stéréotypes déjà existants.
CIFAR : De quelles façons l’IA a-t-elle modifié notre quotidien sans même que nous y pensions? Pourquoi tout cela doit-il être fondé sur l’équité?
Dhanya Sridhar : Il y a sans conteste de nombreux exemples : les technologies d’assistance à la conduite, la prise de décision humain-IA dans le système de soins de santé, et des systèmes d’IA, comme DALL-E, qui génèrent des images à partir du langage humain. Et comme je l’ai dit précédemment, le système de justice pénale est un excellent exemple. Ce domaine a fait l’objet de nombreuses études, en particulier ces derniers temps, car certaines évaluations du risque de récidive ont suscité beaucoup d’attention quant à leur équité. En gros, à partir de données historiques, on peut finir par apprendre que certains groupes sont plus susceptibles de récidiver et que, par conséquent, les cotes d’évaluation du risque favoriseront potentiellement la libération des accusés blancs à un niveau plus élevé que la plupart des autres accusés. Il est possible d’expliquer cette corrélation par de nombreuses raisons, mais elles ne reflètent aucun mécanisme causal; il se peut que, dans le passé, un juge raciste ait pris des décisions de mise en liberté sous caution qui désavantageaient les accusés non blancs ou que des événements historiques aient aggravé la situation des personnes non blanches. En conséquence, lorsque nous utilisons ces éléments pour prendre des décisions qui auront un effet sur l’avenir, nous ne faisons que perpétuer l’inégalité qui s’est déjà produite. Les humains ont des biais cognitifs et nous pouvons peut-être espérer que les agents algorithmiques nous aideront à les surmonter, mais il faut faire attention au mode d’entraînement. Dans le processus de décision, nous devons veiller à nous tourner vers l’avenir et à nous demander quels types de monde et de systèmes nous souhaitons créer. Comment pouvons-nous adapter nos algorithmes d’IA pour qu’ils ne se contentent pas de répéter ce qui a été fait dans le passé?
CIFAR : À quoi travaillez-vous en ce moment? Comment appliquez-vous le concept d’IA éthique à votre travail?
Dhanya Sridhar : En ce moment, je cherche à développer des méthodes et des critères qui permettent à l’apprentissage automatique d’être plus robuste, en évitant les simples corrélations et en se concentrant plutôt sur des informations plus stables, ce qui permettrait de saisir davantage d’influences causales et de sources d’information. En matière d’équité, les objectifs sont similaires dans la mesure où nous avons un contexte historique dans lequel l’entraînement des algorithmes se fait, mais nous voulons les déployer dans un contexte différent et nous voulons qu’ils fassent mieux. Nous voulons qu’ils effectuent des déductions qui ne se contentent pas d’imiter les modèles des données historiques, mais qui génèrent des conclusions nouvelles et équitables. L’essentiel est de savoir comment faire en sorte que l’apprentissage automatique ne se limite pas à mémoriser ce qu’il a vu, mais qu’il tire des déductions et des conclusions, qu’il généralise, comme nous l’entendons.
CIFAR : Qu’espérez-vous accomplir dans votre travail au cours des dix prochaines années?
Dhanya Sridhar : Dans les dix prochaines années, ce qui m’intéresse de façon très générale, c’est l’intégration de l’IA au processus décisionnel. L’IA a fait d’énormes progrès, mais les systèmes algorithmiques ne sont pas encore totalement intégrés à l’aide à la décision humaine, et il manque tellement d’éléments pour y parvenir. Par exemple, nous devons commencer à étudier les répercussions de l’IA non seulement d’une façon stationnaire, mais aussi envisager un processus séquentiel qui intègre les décisions de l’IA et la façon dont cela change les facteurs ultérieurs. Il y a beaucoup de facteurs à examiner quant à savoir comment les systèmes d’IA vont expliquer leurs décisions aux êtres humains afin que ceux-ci puissent comprendre pourquoi la prédiction a été faite, comment elle a été faite, puis l’intégrer dans leur propre modèle du monde. Mon objectif est de commencer à prendre au sérieux l’idée d’agents de raisonnement basés sur l’IA qui collaborent avec les humains pour prendre des décisions sur le monde.
CIFAR : Dans vos recherches ou dans votre domaine, qu’est-ce qui semblait autrefois impossible, mais qui est aujourd’hui devenu réalité?
Dhanya Sridhar : À mes yeux, un des exemples les plus spectaculaires est ce que nous avons réussi à accomplir dans le domaine du langage humain. Quand j’ai commencé à travailler dans le domaine, vers 2013, l’idée derrière les modèles de langues statistiques était de compter la fréquence des séquences de mots et d’essayer de comprendre les modèles qui expliquent les liens dans une langue. À l’époque, ces modèles n’étaient pas vraiment évolutifs; ils étaient simplifiés au point de ne pas pouvoir servir à générer du texte ou une communication de type humain. Maintenant, grâce aux progrès étonnants réalisés dans le domaine du traitement du langage naturel, de l’apprentissage profond et des grands modèles linguistiques préentraînés, nous disposons de systèmes étonnants comme DALL-E. Vous lui donnez une phrase et il va automatiquement générer une image, et ce n’est pas comme de récupérer une image sur Google qui ressemble à ce que vous avez écrit. Il s’agit littéralement de créer une nouvelle image à partir de zéro. Parmi d’autres exemples impressionnants, citons le sous-titrage d’images, la génération automatique d’images, la complétion de code et la génération de langage naturel où vous donnez à l’IA une invite et elle complète le texte pour vous. Il y a dix ans, nous ne pensions vraiment pas que nos modèles linguistiques parviendraient à un niveau de qualité acceptable pour les humains. Et, bien sûr, nous avons encore beaucoup de chemin à parcourir, mais je pense que les progrès réalisés jusqu’à présent sont stupéfiants.
CIFAR : Qu’est-ce qui vous enthousiasme dans l’avenir de votre domaine?
Dhanya Sridhar : Ce qui m’enthousiasme vraiment, c’est que grâce aux percées en apprentissage automatique, nous disposons de systèmes capables d’apprendre des choses étonnantes à partir de nombreuses sources de données, notamment du texte, des images et des réseaux. Nous avons l’incroyable possibilité de réaliser des progrès en matière de médecine de précision, de conduite autonome et de processus décisionnel. Je pense que nous avons entre les mains un outil qui pourrait faire un monde bien meilleur pour beaucoup de gens. Mais d’ici là, il y a de nombreux défis techniques très intéressants à relever en matière d’explicabilité, d’équité et de robustesse.
Dans le cadre de la célébration du 40e anniversaire du CIFAR, « Croire en l’impossible : L’avenir de… » présente des scientifiques dont les grandes idées pourraient transformer leur domaine au cours des 40 prochaines années.