Par: CIFAR
6 Déc, 2018
Avertissement
Ébauche – Pour fin de discussion seulement; ne représente pas les positions du G7 ou de ses membres. Ce document a été rédigé pour guider les discussions durant les discussions en petit groupes de la Conférence multipartite du G7 sur l’intelligence artificielle du 6 décembre 2018 à Montréal au Canada.
Document de discussion pour les Séances en petits groupes
Auteurs :
Conférence multipartite du G7 sur l’intelligence artificielle 6 décembre 2018, Montréal
Le présent document a été élaboré à la demande du gouvernement du Canada pour appuyer la Conférence multipartite du G7 sur l’intelligence artificielle : permettre l’adoption responsable de l’IA le 6 décembre 2018. Des coresponsables du Canada et du Japon ont élaboré ce document sur la responsabilité, dont l’objectif est de fournir un point de départ pour les discussions sur le sujet de la Responsabilité en matière d’IA : promouvoir une plus grande confiance de la société dans le cadre de la conférence. Le présent document et la discussion s’appuient sur les travaux entamés lors de la rencontre de 2016 des ministres des TIC à Takamatsu et qui ont mené, plus récemment, à la Vision commune de Charlevoix sur l’avenir de l’intelligence artificielle.
Le présent document est divisé en deux sections. La première fournit des renseignements sur les travaux réalisés à ce jour dans le domaine et présente divers concepts et distinctions qui méritent d’être soulignés lorsqu’on pense à la responsabilité et à la confiance dans l’IA. La deuxième section traite du processus de consultation et des mesures qui pourraient être prises par différents groupes d’intervenants pour l’avenir.
Nous remercions sincèrement le CIFAR et le ministère des Affaires intérieures et des Communications du Japon, ainsi que les nombreux intervenants du Canada et du Japon qui ont fourni des commentaires et des conseils sur ce document. Veuillez noter que les idées exprimées dans le présent document sont celles des auteurs ou ont été fournies dans le cadre de la consultation des intervenants. Ce ne sont pas celles des gouvernements du Canada ou du Japon.
Sept questions, regroupées sous trois grandes catégories, sont proposées pour encadrer les discussions de la conférence :
Avec le développement et la prolifération des systèmes d’IA, il est urgent de s’attaquer aux questions de responsabilisation. Cependant, il y a un « manque de consensus au sein de la communauté au sens large quant à ce à quoi ressemblerait une « trousse de solutions » ». Le présent document examine la question de la responsabilité en matière d’IA et de son lien avec la confiance, propose des définitions et des distinctions clés et présente quelques considérations pour les discussions futures et les mesures possibles pour les membres du G7, les autres pays et les intervenants du monde entier.
Terme clé : intelligence artificielle (IA)
« [L’IA] consiste à fabriquer des ordinateurs qui peuvent nous aider et faire ce que les humains peuvent faire, mais pas nos ordinateurs actuels. » – Yoshua Bengio [traduction]
« Le secteur de l’informatique dédié à la résolution des problèmes cognitifs couramment associés à l’intelligence humaine, comme l’apprentissage, la résolution de problèmes et la reconnaissance de formes. » – Amazon [traduction]
« C’est la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents. Elle est liée à la tâche similaire d’utiliser les ordinateurs pour comprendre l’intelligence humaine, mais l’IA n’a pas à se limiter à des méthodes biologiquement observables. » – John McCarthy [traduction]
Le terme intelligence artificielle (IA) englobe un large éventail de technologies et d’approches. Deux approches générales de l’IA méritent d’être distinguées. Une approche utilise des modèles prédéfinis pour atteindre des objectifs, et l’autre repose sur l’apprentissage machine pour entraîner un système à atteindre des objectifs. Il existe deux techniques bien connues en apprentissage machine. Pour les définir de manière très générale, il s’agit de l’apprentissage profond, qui utilise de très grands réseaux neuronaux artificiels et de l’apprentissage par renforcement, qui utilise une structure de récompense et de punition. Le présent document a pour but de discuter de la responsabilité dans son application générale à l’IA, tout en reconnaissant que certaines questions éthiques qui sont devenues associées à l’intelligence artificielle, en particulier l’explicabilité, sont plus directement liées à l’apprentissage profond.
La recherche sur l’IA a progressé rapidement au cours de la dernière décennie. Le succès en laboratoire a conduit à la prolifération de systèmes d’IA dans certains secteurs de la société. En raison de sa capacité à opérer sur des ensembles de données massifs avec une rapidité, une précision et une exactitude qui surpassent les capacités humaines, l’IA commence à être appliquée, ou est envisagée, dans les domaines de la santé, des transports, de l’ordre public, de la défense et des finances – pratiquement tous les secteurs de l’économie – pour appuyer et, dans certains cas, remplacer l’analyse humaine et la prise de décisions. Ces capacités permettent à l’IA d’apporter de grands avantages à la société.
Comme pour toute nouvelle technologie, nous apprenons que le déploiement de l’IA au- delà des laboratoires peut constituer une source de risques pour les personnes et les sociétés, ce qui soulève des préoccupations quant à la responsabilisation. Voici quelques exemples qui aident à illustrer la situation. L’IA qui est formée sur des ensembles de données biaisées peut intégrer et faire proliférer ces biais dans ses extrants, ce qui mène à des applications discriminatoires. Dans la pratique, de nombreux systèmes d’apprentissage profond fonctionnent en grande partie comme des « boîtes noires », de sorte que leur comportement peut être difficile à interpréter et à expliquer, ce qui soulève des préoccupations sur leur explicabilité, la transparence et sur le contrôle humain4. La responsabilisation est d’autant plus compliquée par le fait que les systèmes d’IA déployés peuvent être composés de nombreux éléments (code, capteurs, jeux de données, etc.) qui peuvent chacun représenter des points de défaillance potentiels. Enfin, puisque les humains perçoivent souvent l’IA comme étant « supérieure » dans ses capacités, ils peuvent trop lui faire confiance, ce qui peut entraîner des blessures physiques et mentales. Ces exemples ne sont pas exhaustifs. À mesure que nous en apprenons davantage sur l’IA et ses caractéristiques uniques, la liste des méfaits potentiels s’allonge. La compréhension de ces méfaits potentiels commence à être intégrée dans la réflexion des gouvernements sur l’IA. En effet, la recherche systématique sur les implications éthiques de l’IA progresse constamment, tant à l’intérieur qu’à l’extérieur du milieu universitaire. Certaines de ces nouvelles recherches visent précisément à aider les décideurs et les ingénieurs à prévoir et à aborder les questions éthiques liées à l’IA, dont la responsabilité.
Il est urgent d’anticiper et de traiter ces risques potentiels. Ces systèmes sont souvent opaques et complexes et leur impact potentiel est vaste. Combinés à leur utilisation potentielle dans des contextes décisionnels critiques et à enjeux élevés (p. ex. raisonnement judiciaire, santé, guerre, opérations financières), ils peuvent avoir des répercussions importantes. Par exemple, une mise à jour de routine d’un logiciel à un algorithme d’acheminement du trafic contrôlant un système de mobilité automatisé et connecté pourrait rapidement retransmettre les risques à des millions de personnes dans le système. Déterminer qui devrait être confronté aux risques les plus importants au sein d’un système de mobilité est une lourde tâche qui a de vastes répercussions . Le processus par lequel nous devons prendre cette décision, ainsi que la responsabilité de cette décision et ses conséquences systémiques, peuvent dépasser les capacités des régimes existants (responsabilité délictuelle, protection des consommateurs, etc.).
Même s’il est certainement possible de causer du tort en déployant l’IA dans certains contextes, nos préoccupations devraient rester modérées. Dans de nombreux cas, les répercussions sociales négatives des systèmes du statu quo (c.-à-d. les systèmes non algorithmiques) ne sont pas interrogées aussi intensément que les systèmes d’IA. Autrement dit, il est important de comprendre les risques posés par l’IA ainsi que les risques posés par le statu quo.
Comme c’est souvent le cas, le rythme de l’innovation technique dépasse celui de l’élaboration de politiques en matière de responsabilité. L’absence de directives claires en matière de responsabilité pourrait miner la confiance des experts et du public, ce qui pourrait limiter les avantages de l’IA. En même temps, il est important de noter que l’objectif ne peut pas être simplement d’accroître les niveaux de confiance dans l’IA.
Nous pouvons faire trop ou pas assez confiance à un système automatisé. Nous nous méfions lorsque des hypothèses inexactes (p. ex. des craintes ou de la désinformation) au sujet de l’IA nous empêchent de lui faire confiance, ce qui pourrait nous priver des avantages qu’elle pourrait produire. D’un autre côté, nous faisons trop confiance à un système lorsque, par exemple, nous croyons (et avons confiance) à tort qu’un système est capable d’accomplir certaines tâches qu’il n’est pas capable d’accomplir. Les accidents malheureux causés par des véhicules autonomes peuvent être considérés comme des cas de trop grande confiance : dans chaque cas, le conducteur humain croyait à tort que le système automatisé de contrôle de la conduite était capable de fonctionner à un niveau auquel il n’était pas capable. Ainsi, notre objectif pourrait être d’encourager des niveaux appropriés de confiance dans l’IA, avec des régimes de responsabilisation qui tiennent compte des nuances entre la confiance excessive et insuffisante.
Enfin, avec les progrès de la mise en réseau de l’IA, où les systèmes d’IA sont connectés à d’autres systèmes, par Internet ou d’autres réseaux d’information et de communication, il deviendra plus difficile de déterminer à la fois les causes des problèmes et la responsabilité qui en découle. Afin de favoriser la confiance à l’égard de l’IA, il sera important de s’appuyer sur un ensemble de principes communs qui clarifient les rôles et les responsabilités de chaque intervenant du réseau, y compris des développeurs, des fournisseurs de services et des utilisateurs finaux, dans la recherche, le développement et l’utilisation de l’IA.
De manière générale, dans notre société, la responsabilisation est à la base de la confiance. La responsabilisation représente la reconnaissance et l’imputation de la responsabilité ainsi que la reddition de compte pour les actions posées, les décisions prises, les produits proposés et les politiques adoptées. Présentement, trois « sens » de la responsabilité existent dans la littérature sur l’IA, chacun pointant dans une direction différente. Le premier des trois veut que la responsabilité soit une caractéristique même du système d’IA. En ce sens, l’intégration de l’explicabilité aux systèmes d’IA permettrait de régler une partie de la question de la responsabilité. Le deuxième vise l’identification des personnes ou groupes responsables de l’incidence des algorithmes ou d’IA. En ce sens, la responsabilité est en quelque sorte étroitement liée à l’identification des personnes responsables des différentes incidences sur le système sociotechnique. Finalement, et possiblement de manière plus générale, la responsabilité est perçue comme une caractéristique du vaste système sociotechnique qui élabore, produit, déploie et emploie l’IA. Par exemple, AI Now propose une cadre d’évaluation algorithmique de l’incidence, semblable à une évaluation des facteurs relatifs à la vie privée, permettant d’intégrer la responsabilisation au sein d’un plus vaste système sociotechnique qui a recours à l’IA, mais dans lequel uniquement une partie servirait à l’attribution de la responsabilité. De manière semblable, la World Wide Web (WWW) Foundation définit les principes de la responsabilisation algorithmique, notamment l’équité, les caractères explicable et vérifiable, la responsabilité et l’exactitude.
Ces trois sens de la responsabilité font l’objet de recherches actives et de projets de développement.
La WWW Foundation évoque une distinction « fondamentale » entre la responsabilisation algorithmique, soit la responsabilité qu’ont les concepteurs d’algorithmes de fournir des preuves de préjudices possibles ou réels, et la justice algorithmique, soit la capacité de réparer les torts causés. La raison pour laquelle il est important de faire cette distinction est que de centrer les efforts sur la réparation des torts causés pour traiter de la responsabilisation pourrait détourner l’attention des concepteurs et ingénieurs d’algorithmes de la chance inouïe qui s’offre à eux d’anticiper les préjudices avant que l’IA ne soient rendue disponible. Tout en tenant compte de ces conseils, il est aussi essentiel de ne pas trop mettre l’accent sur la responsabilité des concepteurs d’algorithmes en matière d’anticipation des préjudices, ce qui pourrait distraire d’une approche plus globale à l’égard de la responsabilisation en IA.
Les observations présentées ci-dessus qui ont trait à la confiance et à la responsabilité tendent à faire une distinction bénéfique entre la confiance en un système et la fiabilité d’un système. La confiance en un système signifie avoir un niveau de confiance suffisamment élevé, ou tout juste assez élevé, en un système. Par conséquent, la fiabilité d’un système peut être définie par la capacité d’un système à effectuer ou réaliser de manière fiable l’objectif pour lequel il a été conçu et comme il est attendu. Par exemple, le niveau de confiance en certaines nouvelles circulant sur les réseaux sociaux est souvent plus élevé qu’il ne le devrait, et ce, en raison de leur inexactitude et leur caractère peu fiable. De la même façon, le niveau de confiance envers les publications scientifiques est souvent moins élevé qu’il ne le devrait compte tenu de leur niveau de fiabilité. Donc, il est possible de dire que le niveau de confiance est en-deçà de celui attendu. En guise de dernier exemple, les gens ont raison d’avoir confiance dans le transport par avion puisque toutes les preuves indiquent que ce mode de transport est fiable. Lorsqu’il est question d’IA, divers facteurs entraînent une méfiance des gens envers la fiabilité de certaines de ces technologies, ce qui pourrait limiter les avantages qu’elles présentent. En élaborant un ensemble strict de règles en matière de responsabilisation des systèmes d’IA, dont de plus vastes systèmes sociotechniques environnants, il est possible de promouvoir une confiance appropriée envers l’IA auprès des experts et du public.
On cite souvent la transparence dans les discussions entourant la responsabilisation en matière d’IA, puisque cette notion permet un contrôle plus serré des systèmes d’IA. Cependant, on n’améliore ou n’accroît pas la responsabilisation simplement en augmentant la transparence. La transparence est sans aucun doute une composante de la responsabilisation, mais en l’absence de processus, principes et cadres stricts qui font en sorte que cette notion mène à une plus grande responsabilité, elle est nécessaire, mais insuffisante.
Un autre défi pour l’IA responsable est que l’IA a la capacité de traverser les frontières. Elle a été mise au point et déployée à travers différents territoires, et ce, de façon à ce qu’elle traverse non seulement les frontières internationales, mais aussi culturelles. La distribution et le déplacement des biens numériques sont difficiles à contenir. Cela a pour effet de rendre la notion de confiance plus complexe et peut être démontré, par exemple, lorsqu’une technologie d’IA est mise au point selon un ensemble d’éléments culturels et que cette technologie est exportée dans un contexte culturel « étranger », où les normes de confiance diffèrent. Cela complique aussi les interventions des différentes autorités puisqu’une technologie d’IA pourrait être conçue d’une façon qui ne respecte pas nécessairement les lois ou normes culturelles locales. Bien que les difficultés liées aux éléments relevant des différentes administrations ne soient pas nouvelles, elles caractérisent bon nombre d’enjeux auxquels nous devons faire face dans cette ère numérique, dont la très importante question de la vie privée. Comme nous avons pu le constater récemment avec le règlement général sur la protection des données (RGPD) de l’Union européenne, les solutions pangouverne mentales nécessitent la participation de divers intervenants et profiteraient d’une coordination multilatérale. Cette coordination permettrait non seulement de garantir que l’IA respecte les contraintes légales de diverses compétences, mais qu’elle fonctionne de façon sécuritaire et fiable.
Finalement, il faut poursuivre la recherche de manière à mieux appuyer la prise de décisions en lien avec :
Différents programmes, politiques, activités et centres internationaux ont été mis sur pied pour traiter de la conception d’une responsabilisation rigoureuse et globale de l’IA. Certaines lacunes en matière de connaissance que ces derniers doivent pallier comprennent notamment la façon :
Ci-dessous se trouvent des exemples du travail présentement mené dans le but d’élaborer certains principes et normes ainsi que de définir des approches s’appliquant aux différentes compétences.
Les gouvernements et groupes d’intervenants provenant de différents secteurs de niveaux nationaux, régionaux ou municipaux ont fait des déclarations de principes qui guideront différents aspects de l’élaboration, l’acquisition et l’utilisation de l’IA. De plus, un certain nombre d’organisations privées ont mis sur pied des cadres fondés sur des principes en vue d’une adoption responsable de l’IA. Celles-ci comprennent notamment Google, SAP et Microsoft.
Japon – La conférence des experts-conseils organisée par le ministère des Affaires intérieures et des Communications du Japon a permis de rédiger une ébauche des principes de recherche et développement en matière d’IA qui fait la promotion des avantages économiques et sociétaux offerts et de la réduction des risques qu’elle représente, tels que le manque de transparence ou la perte de contrôle. La vision d’ensemble de la conférence prône la société de réseau de sagesse :
« […] une société dans laquelle, grâce aux percées faites en matière d’IA, les humains vivent en harmonie avec les réseaux d’IA; où les données, renseignements et connaissances sont créés et distribués librement et de façon sécuritaire en plus d’être reliés à une forme de réseau de sagesse favorisant, au-delà de l’espace physique, la collaboration entre les personnes, les choses et les événements provenant de différentes sphères, entraînant conséquemment une créativité et un épanouissement dynamique. » [traduction]
Les principes nécessaires à la réalisation de cette vision comprennent la collaboration, la transparence, la contrôlabilité, la sûreté, la sécurité, la protection de la vie privée, l’éthique, l’assistance aux usagers et la responsabilisation.
Faisant fond sur ces travaux, la conférence a permis d’en venir à la rédaction d’une ébauche des principes d’utilisation de l’IA, qui les regroupe selon trois piliers, soit la promotion des avantages, l’atténuation des préjudices et l’établissement de la confiance :
Au mois de mai 2018, le Bureau du Cabinet du Japon a entrepris des discussions en vue de formuler les principes sociaux liés à l’IA centrée sur l’humain, qui serviront de fondement à une meilleure implantation sociale et un meilleur partage de l’IA. Les principes sociaux de l’IA seront complétés en mars 2019.
Canada – La déclaration de Montréal pour un développement responsable de l’intelligence artificielle, qui est le résultat d’un processus d’engagement de multiples intervenants et dont l’Université de Montréal est à la tête, vise à souligner « des orientations éthiques pour le développement de l’intelligence artificielle ». La première phase a permis de désigner sept valeurs clés dont il faut tenir compte dans le développement de l’IA : « bien-être, autonomie, justice, vie privée, connaissance, démocratie et responsabilité ».
Plusieurs organisations, soit professionnelles ou autres, travaillent à l’élaboration des normes pour un développement et une utilisation éthiques de l’IA.
IEEE (Institute of Electrical and Electronic Engineers) – En 2016, l’IEEE, la plus vaste organisation d’ingénierie professionnelle au monde, a mis sur pied une initiative globale portant sur l’éthique en matière de systèmes autonomes et intelligents (Global Initiative on Ethics of Autonomous and Intelligent Systems). Dans sa seconde version, ce document de référence décrit le travail continu qu’accomplissent certains groupes de travail sur les normes, qui ont depuis reçu la tâche d’aborder différents sous-domaines, notamment :
Organisation internationale de normalisation (ISO) – L’Organisation internationale de normalisation (ISO) a récemment créé un sous-comité technique en IA (SC 42), qui travaille à l’élaboration des normes fondamentales ainsi qu’au traitement des enjeux liés à la sécurité et à la fiabilité. SC 42 a mis sur pied des groupes de travail devant se pencher sur les approches informatiques et caractéristiques des systèmes d’intelligence artificielle ainsi que sur leur fiabilité, utilisation et application.
Ces initiatives offrent des points de départ prometteurs et ont le potentiel de mettre à contribution des résultats positifs et significatifs pour chacun des mandats individuels. Il y a beaucoup à apprendre et à retenir de celles-ci. Cependant, il reste beaucoup de travail à faire avant que soit mis au point un ensemble de règles parfaitement formulées, strictes et globales en matière de responsabilisation de l’IA.
Ci-dessous se trouvent des exemples de stratégies formelles entreprises par différentes administrations pouvant servir de précédents à d’autres régions :
Le gouvernement du Canada travaille présentement à la rédaction de sa toute première Directive sur les processus décisionnels automatisés, qui, dans sa version actuelle, formule diverses exigences en matière de conception et d’utilisation de l’IA. Cette directive s’applique uniquement aux systèmes du gouvernement du Canada en développement qui fournissent des services externes, et peut être appliquée à tout système, outil ou modèle utilisé pour prendre des décisions administratives. Ces exigences incluent les règles entourant les évaluations d’impact algorithmique; la transparence et l’explicabilité; le contrôle de la qualité; la garantie d’une intervention humaine; les recours possibles et l’établissement de rapports.
Fidèle à son nom, le RGPD est une initiative de réglementation qui fixe des règles de protection des données générales et qui vise à protéger la vie privée des personnes au sein de l’Union européenne. En plus de préciser les règles entourant le consentement des personnes à l’usage des données personnelles, les actes 13 à 15, tout particulièrement, déterminent ce qui a été décrit comme le « droit à l’explication » lors d’une prise de décision en fonction d’un algorithme, c’est-à-dire le droit des personnes d’exiger certains renseignements qui expliqueraient la logique algorithmique employée dans la prise de décision par un système à l’aide de leurs données personnelles. Certains prétendent que cela poserait des barrières à l’innovation en matière d’IA, liées à la fois aux coûts directs associés à la révision manuelle des décisions prises par algorithme et aux limites potentielles de performance que cela pourrait entraîner, alors que d’autres voient le RGPD comme un pas de l’avant au niveau de la responsabilisation à l’égard de l’IA.
Ce nouveau groupe de travail, considéré comme le premier du genre aux États-Unis, promet de « [recommander] un processus d’examen des systèmes de décision automatisés du gouvernement, plus communément appelés algorithmes ». Il veillera à ce que les algorithmes soient « utilisés de façon appropriée et cadrent avec l’objectif de faire de la ville de New York un endroit plus juste et plus équitable pour tous ses résidents ».
S’appuyant sur cet aperçu de l’IA, de la responsabilisation et des activités en cours, la section suivante vise à catalyser la discussion lors de la conférence du 6 décembre et les mesures possibles pour l’avenir. Nous commençons par une courte liste non exhaustive des rôles des groupes d’intervenants potentiels, ainsi que des sujets de discussion et des possibilités de leadership du G7 qui seront envisagés à la conférence.
En raison de la complexité et de l’intersectionnalité des questions liées à l’IA et à la responsabilisation, il sera essentiel de créer des occasions inclusives permettant à divers groupes d’intervenants de se réunir pour faire avancer ce travail dans l’intérêt des gens du monde entier. Un certain nombre d’intervenants différents pourraient participer à l’élaboration et au maintien de solides régimes mondiaux de responsabilisation en matière d’IA en fonction des rôles respectifs. Des exemples sont fournis ci-dessous.
Décideurs au sein des gouvernements nationaux
Une première version de ce document a été mise en ligne pour consultation publique. Nous avons reçu des commentaires d’un certain nombre de personnes au Canada et au Japon. La plupart de leurs commentaires ont été intégrés au document, mais nous avons également tenté de présenter un résumé ci-dessous. Veuillez noter qu’ils ont été condensés ou reformulés et qu’ils visent à représenter les points de vue des personnes consultées, pas nécessairement ceux des auteurs.
S’appuyant sur les discussions amorcées lors de la réunion ministérielle du G7 sur les TIC à Takamatsu en 2016, les membres du G7 ont entrepris des études sur les enjeux sociaux, économiques, éthiques et juridiques potentiels soulevés par l’IA, ainsi que sur son incidence socioéconomique.
Le G7 reconnaît également la nécessité de poursuivre le partage de l’information et la discussion afin d’approfondir la compréhension des possibilités et des défis multidimensionnels que présente l’IA. Le G7 et d’autres groupes multilatéraux pourraient jouer un certain nombre de rôles dans la promotion d’une plus grande responsabilisation dans le secteur de l’IA. Des exemples sont fournis ci-dessous.
Nous sommes heureux d’avoir l’occasion de présenter cet aperçu de l’IA et de la responsabilisation dans le but de stimuler un débat rigoureux à la conférence du 6 décembre. À mesure que le développement des applications de l’IA s’élargit et s’accélère, il est urgent et important que les intervenants de tous les secteurs, et au- delà des frontières, se réunissent pour mieux comprendre ce que signifie la responsabilisation dans un monde alimenté par l’IA et les répercussions pour la confiance de la société. Nous espérons que cette enquête sur la responsabilisation en matière d’IA constituera une ressource utile pour les participants à la conférence et les autres, et stimulera la tenue future de discussions parmi les membres du G7, les autres pays et les intervenants du monde entier ainsi que la prise de mesures éventuelles.