{"id":49938,"date":"2021-10-25T10:07:29","date_gmt":"2021-10-25T14:07:29","guid":{"rendered":"https:\/\/cifar661.wpengine.com\/cifarnews\/2021\/10\/25\/reducing-discrimination-and-bias-in-ai-qa-with-golnoosh-farnadi\/"},"modified":"2021-11-23T04:04:48","modified_gmt":"2021-11-23T09:04:48","slug":"attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi","status":"publish","type":"post","link":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/","title":{"rendered":"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi"},"content":{"rendered":"<h2 class=\"cust-post-title\"><span style=\"color: #da291c;\"><a href=\"https:\/\/cifar.ca\/fr\/biographie\/golnoosh-farnadi\/\">Golnoosh Farnadi, titulaire d\u2019une chaire en IA Canada-CIFAR<\/a>, parle de la signification de l\u2019\u00e9quit\u00e9 en IA, de l\u2019importance de garder les humains dans la boucle et de son objectif de b\u00e2tir un monde plus \u00e9quitable. Elle est membre du corps professoral de <a href=\"https:\/\/mila.quebec\/en\/\">Mila<\/a>, professeure adjointe \u00e0 HEC Montr\u00e9al et professeure associ\u00e9e \u00e0 l\u2019Universit\u00e9 de Montr\u00e9al.\u00a0<\/span><\/h2>\n<p><strong>Quel est votre domaine de recherche en IA et comment avez-vous commenc\u00e9 \u00e0 vous y int\u00e9resser ?<\/strong><\/p>\n<p>Je m\u2019int\u00e9resse \u00e0 l\u2019IA dite \u00ab de confiance \u00bb. J\u2019ai fait mon doctorat sur le profilage des utilisateurs de m\u00e9dias sociaux et j\u2019ai ensuite \u00e9t\u00e9 contact\u00e9e par des entreprises qui voulaient utiliser mon logiciel \u00e0 des fins d\u2019embauche. J\u2019\u00e9tais d\u00e9\u00e7ue de voir que des gens avaient acc\u00e8s aux r\u00e9sultats de recherche pour r\u00e9aliser des projets qui n\u2019\u00e9taient pas vraiment \u00e9thiques selon moi. \u00c0 la fin de mon doctorat, j\u2019ai \u00e9crit un chapitre sur les cons\u00e9quences n\u00e9gatives de l\u2019IA, comme la discrimination et les biais. Je me suis rendu compte que si nous ne faisons pas attention, l\u2019avenir risque de ne pas \u00eatre id\u00e9al pour bien des gens. Cette exp\u00e9rience m\u2019a incit\u00e9e \u00e0 changer de sujet pour traiter d\u2019\u00e9quit\u00e9 en IA et de discrimination algorithmique.<\/p>\n<p><strong>Nous entendons parler d\u2019\u00e9quit\u00e9 en IA, de biais algorithmiques et de discrimination dans les mod\u00e8les de prise de d\u00e9cision. Qu\u2019est-ce que cela signifie ?<\/strong><\/p>\n<p>L\u2019\u00e9quit\u00e9 en IA est un sujet relativement nouveau, contrairement \u00e0 l\u2019\u00e9quit\u00e9 dans les syst\u00e8mes de prise de d\u00e9cision. L\u2019une des principales raisons pour lesquelles nous nous sommes souci\u00e9s d\u2019\u00e9quit\u00e9 dans le domaine de la prise de d\u00e9cision automatis\u00e9e est la l\u00e9gislation contre la discrimination. Cependant, il est tr\u00e8s difficile de convertir les d\u00e9finitions juridiques de l\u2019\u00e9quit\u00e9 en notations math\u00e9matiques que nous pouvons utiliser en IA. C\u2019est pourquoi nous avons de nombreuses d\u00e9finitions de l\u2019\u00e9quit\u00e9 fond\u00e9es sur le contexte.<\/p>\n<p>Ce qui m\u2019int\u00e9resse, c\u2019est de mesurer la discrimination en fonction du contexte et d\u2019att\u00e9nuer la discrimination \u00e0 diff\u00e9rents points du pipeline de l\u2019IA, qui comprend plusieurs \u00e9l\u00e9ments : les donn\u00e9es, le mod\u00e8le et le r\u00e9sultat. Les biais et la discrimination peuvent survenir n\u2019importe o\u00f9 le long de ce pipeline. L\u2019apprentissage de l\u2019\u00e9quit\u00e9 vise \u00e0 supprimer la discrimination en modifiant les donn\u00e9es biais\u00e9es et\/ou les algorithmes pr\u00e9dictifs fond\u00e9s sur ces donn\u00e9es. Par exemple, un biais peut r\u00e9sulter d\u2019un ensemble de donn\u00e9es d\u00e9s\u00e9quilibr\u00e9 o\u00f9 la majorit\u00e9 des donn\u00e9es ne d\u00e9crit qu\u2019un seul groupe.<\/p>\n<p>Les mod\u00e8les d\u2019apprentissage automatique peuvent \u00e9galement \u00eatre discriminatoires. En tant que chercheurs, nous concevons des mod\u00e8les ax\u00e9s sur la performance, et nous utilisons certaines mesures pour \u00e9valuer leur qualit\u00e9. Un mod\u00e8le imitera les sch\u00e9mas trouv\u00e9s dans les donn\u00e9es. Ainsi, en raison de la discrimination historique dans les ensembles de donn\u00e9es, vous verrez qu\u2019un algorithme offre plus de possibilit\u00e9s et de r\u00e9sultats favorables \u00e0 un groupe privil\u00e9gi\u00e9, alors que les r\u00e9sultats sont m\u00e9diocres pour les groupes minoritaires tels que les femmes et les personnes racis\u00e9es.<\/p>\n<p><strong>Pouvez-vous nous donner des exemples de biais algorithmiques et d\u2019iniquit\u00e9 en IA ?<\/strong><\/p>\n<p>Joy Buolamwini, chercheuse du Civic Media Group au MIT Media Lab, a publi\u00e9 une <a href=\"https:\/\/news.mit.edu\/2018\/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212\">\u00e9tude sur les technologies de reconnaissance faciale<\/a> qui est devenue c\u00e9l\u00e8bre. En testant diff\u00e9rentes applications de reconnaissance faciale commerciales, elle s\u2019est rendu compte que ces applications ne reconnaissaient pas son visage. Le probl\u00e8me ne venait pas du logiciel : il d\u00e9tectait assez bien les visages des hommes blancs, mais il ne parvenait pas \u00e0 reconna\u00eetre les visages des femmes noires parce que les donn\u00e9es utilis\u00e9es pour entra\u00eener le mod\u00e8le ne comprenaient que des visages d\u2019hommes blancs.<\/p>\n<p>Un autre exemple de biais est celui d\u2019un <a href=\"https:\/\/www.reuters.com\/article\/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G\">outil de recrutement d\u2019Amazon bas\u00e9 sur l\u2019IA<\/a> qui, en se fondant sur des donn\u00e9es historiques, \u00e9valuait mal les femmes et avait tendance \u00e0 favoriser les candidats ayant une plus grande exp\u00e9rience technique. L\u2019outil se servait d\u2019un mod\u00e8le d\u2019IA entra\u00een\u00e9 \u00e0 analyser les candidatures \u00e0 partir d\u2019exemples de CV des 10 derni\u00e8res ann\u00e9es. Malheureusement, le mod\u00e8le a observ\u00e9 que les hommes dominaient les postes techniques au cours de cette p\u00e9riode, classant ainsi les femmes au bas de l\u2019\u00e9chelle.<\/p>\n<p>Ces biais auraient pu \u00eatre d\u00e9tect\u00e9s et m\u00eame \u00e9vit\u00e9s si un humain s\u2019\u00e9tait trouv\u00e9 dans la boucle.<\/p>\n<p><strong>Existe-t-il des solutions potentielles pour s\u2019assurer que les syst\u00e8mes d\u2019IA sont dignes de confiance et \u00e9quitables ?<\/strong><\/p>\n<p>Si une application utilise l\u2019IA pour prendre des d\u00e9cisions, il faut qu\u2019il y ait un humain dans la boucle. L\u2019humain doit \u00eatre conscient des biais qui peuvent exister dans le syst\u00e8me et \u00e9viter de se fier enti\u00e8rement aux d\u00e9cisions automatis\u00e9es. Par exemple, dans le domaine de la justice, le syst\u00e8me d\u2019IA ne devrait pas \u00eatre le seul \u00e0 d\u00e9cider si une personne doit \u00eatre emprisonn\u00e9e et \u00e0 d\u00e9terminer la dur\u00e9e de sa peine. Il faut que des humains supervisent ces d\u00e9cisions et modifient celles qui sont injustes.<\/p>\n<p>L\u2019\u00e9quit\u00e9 en IA est un domaine interdisciplinaire qui d\u00e9pend du contexte. Les informaticiens doivent travailler avec des juristes sp\u00e9cialis\u00e9s dans les domaines pertinents, comme la sant\u00e9, les affaires, l\u2019\u00e9ducation, le droit, etc.<\/p>\n<p>De nombreuses entreprises ne veulent pas partager leurs donn\u00e9es ou leurs algorithmes, ni prendre le risque qu\u2019un chercheur y d\u00e9couvre des biais algorithmiques ou une forme de discrimination. Le seul espoir est que nous ayons davantage de r\u00e9glementations encadrant l\u2019IA. Une solution, par exemple, consiste \u00e0 faire appel \u00e0 des auditeurs qui travailleraient avec l\u2019entreprise pour essayer de d\u00e9tecter et d\u2019att\u00e9nuer la discrimination et les biais dans les syst\u00e8mes d\u2019IA.<\/p>\n<p><strong>Qui est le plus vuln\u00e9rable \u00e0 l\u2019absence de contr\u00f4le de l\u2019\u00e9quit\u00e9 et de la fiabilit\u00e9 de l\u2019IA ?<\/strong><\/p>\n<p>Tout le monde, parce que vous ne savez pas quand, comment ou contre qui un algorithme peut se r\u00e9v\u00e9ler discriminatoire. Il est \u00e9vident que certains groupes minoritaires sont plus \u00e0 risque dans les applications d\u2019embauche, comme les femmes, ou dans les outils d\u2019application de la loi, comme les personnes noires.<\/p>\n<p><strong>Pourquoi ce travail est-il important pour vous ?<\/strong><\/p>\n<p>Je me bats pour une soci\u00e9t\u00e9 \u00e9quitable. Je ne verrai peut-\u00eatre pas cela de mon vivant, mais je me bats pour cela, et c\u2019est ce qui me donne l\u2019\u00e9nergie de m\u2019attaquer \u00e0 ce sujet. J\u2019esp\u00e8re que la situation s\u2019am\u00e9liorera pour nos enfants.<\/p>\n<p><strong>Comment vos fonctions de titulaire d\u2019une chaire en IA Canada-CIFAR et de membre du corps professoral de Mila vous aident-elles \u00e0 mener cette recherche ?<\/strong><\/p>\n<p>Je suis reconnaissante d\u2019\u00eatre au Canada pour mener un projet auquel je crois, d\u2019avoir le soutien du CIFAR et du gouvernement, de pouvoir embaucher des gens pour travailler sur ce projet et d\u2019avoir la chance d\u2019acc\u00e9der \u00e0 un r\u00e9seau de chercheurs talentueux. J\u2019ai consacr\u00e9 ma vie \u00e0 ce domaine avant m\u00eame de commencer \u00e0 y travailler. J\u2019ai choisi ce sujet de recherche parce qu\u2019il correspond \u00e0 ce que je suis. Je crois que, dans l\u2019avenir, nous pourrons avoir acc\u00e8s \u00e0 toutes ces technologies de fa\u00e7on \u00e9quitable. Au cours des cinq prochaines ann\u00e9es, je pense pouvoir r\u00e9soudre certains des probl\u00e8mes en mati\u00e8re d\u2019\u00e9quit\u00e9.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Golnoosh Farnadi, titulaire d\u2019une chaire en IA Canada-CIFAR, parle de la signification de l\u2019\u00e9quit\u00e9 en IA, de l\u2019importance de garder les humains dans la boucle [&hellip;]<\/p>\n","protected":false},"author":65,"featured_media":50033,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1842,3972],"tags":[5194,4403,5114],"class_list":["post-49938","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-profil","category-strategie-pancanadienne-en-matiere-dia","tag-golnoosh-farnadi-fr","tag-mila-fr","tag-university-of-montreal-fr"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>CIFAR<\/title>\n<meta name=\"description\" content=\"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi - CIFAR\" \/>\n<meta property=\"og:description\" content=\"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\" \/>\n<meta property=\"og:site_name\" content=\"CIFAR\" \/>\n<meta property=\"article:published_time\" content=\"2021-10-25T14:07:29+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-11-23T09:04:48+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1920\" \/>\n\t<meta property=\"og:image:height\" content=\"524\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alison Rutka\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alison Rutka\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\"},\"author\":{\"name\":\"Alison Rutka\",\"@id\":\"https:\/\/cifar.ca\/fr\/#\/schema\/person\/be6ac84c25822d31a0039f3d6a9a7d1b\"},\"headline\":\"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi\",\"datePublished\":\"2021-10-25T14:07:29+00:00\",\"dateModified\":\"2021-11-23T09:04:48+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\"},\"wordCount\":1306,\"publisher\":{\"@id\":\"https:\/\/cifar.ca\/fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg\",\"keywords\":[\"Golnoosh Farnadi\",\"Mila\",\"University of Montreal\"],\"articleSection\":[\"Profil\",\"Strat\u00e9gie pancanadienne en mati\u00e8re d&#039;IA\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\",\"url\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\",\"name\":\"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi - CIFAR\",\"isPartOf\":{\"@id\":\"https:\/\/cifar.ca\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg\",\"datePublished\":\"2021-10-25T14:07:29+00:00\",\"dateModified\":\"2021-11-23T09:04:48+00:00\",\"description\":\"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.\",\"breadcrumb\":{\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage\",\"url\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg\",\"contentUrl\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg\",\"width\":1920,\"height\":524,\"caption\":\"Golnoosh Farnadi\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Acceuil\",\"item\":\"https:\/\/cifar.ca\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/cifar.ca\/fr\/#website\",\"url\":\"https:\/\/cifar.ca\/fr\/\",\"name\":\"CIFAR\",\"description\":\"Convoquer des esprits extraordinaires pour r\u00e9pondre aux questions les plus importantes auxquelles la science et l'humanit\u00e9 sont confront\u00e9es.\",\"publisher\":{\"@id\":\"https:\/\/cifar.ca\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/cifar.ca\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/cifar.ca\/fr\/#organization\",\"name\":\"CIFAR\",\"url\":\"https:\/\/cifar.ca\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/cifar.ca\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2020\/01\/cifar-logo-rgb-colour.png\",\"contentUrl\":\"https:\/\/cifar.ca\/wp-content\/uploads\/2020\/01\/cifar-logo-rgb-colour.png\",\"width\":1884,\"height\":681,\"caption\":\"CIFAR\"},\"image\":{\"@id\":\"https:\/\/cifar.ca\/fr\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/cifar.ca\/fr\/#\/schema\/person\/be6ac84c25822d31a0039f3d6a9a7d1b\",\"name\":\"Alison Rutka\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g\",\"caption\":\"Alison Rutka\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"CIFAR","description":"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/","og_locale":"fr_FR","og_type":"article","og_title":"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi - CIFAR","og_description":"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.","og_url":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/","og_site_name":"CIFAR","article_published_time":"2021-10-25T14:07:29+00:00","article_modified_time":"2021-11-23T09:04:48+00:00","og_image":[{"width":1920,"height":524,"url":"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg","type":"image\/jpeg"}],"author":"Alison Rutka","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"Alison Rutka","Dur\u00e9e de lecture estim\u00e9e":"5 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#article","isPartOf":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/"},"author":{"name":"Alison Rutka","@id":"https:\/\/cifar.ca\/fr\/#\/schema\/person\/be6ac84c25822d31a0039f3d6a9a7d1b"},"headline":"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi","datePublished":"2021-10-25T14:07:29+00:00","dateModified":"2021-11-23T09:04:48+00:00","mainEntityOfPage":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/"},"wordCount":1306,"publisher":{"@id":"https:\/\/cifar.ca\/fr\/#organization"},"image":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage"},"thumbnailUrl":"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg","keywords":["Golnoosh Farnadi","Mila","University of Montreal"],"articleSection":["Profil","Strat\u00e9gie pancanadienne en mati\u00e8re d&#039;IA"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/","url":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/","name":"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi - CIFAR","isPartOf":{"@id":"https:\/\/cifar.ca\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage"},"image":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage"},"thumbnailUrl":"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg","datePublished":"2021-10-25T14:07:29+00:00","dateModified":"2021-11-23T09:04:48+00:00","description":"Canada CIFAR AI Chair Golnoosh Farnardi on what fairness in AI means, the importance of keeping humans in the loop of AI, and her goal for a more equitable world.","breadcrumb":{"@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#primaryimage","url":"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg","contentUrl":"https:\/\/cifar.ca\/wp-content\/uploads\/2021\/10\/banner-Golnoosh-3.2.jpg","width":1920,"height":524,"caption":"Golnoosh Farnadi"},{"@type":"BreadcrumbList","@id":"https:\/\/cifar.ca\/fr\/cifarnews\/2021\/10\/25\/attenuer-la-discrimination-et-les-biais-en-ia-entretien-avec-golnoosh-farnadi\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Acceuil","item":"https:\/\/cifar.ca\/fr\/"},{"@type":"ListItem","position":2,"name":"Att\u00e9nuer la discrimination et les biais en IA : entretien avec Golnoosh Farnadi"}]},{"@type":"WebSite","@id":"https:\/\/cifar.ca\/fr\/#website","url":"https:\/\/cifar.ca\/fr\/","name":"CIFAR","description":"Convoquer des esprits extraordinaires pour r\u00e9pondre aux questions les plus importantes auxquelles la science et l'humanit\u00e9 sont confront\u00e9es.","publisher":{"@id":"https:\/\/cifar.ca\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/cifar.ca\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/cifar.ca\/fr\/#organization","name":"CIFAR","url":"https:\/\/cifar.ca\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/cifar.ca\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/cifar.ca\/wp-content\/uploads\/2020\/01\/cifar-logo-rgb-colour.png","contentUrl":"https:\/\/cifar.ca\/wp-content\/uploads\/2020\/01\/cifar-logo-rgb-colour.png","width":1884,"height":681,"caption":"CIFAR"},"image":{"@id":"https:\/\/cifar.ca\/fr\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/cifar.ca\/fr\/#\/schema\/person\/be6ac84c25822d31a0039f3d6a9a7d1b","name":"Alison Rutka","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/615d15ec89ba993517314fec79e6489a0dba223bcd18c606519b0f363d03f7fc?s=96&d=mm&r=g","caption":"Alison Rutka"}}]}},"_links":{"self":[{"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/posts\/49938","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/users\/65"}],"replies":[{"embeddable":true,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/comments?post=49938"}],"version-history":[{"count":0,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/posts\/49938\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/media\/50033"}],"wp:attachment":[{"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/media?parent=49938"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/categories?post=49938"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cifar.ca\/fr\/wp-json\/wp\/v2\/tags?post=49938"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}