Par: CIFAR
3 Août, 2022
Dans un contexte d’utilisation croissante des technologies de l’intelligence artificielle (IA) dans la vie de tous les jours et d’augmentation des investissements privés dans le domaine, de plus en plus de scientifiques se tournent vers l’IA. L’importance croissante de l’IA s’accompagne d’une prise de conscience plus large de ses effets néfastes éventuels sur le monde, notamment sur l’environnement, les communautés marginalisées et la société dans son ensemble.
Comment la communauté de la recherche en IA peut-elle mieux anticiper les conséquences de la recherche en IA? Et comment les spécialistes de l’IA peuvent-ils atténuer les effets négatifs éventuels de leurs travaux, notamment : applications inappropriées, utilisation non voulue et malveillante, accidents et préjudices sociétaux?
En début d’année 2022, le CIFAR, Partnership on AI et l’Institut Ada Lovelace ont réuni des organisateurs de conférences récentes en apprentissage automatique (AA) et des spécialistes de l’éthique de l’IA pour examiner comment encourager les auteurs qui soumettent un article à réfléchir aux impacts éventuels de leurs recherches en IA.
« L’IA offre une incroyable possibilité de faire beaucoup de bien dans le monde. Mais elle présente également un énorme potentiel de préjudice, si elle n’est pas exploitée de façon responsable », déclare Elissa Strome, directrice générale de la Stratégie pancanadienne en matière d’IA. « Dans un environnement universitaire marqué par le principe du ‘ publier ou périr’ et de la ‘ science rapide’, la communauté de la recherche en IA doit systématiser la pratique consistant à prendre le temps de réfléchir sérieusement aux répercussions éthiques de la recherche avant sa mise en œuvre et sa diffusion. En tant que lieux de partage importants des connaissances universitaires, les conférences constituent un excellent point de départ. De concert avec nos collaborateurs internationaux, Partnership on AI et l’Institut Ada Lovelace, le CIFAR est ravi de partager les discussions et les outils fantastiques qui ont vu le jour dans le cadre de notre atelier; nous espérons que les organisateurs de conférences du monde entier pourront les adapter à leurs propres activités pour contribuer à la diffusion d’une pratique de l’IA responsable. »
Pour de plus amples renseignements, veuillez communiquer avec :
Gagan Gill
Responsable de programme, IA et société, CIFAR