L'IA en 2063
Illustrations par Ariel Davis
Nous sommes en 2063. Comment utilisons-nous l’IA au quotidien?
L’IA fait déjà partie de notre quotidien, d’une manière que les générations précédentes n’auraient pas pu imaginer. Alors que le CIFAR achève sa 40e année, nous avons demandé à trois titulaires de chaire en IA Canada-CIFAR où l’IA nous mènera, selon eux, au cours des quarante prochaines années.
Introduction par ChatGPT
Instructions pour ChatGPT :
Rédiger l’introduction d’une série d’entretiens avec trois personnes qui sont titulaires de chaire en IA Canada-CIFAR.
Les entretiens portent sur leur vision de l’avenir de l’intelligence artificielle dans 40 ans.
La réponse de ChatGPT :
Bienvenue à notre série d’entretiens avec trois titulaires de chaire en IA Canada-CIFAR qui nous livrent leur vision de l’avenir de l’intelligence artificielle. Ces spécialistes ont consacré leur carrière à l’avancement du domaine de l’IA et possèdent un point de vue particulier sur l’évolution de cette technologie. Au fil de ces entretiens, nous explorerons leurs réflexions sur l’impact éventuel de l’IA sur divers secteurs, ainsi que sur les considérations éthiques à prendre en compte au fur et à mesure de l’évolution de la technologie. Joignez-vous à nous pour explorer les possibilités passionnantes et potentiellement transformatrices de l’IA, dans 40 ans d’ici.
JACKIE CHI KIT CHEUNG
Titulaire de chaire en IA Canada-CIFAR, Mila | Professeur agrégé, Université McGill
Nous sommes en 2063. Nous déplaçons-nous dans un monde sans frontières, communiquant dans toutes les langues avec un traducteur universel à l’oreille?
Le langage est un phénomène éminemment complexe. Il ne s’agit pas seulement de comprendre qu’une chaîne de mots est assemblée pour former une phrase, il faut aussi un traitement contextuel beaucoup plus poussé. Dès leur plus jeune âge, les êtres humains sont étonnamment doués pour extraire de cette chaîne de mots une grande quantité de données, comme les personnes et les objets décrits, leurs contextes, leurs relations et leurs objectifs, et même les attitudes et les émotions de la personne qui parle. Notre cerveau peut détecter toutes ces choses très abstraites en même temps. Mais les techniques actuelles ne permettent pas aux machines d’extraire facilement ces contextes plus subtils. Si l’on pense aux différences entre les langues, le défi est encore plus grand. Il y a différents facteurs à prendre en compte, comme la façon dont les différentes langues sont structurées ou ce qui est requis pour être explicite - par exemple, la façon dont certaines langues utilisent ou n’utilisent pas les pronoms. Voilà donc des défis vraiment intéressants sur lesquels nous nous penchons actuellement avec le traitement du langage naturel.
Articles liés
-
Élucider la causalité
13 juin 2024
-
CIFAR reçoit une subvention de Google.org au profit de la recherche en matière de durabilité et d’IA responsable
18 mars 2024
-
Les changements climatiques et l’utilisation de l’IA
24 octobre 2023
-
« Rien sur nous sans nous »
06 juin 2023
Jackie Chi Kit Cheung Photo Dominic Blewett
« Mais même les meilleurs systèmes risqueront toujours
de commettre des erreurs, et parfois ces erreurs ne seront pas évidentes, surtout au fur et à mesure que l’IA gagnera en sophistication. » - Jackie Chi Kit Cheung
Dans 40 ans, je pense que la traduction instantanée aura atteint un niveau de précision raisonnable pour ce qui est de la compréhension de l’intention générale. Mais même les meilleurs systèmes risqueront toujours de commettre des erreurs, et parfois ces erreurs ne seront pas évidentes, surtout au fur et à mesure que l’IA gagnera en sophistication. Certaines de ces erreurs pourront même sembler convaincantes. Il ne s’agira pas des erreurs stupides que font aujourd’hui des technologies comme Alexa ou Siri et qui nous font rire - elles seront plus difficiles à percevoir.
Je peux donc nous imaginer en train d’utiliser l’IA dans 40 ans pour traduire rapidement des conversations du quotidien, et même si nous en perdons un peu en matière de fidélité, nous comprendrons l’essentiel du message. Mais s’il s’agit de traduire quelque chose de très important, comme des négociations de paix à l’ONU, nous aurons toujours besoin d’une supervision et d’un suivi humains pour éviter des résultats éventuellement catastrophiques.
Ce que j’espère vraiment dans 40 ans, c’est une adoption beaucoup plus large des technologies de traitement du langage naturel dans la vie quotidienne. Elles seront tellement répandues qu’elles passeront inaperçues.
Il y a beaucoup de petites tâches administratives et banales que nous accomplissons chaque jour et qui prennent bien du temps, comme tous les courriels que nous envoyons ou les notes que nous prenons pour nous souvenir de certaines choses. J’aimerais que les assistants intelligents nous libèrent de ces tâches pour que nous puissions nous concentrer sur des choses plus intéressantes et plus utiles, comme faire progresser les réalisations humaines en science et en art.
Nidhi Hegde Photo Katie Astaire
NIDHI HEGDE
Titulaire de chaire en IA Canada-CIFAR, Amii | Professeure agrégée, Université de l’Alberta
Nous sommes en 2063. Vivons nous dans une société plus juste et plus équitable où l’IA est à notre service? Et comprenons-nous enfin les conventions sur la protection des renseignements personnels que nous signons pour les nouvelles technologies?
Il est difficile d’imaginer un avenir où tout le monde maîtrisera l’IA et où nous saurons exactement ce qui se passe lorsque nous nous abonnons à des services, car ces technologies sont vraiment complexes et ne cessent d’évoluer. Je ne vois pas comment cela pourrait changer. Nous avons maintenant ces longues conventions illisibles parce que c’est facile, mais ce n’est ni juste ni raisonnable.
J’aimerais que ces responsabilités incombent aux développeurs. Ils devraient se poser les questions suivantes : est-ce que chaque élément de ces données est vraiment nécessaire pour la tâche à accomplir? Est-ce que je veille à la confidentialité des résultats de ce modèle? D’aucuns affirment que cela étouffera l’innovation, que nous devrions laisser l’IA se développer de la meilleure façon possible, mais il faut se poser la question suivante : de la meilleure façon possible pour qui?
« En fn de compte, il faudrait considérer la protection des renseignements personnels et l’équité comme faisant partie du développement de produits, et reconnaître qu’elles n’étouffent pas l’innovation : elles l’enrichissent. » - Nidhi Hegde
C’est à cela que se résume l’équité en matière d’IA : quel est le résultat réel d’un système d’apprentissage automatique ou d’IA, et tous les groupes en proftent-ils de la même manière?
Peut-être avez-vous postulé à un poste, fait une demande d’admission à l’université ou demandé une évaluation de risque hypothécaire et que vous avez essuyé un refus sans en connaître la raison. Cette force invisible vous empêche de réaliser votre potentiel, et vous ne savez même pas comment. C’est injuste. Il existe de nombreux exemples de ces préjudices importants, comme le maintien de l’ordre prédictif à l’aide d’algorithmes biaisés ou les outils d’évaluation du risque criminel qui prolongent la durée d’incarcération de certains groupes de personnes. Ces effets s’accumulent au fl du temps, créant des préjudices intergénérationnels.
En fin de compte, il faudrait considérer la protection des renseignements personnels et l’équité comme faisant partie du développement de produits, et reconnaître qu’elles n’étouffent pas l’innovation : elles l’enrichissent. Je souhaite que la communauté de l’IA relève le défi d’obtenir les résultats optimaux escomptés de l’IA, tout en préservant la confidentialité des données et des résultats. Et j’aimerais que les produits de l’IA fassent l’objet d’une réglementation. Nous l’avons fait dans le passé avec les agences de protection des consommateurs qui étudient les médicaments, les jouets et d’autres produits avant leur mise sur le marché, et nous estimons que c’est nécessaire pour prévenir les préjudices. Nous devons reconnaître que les préjugés et le manque d’équité en matière d’IA causent aussi de véritables préjudices.
J’aimerais voir à l’avenir des outils d’IA qui améliorent l’équité de l’IA en soi. Nous disposons déjà de réseaux GAN (réseaux antagonistes génératifs) qui remettent en question leurs propres points de données pour s’affiner et s’améliorer en permanence, et ils se perfectionnent sans cesse. Nous pouvons donc imaginer un système antagoniste pour l’équité, avec un algorithme d’IA qui vérifie et remet en question les préjugés. Il s’agirait d’une solution basée sur l’IA à un problème d’IA.
Dans 40 ans, j’espère que nous intégrerons naturellement l’équité dans les nouvelles technologies basées sur l’IA.
Jeff Clune Photo Kryani Kanavaros
JEFF CLUNE
Titulaire de chaire en IA Canada-CIFAR, Institut Vecteur | Professeur agrégé, Université de la Colombie-Britannique
Nous sommes en 2063. La main-d’oeuvre humaine est-elle remplacée par des robots dotés d’une intelligence générale artificielle? Des technologies comme DALL-E remplacent-elles les artistes? GPT a-t-il mis les rédacteurs au chômage? Est-ce que même les spécialistes de l’intelligence artificielle ont perdu leur emploi?
L’histoire nous a appris que les progrès technologiques entraînent la disparition de certains emplois. Mais il s’agit en
général d’emplois mal rémunérés, moins intéressants ou dangereux. Et nous nous adaptons, car de nouveaux emplois sont créés. Personne ne se plaint aujourd’hui qu’il n’y ait plus d’emplois pour les forgerons professionnels, ni pour les cochers de voitures à cheval ni pour les balayeurs de rues. Aujourd’hui, il existe des postes en optimisation des moteurs de recherche, en apprentissage automatique ou en programmation de noyaux GPU avec CUDA - des emplois que l’on n’aurait jamais pu imaginer à l’époque des forgerons. Ainsi, tandis que certains emplois disparaissent, d’autres apparaissent. Cela ne diminue en rien la douleur réelle que peuvent causer de telles transitions, mais habituellement, au fl du temps, nous nous adaptons et prospérons grâce au progrès technologique.
« Le défi consiste toutefois à la répartition équitable de ces technologies - et, par extension, de la richesse - afin qu’elles ne soient pas concentrées entre les mains d’un petit nombre de personnes. » - Jeff Clune
Il y a des raisons de croire que la situation actuelle pourrait être bien différente, car l’IA pourrait devenir aussi compétente que l’humain pour exécuter de nombreuses tâches financièrement intéressantes, si ce n’est la plupart d’entre elles. Cela pourrait résulter en beaucoup plus d’emplois perdus qu’ils n’en seront créés.
Il y aura des répercussions économiques majeures dans tous les domaines. Qu’arrivera-t-il lorsque nous réaliserons l’intelligence artificielle générale, c’est-à-dire une IA qui peut faire presque tout aussi bien que les humains? Pourrions-nous en arriver à un point où la richesse et le PIB seraient véritablement infinis, tout le travail étant effectué par l’IA? À quoi cela ressemblerait-il? Peut-être aurons-nous plus de temps à consacrer aux loisirs et à nos intérêts. J’aime faire de l’escalade, peut-être que je pourrai m’y adonner davantage pendant que l’IA fera mon travail à ma place.
Le défi consiste toutefois à la répartition équitable de ces technologies - et, par extension, de la richesse - afin qu’elles ne soient pas concentrées entre les mains d’un petit nombre de personnes. Nous pouvons espérer que
tout deviendra moins cher et que nous aurons un monde plus abondant. Bien entendu, cela ne tient pas compte de
nombreux risques et inconvénients existentiels importants.Mais si nous faisons bien les choses, nous pourrions nous en sortir beaucoup mieux, avec de meilleurs soins de santé, une meilleure éducation, de l’eau plus propre... la liste est longue.
Sam Altman a écrit sur un avenir où la loi de Moore s’appliquera à tout, la technologie réduisant de moitié le coût de tout ce dont nous avons besoin pour vivre toutes les quelques années. Je pense que c’est une façon intéressante de réfléchir à la question. À mesure que tout deviendra plus abordable, peut-être aurons-nous plus de ce que nous voulons, à condition de partager, de bien faire les choses et de veiller à ce que l’IA puissante soit sûre et profite à tout le monde. Il s’agit là d’un défi de taille pour la société, mais qui pourrait s’avérer extrêmement payant.
En bref, les enjeux sont très importants pour la société qui doit veiller au bon développement de l’intelligence artificielle générale.