Nous avons maîtrisé le pouvoir de l'IA
afin de rendre la vie plus facile et rapide.
Tandis qu'on emploie l'IA au quotidien,
on entend parler toujours plus de l'avenir du travail.
Alors qu'on confie de plus en plus de tâches aux machines et aux logiciels
on se préoccupe pour la sécurité d'emploi.
L'IA comporte son lot de défis.
Un des défis faisant le plus couler d'encre
est l'idée que les ordinateurs vont remplacer la main-d’œuvre humaine.
Cependant, on a déjà assisté à une évolution de la main-d’œuvre.
Et malgré ce qu'on pourrait croire,
l'automatisation généralisée n'est pas une menace.
En fait, même si certains postes disparaissent,
de nouveaux postes sont créés.
Prenons cet exemple intéressant :
la crainte que les guichets automatiques remplacent les caissiers.
Alors qu'en réalité, grâce aux guichets,
ouvrir de nouvelles succursales devient plus économique
et on peut engager de nouveaux employés.
Les humains savent bien comment se rendre utiles.
En songeant à l'avenir du travail,
il ne s'agit pas tant de savoir si l'IA va remplacer les travailleurs,
mais plutôt de savoir comment les aider dans un marché en évolution.
Il faudra identifier les compétences actuelles à promouvoir
et les nouvelles compétences qui seront requises.
De nouveaux postes seront sûrement créés,
mais les formations requises n'existent peut-être pas.
Donc, l'aspect politique sera important.
L'avenir du travail n'est qu'une problématique parmi tant d'autre
et les gouvernements cherchent déjà des solutions.
C'est ici qu'interviennent les décideurs politiques
pour examiner l'impact de l'IA sur notre vie socioéconomique.
DÉFIS DE POLITIQUES
Un des défis majeurs dans le contexte de l'IA
est la confidentialité.
L'IA donne lieu à une lutte entre confidentialité et performance.
Plus l'IA possède d'informations sur vous,
plus ses décisions sont précises.
Les gens ne devraient pas craindre les algorithmes,
mais ils devraient remettre en question leurs fins.
Avez-vous parfois l'impression qu'Instagram lit dans vos pensées ?
C'est parce qu'un algorithme recueille vos données
et prédit ce qui pourrait vous plaire.
Et beaucoup de données peuvent être collectées.
Nous partageons continuellement nos données personnelles
simplement en interagissant avec l'IA. 47 00:02:59,875 --> 00:03:02,583 Chaque fois que nous cliquons sur une manchette
ou que nous utilisons Google,
nous fournissons des données sur nos intérêts ou notre emplacement. 50 00:03:09,125 --> 00:03:12,458 Et puisque l'IA se développe à une vitesse folle,
nos lois en matière de confidentialité sont quelque peu démodées.
Cela signifie que les compagnies peuven analyser et partager des données,
souvent à notre insu.
Et la façon dont elles sont utilisées
peut influencer nos choix politiques et nos actions.
Les gens doivent comprendre que leurs données sont très utiles
aux gouvernements et aux compagnies.
Si vous aimez des publications avec un certain penchant politique,
vous devez savoir que le site utilisera ces données
pour manipuler le contenu
et vous montrez des articles qui correspondent à ce penchant.
Alors que de plus en plus de données sont regroupées
et même parfois envoyées à l'étranger,
nous devons être davantage conscients de qui en bénéficie et à quel endroit.
Le thème de la confidentialité soulève des questions sur l'impact de l'IA,
pas seulement sur la collecte de données,
mais aussi sur son analyse.
Comme nous le savons, l'Homme est loin d'être parfait.
Mais ces imperfections peuvent être transmises à nos machines.
Cela nous mène à un autre défi auquel font face les chercheurs :
les biais.
Les systèmes actuels sont de petites unités spécialisées
qui réalisent très bien une seule chose.
Le hic, c'est que cela dépend de comment nous les formons
et des données fournies.
Donc, on a déjà vu des systèmes d'IA
qui développaient des préjugés raciaux ou de sexe.
Quand je choisis de collecter des données
à propos d'une maladie affectant une population précise,
j'imbrique mes propres préjugés dans ces choix.
À quel moment je pose la question et quelles questions je pose,
en passant par les données que j'enregistre et à quelle fréquence,
à propos de quelles maladies...
Tous ces choix font en sorte que
certaines maladies soient sur ou sous-représentées,
ou totalement mal interprétées.
Si les données sont biaisées par nos préjugés,
les systèmes peuvent perpétuer ces préjugés.
Il faut faire attention aux données collectées
et à la façon dont nous construisons le système.
Les modèles qui sont construits à base de suppositions
vont assimiler certaines relations plus fréquemment ou efficacement.
Un modèle populaire utilise du texte pour faire des liens entre les mots.
C'est de cette façon que Gmail recourt à la saisie automatique.
Plutôt utile, non ?
Ils fonctionnent très bien pour la saisie automatique.
On dirait qu'ils raisonnent bien à propos des relations humaines,
mais on les entraîne à partir de textes écrits par les humains.
Cela peut vouloir dire des données provenant du Web.
Alors ils vont apprendre des relations comme :
« homme » versus « femme » ,
« roi » versus « reine » ,
« programmeur » versus « femme au foyer » .
Dans un contexte clinique, nous étudions la saisie automatique,
et à partir du même modèle de prise de notes, par exemple :
« patient (blanc) de quarante-deux ans
souffrant de démence,
devrait être (blanc) » .
Donc, il y a deux blancs ici.
On peut changer le sexe et regarder ce qui est suggéré.
On peut changer la nationalité et regarder ce qui est suggéré.
On a donc observé qu'il y a des différences immenses
dans les symptômes anticipés,
dans les résultats ou les interventions recommandées
si on modifie l'ethnicité.
Si on observe qu'un patient caucasien
est agressif ou hostile,
on va nous recommander qu'il reçoive plus de soins.
Mais s'il s'agit d'un patient afro-américain hostile,
notre modèle adopte tous ces préjugés,
et on nous recommande le mot "prison".
Un tel cas démontre que des données biaisées
peuvent mettre en danger la sécurité d'une personne.
Il y a eu beaucoup de discussions sur les défis liés à la sécurité,
sur le fait que les systèmes pourraient nuire aux humains.
Un exemple typique concerne les voitures autonomes.
J'ai lu une histoire récemment où
une voiture percute quelqu'un qui surgit de derrière une boîte à lettres.
Considérant les données que la voiture reçoit normalement,
elle n'aurait jamais considéré une telle possibilité.
Alors quand quelqu'un surgit ainsi pour la première fois,
elle ne réagit pas adéquatement.
Je tiens à préciser que ces voitures ne sont pas dangereuses.
Notre défi est qu'elles apprennent à gérer ces situations inattendues.
Les chercheurs les entraînent à mieux gérer ces situations.
Mais le problème des biais est lié à un autre problème :
l'éthique.
Nous dépendons de l'IA pour beaucoup de choses :
des prévisions du marché boursier au tri des courriels.
Le défi survient si on s'attend à ce que les machines
prennent des décisions sans supervision humaine.
L'éthique fait référence à une utilisation responsable de l'IA.
Cela implique déterminer quand et comment l'IA prendra des décisions,
ou si nous devrions employer ces systèmes tout court.
L'éthique fait partie des discussions autour des voitures autonomes.
Quand compter sur elles pour faire des choix ?
Sur quelles valeurs reposent ces choix
Pour les systèmes de conduite automatisée,
les gens demandent toujours :
« Mais qu'est-ce que l'algorithme va faire
s'il a le choix entre tuer une personne âgée ou un bébé ? »
Et vous, que feriez-vous ?
Si vous aviez une seconde de réflexion, que feriez-vous ?
De bien des façons,
nous n'avons pas encore défini ce qu'es un comportement humain éthique.
Dans le contexte de l'IA, cela soulève plusieurs questions.
Si une voiture autonome enlevait la vie à un humain,
de qui est-ce la faute ?
Si un système renforce une inégalité, qui est responsable ?
Il s'agit là du défi de la responsabilité en IA.
Décider qui est responsable quand les choix des systèmes affectent
notre sécurité, nos biens, nos droits et nos libertés.
Il faut rester vigilant
face aux politiques publiques,
face aux grandes sociétés privées qui ont autant de pouvoir.
Sans aucun doute, elles devraient être réglementées.
Elles ne devraient pas déterminer quel usage faire de ces outils
qui ont un tel impact sur les gens.
Il est difficile de saisir
toutes les conséquences qu'auront notre recherche.
Mais c'est important de s'impliquer dans ces procédures
et d'être très explicite quand on rédige ou qu'on programme
à propos des limitations de notre travail.
C'est pour cela que chercheurs et professionnels travaillent ensemble
sur le concept d'explicabilité,
schématisant le comment et le pourquoi derrière les décisions des machines.
Cela dit, l'humain ne peut pas toujours expliquer son propre comportement.
Au bout du compte, les décisions des gens sont souvent...
inexplicables, en apparence.
On ne peut pas expliquer ces opérations mentales.
Certains problèmes comme la confidentialité et la sécurité
préoccupent depuis longtemps les gouverments.
Mais à mesure que nous innovons,
les responsables des politiques devront tenir compte de l'IA
et s'assurer qu'elle est mise au service du bien commun.
De bien des façons,
cette technologie novatrice pourrait aider les humains à se dépasser.
Elle pourrait aider les gens à s'améliorer.
L'apprentissage automatique pourrait servir
à identifier les préjugés
et souligner les comportements humains à modifier
avant de les élever au rang de standards que l'on veut voir être reproduits.
COMPRENDRE L'IA ET LA SOCIÉTÉ