Par: Kathleen Sandusky
25 Sep, 2023
Un nouveau rapport publié aujourd’hui par le CIFAR, intitulé Vers l’évaluation et l’atténuation de l’impact environnemental des grands modèles de langues, décrit les mesures que les responsables de politiques devraient prendre pour mesurer et limiter les impacts environnementaux des grands modèles de langues (GML) à chaque étape de leur cycle de vie, de la fabrication des processeurs graphiques utilisés pour leur entraînement à leur déploiement dans les produits et les services.
Les récentes avancées des modèles d’IA ont pris le monde d’assaut : elles ont touché presque tous les secteurs d’activité et entraîné leur adoption enthousiaste par les consommateurs et les entreprises. De nouveaux outils tels que GPT-4 ont été consultés des dizaines de millions de fois dans les mois qui ont suivi leur lancement. Les impacts sociétaux et économiques complexes de l’IA générative qui utilise les GML vont certainement s’accroître à mesure que de nouveaux modes d’utilisation seront découverts. Toutefois, l’impact de ces technologies sur le climat n’a guère été abordé, bien qu’il risque lui aussi de croître de manière exponentielle en l’absence d’une réponse immédiate et ciblée des gouvernements, des organismes de réglementation, de l’industrie et des consommateurs.
L’auteure du rapport est Sasha Luccioni, une chercheuse basée à Montréal qui a effectué des études postdoctorales à Mila, l’un des trois instituts nationaux d’IA du Canada créés dans le cadre de la Stratégie pancanadienne en matière d’IA au CIFAR. Sasha Luccioni dirige aujourd’hui la recherche sur l’IA et le climat chez Hugging Face, une entreprise internationale basée à New York qui vise à démocratiser l’apprentissage automatique au moyen des logiciels libres et de la science ouverte. En juin 2022, Hugging Face faisait partie du consortium scientifique mondial qui a publié BLOOM, un GML qui se distingue des autres modèles de type GPT par le fait qu’il est offert en libre accès, qu’il est multilingue et qu’il mesure systématiquement les impacts de son développement sur le climat. BLOOM fait l’objet d’une étude de cas dans le rapport.
En plus de présenter des résultats récents concernant l’empreinte carbone de différents modèles d’IA et des processus de pré-entraînement et de réglage fin, le rapport fournit aux responsables de politiques, aux organismes de réglementation ainsi qu’aux développeurs et développeuses des recommandations pratiques sur les mesures à prendre pour assurer la durabilité des modèles d’IA tout au long de la recherche et du développement. Plus important encore, il propose des stratégies pour évaluer non seulement l’empreinte carbone des données d’entraînement, mais aussi les ressources nécessaires aux modèles à tous les stades de leur cycle de vie. Cela comprend la consommation d’énergie pendant l’entraînement et le déploiement, l’extraction des métaux rares et la fabrication du plastique nécessaires à la création du matériel, ainsi que la quantité d’eau nécessaire au refroidissement des centres de données qui font fonctionner les modèles.
« À mesure que les GML seront déployés dans des applications et des outils destinés aux utilisateurs, il sera important de prendre des décisions éclairées concernant des facteurs tels que la durabilité et l’efficacité, déclare Sasha Luccioni. En tant que chercheuse, je suis enthousiaste à l’idée que le pouvoir de transformation des GML contribue à faire progresser la science et la société. Mais nous ne pouvons pas laisser notre enthousiasme éclipser le besoin urgent d’atténuer leurs impacts sur le climat, qui pourraient être immenses si les modèles sont développés sans surveillance. »
Le rapport Vers l’évaluation et l’atténuation de l’impact environnemental des grands modèles de langues a été publié aujourd’hui par le CIFAR. Il a été rédigé par Sasha Luccioni, chercheuse chez Hugging Face.
Pour de plus amples renseignements, veuillez communiquer avec :
Gagan Gill
Responsable de programme, IA et société, CIFAR
À propos de Réflexions sur l’IA du CIFAR
Réflexions sur l’IA du CIFAR est une série d’exposés de politiques qui invite des spécialistes interdisciplinaires à rédiger des synthèses accessibles sur les implications pratiques, sociétales et politiques de l’IA et des nouvelles technologies. Ces exposés visent à accroître le leadership intellectuel du Canada sur des questions importantes pour les responsables politiques, les scientifiques, les autorités de réglementation et les autres instances désireuses d’étudier et de pallier les répercussions sociétales de l’IA.
À propos de la Stratégie pancanadienne en matière d’IA du CIFAR
La Stratégie pancanadienne en matière d’IA du CIFAR stimule la recherche de pointe, forme la prochaine génération de leaders en IA d’origines et de disciplines diverses et favorise la collaboration intersectorielle axée sur l’innovation, la commercialisation et l’adoption responsable de l’IA. Nos trois instituts nationaux d’IA – Amii à Edmonton, l’Institut Vecteur à Toronto et Mila à Montréal – constituent les pôles dynamiques de l’écosystème florissant de l’IA au Canada. Financés par le gouvernement du Canada, nous bâtissons une communauté de recherche dynamique, représentative et talentueuse de renommée mondiale qui vise à créer des solutions d’IA transformatrices et responsables, et ce, pour les personnes et la planète.