Notebookcheck Logo

L'industrie de l'IA est en passe de devenir l'un des principaux responsables des émissions de carbone, selon un expert en développement durable des technologies de l'information

Les charges de calcul plus élevées des modèles d'IA se traduisent par une consommation d'énergie plus importante dans les centres de données (Image Source : rawpixel)
Les charges de calcul plus élevées des modèles d'IA se traduisent par une consommation d'énergie plus importante dans les centres de données (Image Source : rawpixel)
L'industrie de l'IA pourrait bientôt devenir l'une des plus grandes sources d'émissions de carbone et entraîner une augmentation de la production de déchets électroniques et de la consommation d'eau, selon un article de la MIT Sloan Management Review rédigé par Niklas Sundberg, un expert en durabilité dans le domaine de la technologie. Il souligne la forte consommation d'énergie liée à la formation des LMM comme ChatGPT, à la réponse aux requêtes individuelles et au maintien des grands centres de données qu'ils requièrent.

Un article publié dans la MIT Sloan Management Review a révélé que l'industrie de l'IA est susceptible de devenir l'un des plus grands contributeurs aux émissions de carbone mondiales émissions mondiales de carboneainsi que d'autres types de coûts environnementaux tels que la production de déchets électroniques et l'utilisation excessive d'eau. L'empreinte carbone de l'IA est beaucoup plus élevée que celle des systèmes informatiques conventionnels : une seule requête ChatGPT peut générer 100 fois plus de carbone qu'une recherche Google classique. Cette empreinte est également s'accroît rapidementla puissance de calcul nécessaire à l'entraînement de l'IA double en moyenne tous les 3,4 mois.

Niklas Sundberg, l'auteur, souligne plusieurs domaines dans lesquels l'impact de cette nouvelle industrie se fait sentir.

La consommation d'énergie de l'industrie informatique est déjà massive. Les centres de données et les réseaux de transmission représentent 1 à 1,5 % de la consommation mondiale d'électricité et 0,6 % des émissions mondiales de carbone. Un centre de données moyen consomme chaque année suffisamment d'énergie pour chauffer 50 000 foyers. Les grands modèles de langage (LLM) tels que ChatGPT nécessitent une puissance de calcul considérablement plus importante, à la fois pour l'entraînement initial et pour répondre aux requêtes. Par exemple, la formation de ChatGPT a consommé à elle seule environ 1,3 gigawattheure d'énergie (soit l'équivalent de la consommation annuelle de 120 ménages américains moyens) et a généré 552 tonnes d'émissions de carbone (soit l'équivalent des émissions annuelles de 120 voitures américaines). Le GPT-4 devrait être environ 10 fois plus grand, et plusieurs concurrents sont en train d'entrer sur le marché.

La consommation d'eau dans les centres de données est un autre sujet de préoccupation. Les centres de données ont besoin de grandes quantités d'eau pour le refroidissement, et ces besoins augmenteront avec l'accroissement des exigences de stockage et de calcul des modèles d'IA complexes. Microsoft et Google ont fait état d'une augmentation de 34 % et 20 % respectivement de leur consommation d'eau entre 2021 et 2022, ce qui est lié au développement de leurs technologies d'IA.

Outre la consommation d'énergie, la production et l'élimination du matériel sur lequel fonctionnent les systèmes d'IA posent également problème. D'ici à 2050, le volume annuel de déchets électroniques devrait doubler pour atteindre 120 millions de tonnes. À peine 20 % de ces déchets sont recyclés.

La solution n'est évidemment pas d'abandonner complètement l'IA, mais plutôt de suivre certaines bonnes pratiques pour une IA durable, que Sundberg appelle les trois R : relocaliser, redimensionner et réarchitecturer.

  • Larelocalisation tient compte du fait que certains sites ont un accès plus facile et moins coûteux aux sources d'énergie renouvelables, et qu'une relocalisation stratégique peut donc réduire les émissions de carbone de 1,4 à 2 fois.
  • Rightsize fait référence à l'utilisation de processeurs et de systèmes conçus spécifiquement pour la formation à l'apprentissage automatique et les charges de travail d'IA, plutôt que des serveurs polyvalents. Cela peut augmenter les performances et l'efficacité de 2x à 5x.
  • Réarchitecturer signifie sélectionner une architecture de modèle d'apprentissage automatique appropriée et efficace, telle qu'un modèle clairsemé, qui peut améliorer les performances tout en réduisant la charge de calcul de 3 à 10 fois.

Ces mesures, associées à une gestion efficace des données, à la conformité et à une sensibilisation accrue des employés, des clients et du grand public, peuvent contribuer à la création d'un écosystème d'IA plus durable. Les questions du changement climatique et de la dégradation de l'environnement étant abordées sur de nombreux fronts, il est judicieux de commencer à les prendre en compte dans l'industrie de l'IA alors qu'elle est encore en pleine croissance, plutôt que d'avoir à mettre en œuvre des changements rétroactivement.

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2023 12 > L'industrie de l'IA est en passe de devenir l'un des principaux responsables des émissions de carbone, selon un expert en développement durable des technologies de l'information
Vishal Bhardwaj, 2023-12-14 (Update: 2023-12-14)