Notebookcheck Logo

L'IA et sa consommation d'énergie : un problème parmi d'autres

Beaucoup d'efforts pour un rendement parfois très raisonnable : l'intelligence artificielle. (Image : pixabay/viarami)
Beaucoup d'efforts pour un rendement parfois très raisonnable : l'intelligence artificielle. (Image : pixabay/viarami)
Ce n'est certainement pas un secret que ChatGPT et d'autres systèmes d'IA sont gourmands en énergie. Et lorsque Sam Altman, PDG d'OpenAI, admet que cela pourrait devenir un problème, cela vaut certainement la peine de faire des calculs et de se tourner vers l'avenir.

ChatGPT consomme actuellement l'électricité de 33 000 ménages. 70 000 ou 80 000 personnes pourraient utiliser cette énergie pendant une année entière.

Cependant, les plans d'OpenAI sont bien sûr basés sur un avenir similaire à celui de Google. Ses requêtes de recherche peuvent à elles seules générer une quantité considérable d'énergie.

Selon diverses sources, qui se réfèrent toutes à un chiffre un peu plus ancien, 0,3 Wh est utilisé par requête de recherche - 8,5 milliards de requêtes de recherche par jour dans le monde.

Cela représente un total de près d'un térawattheure par an rien que pour traiter les requêtes de recherche. Si vous extrapolez ce chiffre aux ménages, cela représente déjà 90 000 à 100 000. C'est la consommation d'électricité des ménages de Reno ou de Buffalo.

Néanmoins, le chiffre pour Google, qui est encore clairement gigantesque, n'est que trois fois plus élevé que pour ChatGPT. Et dans les deux cas, il s'agit d'un aspect de l'entreprise dans son ensemble.

Selon les données de l'entreprise Google, la consommation totale est en fait de 6 térawattheures, soit 6 fois plus que les requêtes de recherche elles-mêmes. Toutefois, il s'agit d'une consommation mondiale. Si vous prenez la consommation totale d'électricité aux États-Unis, par exemple, ce chiffre correspond à un peu plus de 0,1 %.

Or, l'OpenAI parle d'un facteur de 4 à 5 par requête de recherche. En outre, le nombre de requêtes de recherche double toutes les quelques années.

Ainsi, si le volume de recherche actuel était traité par ChatGPT et ses concurrents, la valeur utilisée pour Google pourrait facilement être multipliée par cinq.

Cela représenterait 30 térawattheures. L'ensemble de Los Angeles, avec ses 4 millions d'habitants, peut se contenter de cette quantité d'électricité. En revanche, 30 TWh ne représentent qu'une infime partie de la production mondiale d'énergie, mais correspondent à l'utilisation mondiale de l'IA.

Et pourtant : si le développement progresse de manière générale, les requêtes de recherche ne seront plus traitées que par l'IA à l'avenir et si le nombre continue d'augmenter au même rythme, il sera plus proche de 60 ou 100 TWh. Le potentiel d'économie semble donc indéniable.

Bien sûr, la technologie peut aussi être utilisée pour économiser de l'électricité. Si j'obtiens de meilleurs résultats de recherche, je n'ai pas besoin de cliquer sur quatre ou cinq sites web, je peux simplement cliquer sur le premier. Je peux générer une photo sans avoir à la créer et à la modifier moi-même. Je peux éditer des documents avec des collègues et des amis sans être sur place, ce qui, bien sûr, permet également d'économiser de l'énergie (bien qu'aucune IA ne soit nécessaire pour cela).

Néanmoins, il est important de sensibiliser les gens au fait que l'IA peut et doit être rendue plus efficace. Se contenter de croire qu'il y a suffisamment d'énergie bon marché disponible pourrait s'avérer une erreur bien trop commode.

À cet égard, l'appel au réveil de Sam Altman est un bon signal. Son projet d'utiliser la fusion nucléaire https://www.energytrend.com/news/20230511-31989.htmlpour tout équilibrer, en revanche, semble plutôt naïf.

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 02 > L'IA et sa consommation d'énergie : un problème parmi d'autres
Mario Petzold, 2024-02-22 (Update: 2024-02-22)