dimanche, mai 19

L’IA, vorace en énergie, va-t-elle faire flamber la facture énergétique ?

Générer une image via Dall-E ou MidJourney consommerait autant d’énergie que de recharger entièrement son smartphone : c’est ce que montre une nouvelle étude réalisée par des chercheurs de l’université Carnegie Mellon et la jeune pousse de l’intelligence artificielle (IA) Hugging Face. Très gourmands en données, les nouveaux modèles d’IA générative font rapidement grimper la facture énergétique.

L’Agence internationale de l’énergie prévoit ainsi que la quantité d’énergie requise pour faire fonctionner l’IA va doubler d’ici 2026. Une inflation qui s’explique notamment par l’entrée sur le marché de nouvelles puces plus puissantes pour entraîner et faire tourner les grands modèles de langage (LLMs), piliers de l’IA générative.

« Avec le passage à sa nouvelle architecture Blackwell, Nvidia propose une puissance de calcul entre trois et dix fois plus rapide par rapport à l’architecture Hopper précédente, en fonction du type de calcul mathématique. La contrepartie, c’est que les nouvelles puces consomment chacune 1 200 watts, contre 700 auparavant », affirme Alex McMullan, directeur technique monde de Pure Storage, spécialiste américain du stockage informatique. Selon lui, « d’ici deux ans, l’intelligence artificielle pourrait consommer autant d’énergie que les Pays-Bas. »

Des centres de données soumis à forte pression

Face à cette demande croissante, les centres de données, où tournent les processeurs nécessaires au fonctionnement de l’IA, se trouvent face à une équation difficile, en devant à la fois répondre à la gourmandise exponentielle des acteurs de l’IA tout en accroissant leur efficience énergétique pour répondre aux réglementations mondiales allant dans ce sens. Ainsi, selon Alex McMullan, « les centres de données existants n’ont pas les capacités suffisantes pour absorber les besoins énergétiques estimés de l’intelligence artificielle dans les années à venir. » Il faut donc en construire davantage, ce à quoi les acteurs de l’IA s’attellent à un rythme frénétique.

Mais les progrès de l’IA ne requièrent pas seulement de construire tous azimuts : la technologie existante au sein des centres de données doit également s’adapter à cette nouvelle donne technologique. En particulier, les processeurs de Nvidia, plus puissants, chauffent également davantage que le matériel informatique des générations précédentes, créant des îlots de chaleur au sein des centres de données, très difficiles à gérer avec les ventilateurs traditionnellement employés. Le refroidissement liquide, une technologie qui permet de refroidir localement, mais était traditionnellement peu employée, car très coûteuse, est dans ce contexte en train de s’imposer, selon Alex McMullan.

« La technologie Blackwell de Nvidia vient stimuler l’adoption du refroidissement liquide dans les centres de données. Pour l’heure cantonnée aux clusters d’IA les plus avancés, car coûteuse et nécessitant une maintenance plus complexe, cette méthode devrait devenir la norme dans tous les centres de données à un horizon de dix ans. »

Lire aussiIA : ChatGPT visé par une nouvelle plainte pour diffuser de fausses informations sur les individus et ne pas les corriger

Profitez de notre offre imbattable - achetez maintenant!

Pour des centres de données plus verts

Face à cette difficile équation, les constructions de centres de données dans les pays nordiques se multiplient : une grosse partie de l’énergie consommée par ceux-ci étant consacrée à refroidir les serveurs informatiques, le fait d’opérer dans un climat froid permet de réduire la facture.

Les géants de l’IA, de leur côté, s’efforcent de mettre la main sur des technologies leur permettant d’alimenter leurs centres de données à l’énergie renouvelable. Sam Altman, le dirigeant d’OpenAI, vient ainsi de participer à un tour de financement de 20 milliards de dollars dans la jeune pousse Exowatt, qui a mis au point une technologie pour fournir les centres de données en énergie solaire. Microsoft, de son côté, s’investit pour accélérer la construction de nouvelles centrales nucléaires, susceptibles d’alimenter les centres de données en énergie décarbonée.

Une autre piste pour limiter la facture carbone de l’IA consiste à optimiser le fonctionnement des processeurs utilisés. « Durant l’entraînement des grands modèles de langage, les processeurs ne travaillent qu’entre 30 et 50 % du temps, mais durant les périodes où ils ne sont pas actifs, ils consomment tout de même de l’énergie. Il y a donc un gros travail à faire pour surveiller et optimiser le fonctionnement de ce matériel, Meta accomplit un gros travail là-dessus, rendu open source pour que le reste de l’industrie puisse l’utiliser », explique Alex McMullan.

Enfin, des chercheurs s’efforcent également d’utiliser l’IA pour optimiser l’entraînement des algorithmes en limitant au maximum les opérations inutiles. « Utiliser ce type de technique permet de réduire de près de 80 % l’énergie nécessaire pour entraîner un modèle de haute qualité », affirme Vijay Gadepally, directeur technique de Radium, une entreprise spécialisée dans l’IA.

Lire aussiOrange se lie à Google pour développer l’IA générative dans son réseau

Vers des modèles d’IA transparents en matière d’impact carbone ?

Mais au-delà de ce travail d’optimisation, il est également nécessaire de penser de manière pragmatique l’usage que nous faisons de l’IA, ce qui ne peut se faire que via une plus grande transparence de l’impact carbone de ces modèles, selon Sasha Luccioni, chercheuse en intelligence artificielle chez Hugging Face qui a conduit l’étude menée avec la Carnegie Mellon.

« Utiliser un modèle génératif multitâches pour une activité donnée, comme répondre à une question, peut consommer jusqu’à 30 fois plus d’énergie que si l’on utilise un modèle entraîné spécifiquement pour cette activité. Avec le nombre croissant d’outils d’IA générative disponible, la facture grimpe rapidement », affirme-t-elle. De quoi se poser des questions, à l’heure où les entreprises souhaitent introduire les grands modèles de langage partout, de la recherche internet au tourisme.

« En tant qu’utilisateurs, nous méritons une certaine transparence quant à la consommation d’énergie et les émissions carbone de la technologie que nous utilisons, depuis les recherches sur le web jusqu’aux chabots et à la génération d’images. Tout à un coût et nous devons connaître celui-ci pour prendre des décisions informées. Il y a déjà quelques progrès allant dans cette direction, notamment grâce à l’IA Act. »

La chercheuse travaille pour sa part sur un projet constituant à donner une note sous forme d’étoiles aux différents modèles d’IA disponibles, qui puisse permettre aux utilisateurs de savoir facilement quel est l’impact énergétique des systèmes qu’ils utilisent. L’entreprise Salesforce a de son côté récemment plaidé pour des régulations obligeant les entreprises de l’IA à donner de manière transparente les émissions de CO2 de leurs systèmes.

Discutez de vos besoins avec notre analyste

Veuillez partager vos exigences avec plus de détails afin que notre analyste puisse vérifier s'il peut résoudre votre ou vos problèmes

Lien source : L’IA, vorace en énergie, va-t-elle faire flamber la facture énergétique ?