L'énergie consommée par l'intelligence artificielle de Google peut atteindre des niveaux comparables à celle de l'ensemble de l'Irlande. Vous l'avez lu dans le titre, je le répète ici : les chiffres parlent d'eux-mêmes. À mesure que l’IA évolue et se développe, l’industrie est confrontée à un défi énergétique prohibitif.
Plus les entreprises technologiques continueront à développer et à intégrer l’IA dans une large gamme de services, du simple moteur de recherche aux applications les plus complexes, plus la consommation énergétique associée deviendra un enjeu crucial. La question est : comment s’en sortir ?
L’essor des puces IA personnalisées
La tendance est claire et croissante : les sociétés d’IA développent leurs propres puces pour répondre à des demandes système de plus en plus exigeantes. Les géants aiment Google e Amazon ils ont déjà leurs propres puces IA personnalisées. Et ils ne sont pas les seuls : des rumeurs persistantes circulent selon lesquelles Microsoft pourrait dévoiler son matériel de puce le mois prochain.
Microsoft lui-même a également investi massivement dans OpenAI, qui, selon certaines sources, en serait aux premiers stades du développement de ses propres puces ou envisagerait d'acquérir une entreprise de semi-conducteurs pour les fabriquer.
Mais qu’est-ce que tout cela signifie pour notre planète ? Ça veut dire qu'il sera là une augmentation significative dans l’empreinte énergétique de l’industrie de l’IA.
L'empreinte énergétique de l'industrie de l'IA
Je vais le dire simplement : si l'IA générative est intégrée à chaque recherche Google, la demande énergétique de l'entreprise atteindra des sommets incroyables. Dans un article publié sur Joule (je mets le lien ici), les chercheurs estiment que l’intégration d’un chatbot similaire à ChatGPT dans chaque recherche que Google demanderait jusqu'à 512,820 100 serveurs NVIDIA AXNUMX HGX. Traduit en chiffres ? Cela signifie au-delà 4 millions de GPU. Faites le calcul : avec une demande énergétique de 6,5 kW par serveur, la consommation électrique journalière serait de 80 GWh, la consommation annuelle serait de 29,2 TWh. Ce sont ceux de toute une nation comme l’Irlande.
Quand l’IA « boit » davantage
Les outils d'IA ont un phase de formation initiale suivi d'un phase d'inférence. Alors que la phase de formation est la plus gourmande en énergie et a jusqu'à présent fait l'objet de recherches sur la durabilité de l'IA, la phase d'inférence est celle où ces outils génèrent des résultats basés sur les données sur lesquelles ils ont été formés.
Cette phase, souvent négligée, mérite une attention absolue. Car cette phase va s’accroître considérablement, et finira par surclasser la précédente. Les estimations de la « faim énergétique » de divers systèmes d’intelligence artificielle doivent être révisées.
Nous ne pouvons pas nous permettre d'ignorer l'énergie consommée par ces systèmes, le progrès technologique et la responsabilité environnementale doivent être équilibrés : ce n'est qu'ainsi que nous pourrons donner à la technologie une réelle chance d'améliorer notre avenir.