Hier, nous avons couvert le rapport de Google selon lequel une requête typique à son Gemini Ai ne consomme que «cinq gouttes d’eau». Ce chiffre fait maintenant face à la critique de plusieurs experts de l’IA, selon The Verge… et cela comprend l’un des auteurs de l’un des rapports mentionnés par Google.
Le chercheur de l’IA Shaolei Ren – un professeur à l’Université de Californie Riverside et l’un des auteurs du rapport Faire de l’IA moins «assoiffée»: découvrir et répondre à l’empreinte secrète de l’eau des modèles d’IA—Sévalué que le centre de données de Microsoft a consommé 700 000 litres d’eau pour former le modèle GPT-3 d’OpenAI. Il a également calculé qu’une conversation Chatgpt de 20 à 50 messages peut consommer près d’une pinte d’eau, ce qui est bien plus que l’estimation de Google.
Ren et d’autres chercheurs d’IA soutiennent que Google a tort de laisser de côté la consommation d’eau indirecte de ses modèles d’IA. Les chiffres de Google ne mentionnent que l’eau utilisée pour refroidir ses centres de données tout en ignorant la consommation d’eau des centrales électriques qui fournissent les centres de données en électricité. « Les cinq gouttes de Google par requête sont juste la pointe de l’iceberg », explique le chercheur en durabilité Alex de Vries-Gao.
Les experts critiquent également les chiffres de Google sur les émissions de carbone des modèles d’IA. Google aurait utilisé des chiffres d’émissions basés sur le marché et pourrait donc exclure les certificats d’électricité et les crédits de carbone. La figure ne montre donc pas à quel point les modèles AI émettent réellement de CO2.











