Quelle sera l’empreinte environnementale des futurs systèmes d’IA?
(source: Mojahid Mottakin / Unsplash)
- L’impact environnemental des futurs robots de type ChatGPT serait encore grandement sous-estimé. On sait toutefois que ces agents conversationnels vont consommer énormément d’électricité et d’eau.
- Pour l’instant, les estimations sont gardées plus ou moins secrètes par les entreprises d’intelligence artificielle. Voici les premiers chiffres connus.
En janvier, lors du Forum économique mondial, le président d’OpenAI Sam Altman a reconnu que la prochaine vague des systèmes d’intelligence artificielle va consommer beaucoup plus d’énergie que prévu.
- Cette consommation pourrait générer, dans certains coins de la planète, une crise de l’énergie.
En 2022, une équipe de chercheurs de Facebook qualifiait déjà l’impact environnemental de l’IA «d’éléphant dans la pièce».
S’il faut des quantités de serveurs informatiques pour faire fonctionner un moteur de recherche, il en faudra davantage pour faire fonctionner les ChatGPT d’OpenAI, Bing de Microsoft et Bard de Google.
En plus de l’électricité, d’importantes quantités d’eau seront nécessaires pour refroidir ces équipements informatiques.
Premiers chiffres
Une poursuite déposée par des résidents de Des Moines, en Iowa, a permis d’apprendre que le centre des données où OpenAI a «entraîné» GPT-4 avait, en juillet 2022, consommé 6% de l’eau de l’ensemble du comté.
Selon les rapports environnementaux de Google et de Microsoft, les deux compagnies ont vu leur utilisation d’eau augmenter respectivement de 20% et de 34% en un an.
En octobre dernier, des chercheurs de Californie et du Texas estimaient qu’en 2027, la demande en eau de l’ensemble de l’industrie de l’IA pourrait représenter la moitié de la demande en eau du Royaume-Uni.
Enfin, selon une estimation de la chercheuse de l’Université de Californie du Sud Kate Crawford:
- Une recherche Internet réalisée par un agent conversationnel nécessiterait 4 à 5 fois plus d’énergie qu’une recherche «conventionnelle» sur Google.
- Si la tendance se maintient, les futurs systèmes d’IA «vont probablement avoir besoin d’autant d’énergie que des pays complets».
Comment atténuer cet impact?
L’industrie pourrait bâtir des systèmes d’IA moins énergivores et repenser l’aménagement de ses centres de données pour les rendre plus économes en électricité. Toutefois, selon Kate Crawford, on ne sent pas cette volonté à l’heure actuelle: le plus gros des efforts est plutôt dirigé vers la mise en marché la plus rapide possible des futurs systèmes.