Sam Altman défend l’empreinte énergétique de l’IA face aux critiques enflammées
L’impact écologique des technologies d’intelligence artificielle suscite un débat de plus en plus vif. Alors que les interrogations se multiplient autour de l’empreinte carbone des systèmes génératifs, le dirigeant d’OpenAI prend position et défend son modèle économique face aux critiques environnementales.
Une prise de parole en marge du sommet indien
À l’occasion du sommet mondial sur l’IA organisé à New Delhi entre le 16 et le 20 février 2026, Sam Altman a accordé une interview au média The Indian Express. L’occasion pour lui de répondre aux accusations concernant la consommation énergétique massive de ses modèles.
Le PDG d’OpenAI a d’emblée balayé certaines allégations. Les chiffres faisant état de « dizaines de litres par requête » en matière de consommation d’eau seraient selon lui « complètement faux » et totalement déconnectés de la réalité opérationnelle.
Une métaphore qui fait débat
Pour justifier les besoins énergétiques liés à l’entraînement de ses intelligences artificielles, Sam Altman a établi une comparaison inattendue avec le développement humain. Il estime qu’« entraîner un être humain » nécessite une quantité considérable d’énergie.
Selon sa démonstration, il faut « vingt années de vie, de nourriture et d’apprentissage avant de devenir capable de répondre à des questions complexes ». Une analogie qui vise à replacer la phase d’entraînement des modèles dans une perspective différente.
L’inférence plutôt que l’apprentissage
Le dirigeant précise que la véritable comparaison devrait porter sur l’inférence, c’est-à-dire l’énergie consommée par une IA déjà formée pour répondre à une requête. Dans cette logique, un modèle d’intelligence artificielle serait aussi performant, voire supérieur, à un cerveau humain.
Cette vision suggère qu’une fois le système entraîné, son efficacité énergétique par réponse fournie rivaliserait avec celle d’un individu accomplissant la même tâche cognitive.
Des chiffres qui interpellent
Les données de l’Agence Internationale de l’Energie révèlent que les centres de données représentaient environ 4% de la consommation électrique planétaire en 2025. Un pourcentage en constante augmentation.
Une seule requête sur ChatGPT nécessiterait approximativement 0,34 Wh. Lorsqu’on multiplie ce chiffre par un milliard de requêtes quotidiennes, on atteint plus de 300 GWh par an.
Des ambitions énergétiques colossales
OpenAI ambitionnerait d’atteindre jusqu’à 250 GW de capacité énergétique d’ici 2033. Cette cible représente près de 20% de la production actuelle des États-Unis, un ordre de grandeur qui illustre l’ampleur des besoins futurs.
Face à ces projections, Sam Altman ne nie pas la consommation élevée. Il la replace toutefois dans le contexte d’une utilisation massive de l’IA à l’échelle mondiale, ce qui explique l’augmentation des besoins électriques.
Un appel aux énergies décarbonées
Le patron d’OpenAI plaide pour une accélération du développement du nucléaire et des énergies renouvelables. Une position qui vise à concilier innovation technologique et transition énergétique.
Cette stratégie suppose que la demande croissante en électricité des systèmes d’IA peut être satisfaite par des sources d’énergie à faible empreinte carbone.
Des voix critiques s’élèvent
La comparaison proposée par Sam Altman n’a pas convaincu tout le monde. Sridhar Vembu, co-fondateur de Zoho Corporation, a vivement réagi sur le réseau social X.
Il a qualifié la vision du dirigeant d’OpenAI de « dystopique » et « antisociale », refusant catégoriquement d’assimiler une technologie à un être humain. Cette prise de position illustre les tensions croissantes autour de l’impact environnemental de l’intelligence artificielle.



Laisser un commentaire