L’utilisation croissante des technologies d’intelligence artificielle, en particulier des modèles de chatbots tels que ChatGPT, suscite des préoccupations croissantes quant à leur impact environnemental. Selon plusieurs chercheurs, ces projets d’IA se révèlent être de véritables gouffres énergétiques.

L’empreinte carbone des chatbots comme ChatGPT et autres IA

Bloomberg a révélé que la simple mise à jour d’un modèle d’IA pourrait consommer autant d’énergie que 100 foyers américains pendant un an. Ces estimations ne cessent d’augmenter à mesure que les modèles d’IA se perfectionnent, accumulent des connaissances et occupent davantage d’espace sur les serveurs et les machines.

Prenons l’exemple de l’apprentissage du modèle GPT-3, un programme d’IA généraliste. Selon une recherche publiée en 2021, cet apprentissage aurait consommé 1287 gigawattheures, équivalant à l’électricité utilisée par environ 120 foyers américains pendant un an. De plus, il aurait généré 502 tonnes d’émissions de carbone, soit l’équivalent des émissions de 110 voitures américaines en un an. Cependant, il est important de noter que cet apprentissage initial ne représente qu’environ 40 % de l’énergie totale consommée par le modèle.

L’IA ne cesse d’évoluer et les modèles tels que GPT-3 utilisent désormais 175 milliards de paramètres, soit beaucoup plus que leurs prédécesseurs. Cette augmentation de taille et de complexité se traduit par une consommation énergétique plus importante. En outre, les modèles d’IA nécessitent des mises à jour régulières pour rester à jour avec les derniers événements mondiaux, ce qui accroît encore leur consommation énergétique. À titre d’exemple, OpenAI prépare déjà la sortie de GPT-4, qui pourrait nécessiter encore plus d’énergie.

L’empreinte énergétique globale de l’intelligence artificielle

Google, acteur majeur de l’IA, est également concerné par l’impact environnemental de ses projets. Des chercheurs de l’entreprise estiment que l’intelligence artificielle, tous projets confondus, représente entre 10 et 15 % de la consommation totale d’électricité de Google.

En 2021, cette consommation d’électricité s’élevait à 18,3 térawattheures. Selon leurs estimations, l’IA de Google brûlerait environ 2,3 térawattheures par an, soit l’équivalent de la consommation électrique d’une ville telle qu’Atlanta. Cependant, l’opacité des grandes entreprises sur ces données limite la précision de ces estimations.

Les défis de la recherche de solutions écologiques

Les défis de la recherche de solutions écologiques

Malgré l’importance grandissante des problématiques environnementales liées à l’IA, les solutions pour réduire son impact énergétique semblent encore limitées. Un consultant en énergie suggère simplement de programmer les mises à jour des chatbots et autres modèles d’IA à des moments où l’énergie est moins chère ou disponible en surplus. Bien que cette approche puisse apporter des améliorations, elle ne constitue qu’une réponse partielle aux défis environnementaux posés par l’intelligence artificielle.

Il est donc essentiel que les chercheurs, les entreprises et les décideurs collaborent pour développer des stratégies plus durables pour l’IA, comme l’adoption de matériel informatique plus écoénergétique, l’optimisation des algorithmes pour une utilisation plus efficace des ressources ou encore l’exploration de nouvelles méthodes d’apprentissage qui nécessitent moins de données et d’énergie.

L’expansion rapide des technologies d’intelligence artificielle, notamment les chatbots de type ChatGPT, suscite des inquiétudes quant à leur impact environnemental en raison de leur consommation énergétique croissante. Des efforts concertés doivent être déployés pour rendre ces technologies plus vertes et durables, tout en garantissant leur évolution continue vers des solutions respectueuses de l’environnement.