L’ère numérique a donné une nouvelle dimension à la consommation d’énergie. Des coûts qui deviennent évidents si l’on compare les besoins énergétiques du cerveau humain à ceux de l’intelligence artificielle (IA). Le cerveau humain, chef-d’œuvre biologique, nécessite entre 10 et 20 watts par jour, un chiffre comparable à celui consommé par une lampe LED en une demi-journée. En revanche, selon des estimations récentes, l’IA consomme environ 6 milliards de watts par jour, soit 2,3 térawattheures par an.

L’augmentation exponentielle de la demande de capacité de calcul et de stockage des systèmes d’IA a des répercussions importantes sur l’environnement, les ressources énergétiques mondiales et les coûts. La prévision selon laquelle l’IA générative pourrait absorber jusqu’à 10 % de l’énergie mondiale d’ici à 2026 souligne l’urgence de trouver un équilibre entre l’accélération technologique et la protection de l’environnement.

Le timing

Selon le calendrier de Morgan Stanley, chaque recherche effectuée sur Google coûte à l’entreprise un cinquième de centime, à l’inverse, l’utilisation de l’IA pour obtenir des réponses coûte dix fois plus cher. En effet, les centres de données dédiés à l’IA nécessitent la proximité de grandes sources d’énergie, plutôt que celle de l’utilisateur final.

L’utilisation de l’IA pour obtenir des réponses coûte dix fois plus cher que la recherche traditionnelle. Google, Amazon, Microsoft et IBM, en particulier, se concentrent sur le développement de la technologie de fusion nucléaire, dans le but de réduire les coûts énergétiques.

La course au nucléaire

A titre d’exemple, Open AI, leader dans le domaine avec des projets tels que ChatGPT, a alloué des ressources considérables à la start-up Helion, spécialisée dans la fusion nucléaire, qui a également conclu un accord avec Microsoft. Selon différents scénarios, les coûts pour Google pourraient augmenter considérablement, jusqu’à 12 milliards de dollars, ce qui souligne l’importance d’une gestion prudente des ressources énergétiques dans le contexte de l’IA et l’urgence d’adopter des politiques énergétiques durables et d’assurer une croissance économique équilibrée.

Il y a encore quelques années, un centre de données dédié à l’intelligence artificielle consommait environ 10 mégawatts d’énergie, contre 100 mégawatts aujourd’hui. À ce rythme, on estime que d’ici 2026, l’informatique dématérialisée et l’intelligence artificielle pourraient consommer ensemble 10 % de l’électricité mondiale.