Sztuczna inteligencja może wkrótce zużywać więcej prądu niż kopanie Bitcoina. Według jednej z analiz, AI będzie odpowiedzialna za połowę zużycia prądu przez centra danych do końca 2025 roku. Zużycie rośnie szybciej, niż poprawia się wydajność. W jakich barwach rysuje się przyszłość?
Nowy raport naukowy ostrzega przed rosnącym wpływem AI na zużycie energii elektrycznej. Modele takie jak ChatGPT wymagają ogromnych mocy obliczeniowych. To oznacza rosnącą liczbę serwerów, centrów danych i elektrowni. I coraz większy ślad węglowy, nawet mimo deklaracji o zrównoważonym rozwoju.
Chińczycy pokazali własne GPU! Nowa karta graficzna stanie naprzeciwko RTX 4060.
AI zużywa coraz więcej prądu i to szybciej, niż zakładano
Według de Vries-Gao, AI już dziś odpowiada za około 20% zużycia prądu w globalnych centrach danych. Do końca 2025 roku ta liczba może wzrosnąć do blisko 50%, co uczyni sztuczną inteligencję bardziej energochłonną niż kopanie kryptowalut. Choć technologia staje się coraz bardziej wydajna, skala wdrożeń rośnie jeszcze szybciej. Firmy takie jak Google, Microsoft i Meta rozbudowują infrastrukturę, inwestując w nowe serwerownie i sprzęt AI.
fot. karelnoppe, Fotolia.com
Produkcja specjalistycznych chipów AI, m.in. przez TSMC dla Nvidii i AMD, wzrosła ponad dwukrotnie między 2023 a 2024 rokiem. Analityk wylicza, że w 2023 roku urządzenia AI zużyły tyle prądu, co cała Holandia. Do 2025 roku zużycie może wzrosnąć do poziomu odpowiadającego Wielkiej Brytanii, czyli około 23 GW mocy. To wymusza nowe inwestycje w energetykę. Od gazu po atom. A naszemu węglowi wciąż się ukręca łeb…
Dodatkowo, wiele firm nie publikuje danych rozbitych na AI, co utrudnia monitorowanie problemu. Choć w raportach klimatycznych widać wzrost emisji, nie wiadomo, ile z tego generuje jedynie sztuczna inteligencja. Autor raportu apeluje o większą przejrzystość. Bez niej nie da się rzetelnie ocenić wpływu AI. Już wiem, jaka gałąź ochrony środowiska będzie niebawem bardzo popularna.
Wydajniejsze AI nie oznacza niższego zużycia
Choć pojawiają się modele deklarujące niższy pobór mocy (np. DeepSeek), nie zmienia to ogólnego trendu. Paradoks Jewonsa mówi jasno: większa efektywność prowadzi do większego zużycia, bo technologia staje się bardziej dostępna i używana częściej. Problematykę opisano szerzej w książce pt. „The Coal Question”.
Bez konkretnych danych nie da się zaplanować działań. AI będzie potrzebować coraz więcej prądu, a my nie wiemy nawet, ile dokładnie. Jednak na to już nic nie poradzimy bez woli wielkich gigantów technologicznych. To oni w głównej mierze odpowiadają za zużycie, więc nie pozostaje nic innego, aniżeli czekać na oficjalne dane poszczególnych przedsiębiorstw.
Na stronie mogą występować linki afiliacyjne lub reklamowe.








AI to głupie algorytmy napisane w C++ i Pythonie, R, Julia. Programista ze Szwajcarii powiedział mi że to bańka taka aby zarabiać na tej głupocie. AI nigdy nie będzie świadoma, jakie idiotyzmy wypisuje ten chatGPT.