Wzrost zapotrzebowania na energię przez generatywną AI
Według raportu Międzynarodowej Agencji Energetycznej (IEA) z kwietnia 2025 roku, globalne zapotrzebowanie na energię elektryczną przez centra danych, w których trenowane i wdrażane są modele AI, do 2030 roku ma się podwoić i wynieść około 945 terawatogodzin. Jest to więcej niż roczne zużycie energii w Japonii. Analizy Goldman Sachs Research z sierpnia 2025 roku przewidują, iż około 60% tego wzrostu zostanie pokryte przez spalanie paliw kopalnych, co przełoży się na wzrost globalnej emisji CO₂ o około 220 milionów ton.
Operacyjny i „wbudowany” ślad węglowy centrów danych
Eksperci MIT zwracają uwagę, iż dyskusje o ograniczaniu śladu węglowego AI koncentrują się zwykle na emisjach operacyjnych, czyli zużyciu energii przez procesory GPU. Często pomijany jest tzw. „wbudowany” ślad węglowy, czyli emisje powstałe podczas budowy i modernizacji centrów danych. Jak podkreśla Vijay Gadepally, starszy naukowiec w MIT Lincoln Laboratory, budowa centrum danych z użyciem stali, betonu, systemów chłodzenia i okablowania generuje znaczne emisje. Firmy takie jak Meta czy Google testują zastosowanie bardziej zrównoważonych materiałów budowlanych, aby ograniczyć ten wpływ.
Strategie ograniczania emisji operacyjnych
W celu redukcji emisji operacyjnych stosuje się rozwiązania analogiczne do domowych metod oszczędzania energii – na przykład „przyciemnianie” GPU, co pozwala ograniczyć zużycie energii bez znaczącej utraty wydajności modeli AI. Badania MIT wykazały, iż zmniejszenie mocy GPU do ok. 30% standardowego zużycia nie wpływa istotnie na dokładność modeli, a jednocześnie ułatwia chłodzenie sprzętu.
Inną metodą jest wykorzystanie mniej energochłonnych procesorów oraz optymalizacja procesu treningu modeli. Zespół Gadepally’ego odkrył, iż połowa energii zużywanej podczas treningu AI przypada na uzyskanie ostatnich kilku procent dokładności. W niektórych zastosowaniach wystarczająca może być niższa precyzja, co pozwala znacząco ograniczyć zużycie energii.
Postęp w efektywności sprzętu i algorytmów
Neil Thompson z MIT Computer Science and Artificial Intelligence Laboratory wskazuje, iż dzięki miniaturyzacji tranzystorów na chipach GPU, wydajność energetyczna operacji AI rośnie o 50-60% rocznie. Jeszcze większe korzyści przynoszą innowacje algorytmiczne, takie jak „przycinanie” niepotrzebnych elementów sieci neuronowych czy kompresja modeli. Thompson określa te oszczędności mianem „negaflopów” – operacji obliczeniowych, których nie trzeba wykonywać dzięki ulepszeniom algorytmicznym.
„Uczynienie modeli bardziej efektywnymi to najważniejszy krok w ograniczaniu kosztów środowiskowych AI.”
Optymalizacja zużycia energii i magazynowanie
Vijay Gadepally podkreśla, iż nie każda kilowatogodzina energii generuje tyle samo emisji CO2 – zależy to od struktury miksu energetycznego w danym momencie. Inżynierowie mogą planować obciążenia centrów danych tak, by maksymalnie wykorzystywać energię ze źródeł odnawialnych, np. przesuwając część obliczeń na godziny, gdy dominuje energia słoneczna lub wiatrowa. Deepjyoti Deka z MIT Energy Initiative wraz z zespołem bada modele elastyczności operacyjnej centrów danych, które pozwalają minimalizować zużycie energii i zależność od paliw kopalnych.
Ważnym kierunkiem jest także zastosowanie magazynów energii o długim czasie działania, które pozwalają przechowywać nadwyżki energii odnawialnej i wykorzystywać je w okresach szczytowego zapotrzebowania.
Wybór lokalizacji i narzędzia wspierające decyzje
Lokalizacja centrum danych ma najważniejsze znaczenie dla jego śladu węglowego. Przykładowo, Meta prowadzi centrum danych w szwedzkiej Lulei, gdzie niskie temperatury ułatwiają chłodzenie sprzętu. MIT i Uniwersytet Princeton opracowują narzędzie GenX, które wspiera planowanie inwestycji w sektorze energetycznym i pomaga wybrać optymalne miejsce pod kątem kosztów i emisji.
AI wspiera rozwój OZE i efektywność sieci
Jennifer Turliuk z MIT zwraca uwagę, iż tempo rozwoju odnawialnych źródeł energii nie nadąża za wzrostem zapotrzebowania AI. AI może jednak przyspieszyć procesy przyłączania nowych instalacji OZE do sieci, optymalizować prognozowanie produkcji energii, wspierać predykcyjną konserwację infrastruktury czy monitorować obciążenia linii przesyłowych.
„Uczenie maszynowe świetnie radzi sobie z analizą złożonych systemów, a sieć elektroenergetyczna to jedno z największych takich wyzwań.”
Aby ułatwić ocenę wpływu AI na klimat, Turliuk i jej współpracownicy opracowali wskaźnik Net Climate Impact Score, który pozwala ocenić bilans emisji i korzyści środowiskowych danego projektu AI.
Współpraca kluczem do ograniczenia emisji AI
Eksperci podkreślają, iż najskuteczniejsze rozwiązania powstaną dzięki współpracy firm, regulatorów i środowiska naukowego.
„Każdy dzień się liczy. To wyjątkowa szansa, by uczynić systemy AI mniej emisyjnymi.”
Zobacz również:
- Przełomowy chip fotoniczny: sztuczna inteligencja choćby 100 razy bardziej efektywna energetycznie
- Sztuczna inteligencja przyspiesza wykrywanie bezpiecznych stref w reaktorach fuzyjnych
- Europejski projekt GREEN.DAT.AI: Zielona sztuczna inteligencja i współdzielenie danych w energetyce
- Sztuczna inteligencja „odkrywa” tajemnicę meteorytu: materiał o niezmiennej przewodności cieplnej
- Sztuczna inteligencja „odkrywa” 5 nowych materiałów mogących zastąpić baterie litowe
Źródło: MIT News