Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań
Trenowanie dużych modeli językowych (LLM) jest procesem bardzo energochłonnym. Pod koniec ubiegłego roku laboratorium OpenAI poinformowało, że ChatGPT osiągnął już 300 mln aktywnych użytkowników tygodniowo, dwa razy więcej niż rok wcześniej, którzy generują każdego dnia ok. 1 mld zapytań. Jak wyliczyli niedawno analitycy BestBrokers, żeby je przetworzyć i wygenerować odpowiedzi, chatbot zużywa około 2,9 mln kWh energii każdego dnia. Dla porównania przeciętne amerykańskie gospodarstwo domowe zużywa dziennie ok. 29 kWh energii elektrycznej. To oznacza, że ChatGPT zużywa aż 100 tys. razy więcej energii niż typowe gospodarstwo domowe w Stanach. W ciągu roku całkowite zużycie energii przez ChatGPT wynosi 1058,5 GWh, co pozwala odpowiedzieć na ok. 365 mld zapytań. To ogromne zużycie energii elektrycznej odpowiada rocznej konsumpcji energii przez mały kraj.Sztuczna inteligencja zużywa coraz więcej energii, co kosztuje nas coraz więcej. Musimy budować nowe centra danych, by móc tworzyć coraz większe modele językowe – mówi agencji Newseria Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji.
Według raportu Międzynarodowej Agencji Energetycznej („World Energy Outlook 2024”) centra danych, w tym te związane z rozwojem sztucznej inteligencji, wywierają znaczący wpływ na zużycie energii elektrycznej. Szacuje się, że odpowiadają za ok. 1–1,5 proc. globalnej konsumpcji, ale ten wskaźnik będzie rosnąć wraz z dalszym rozwojem sztucznej inteligencji. Firma doradcza McKinsey szacuje, że w samej Europie zużycie energii przez centra danych wzrośnie z obecnych 62 TWh do ponad 150 TWh do 2030 roku, co stanowiłoby około 5 proc. całkowitego zużycia energii w Europie. Dlatego eksperci apelują o opracowanie bardziej energooszczędnych algorytmów i metod trenowania modeli, które ograniczą ich ślad węglowy.Dobrze jest zdawać sobie sprawę z tego, jaki jest koszt środowiskowy sztucznej inteligencji, bo ta świadomość jest pierwszym krokiem, żeby zastanowić się, jak go zminimalizować – podkreśla Pamela Krzypkowska.
Zużycie energii podczas trenowania modeli AI zależy od wielu czynników, takich jak m.in. wielkość modelu, zastosowane algorytmy, infrastruktura sprzętowa oraz efektywność centrów danych. Jednym z rozwiązań ograniczających ślad węglowy AI jest stosowanie mniejszych i bardziej wyspecjalizowanych modeli językowych. W Polsce rozwijane są dwie alternatywy dla dużych modeli: PLLuM (Polish Large Language Model, model sztucznej inteligencji, który rozumie i wykorzystuje język polski w sektorze publicznym i prywatnym, udostępniony przez Ministerstwo Cyfryzacji w lutym tego roku) oraz Bielik, które mają mniej parametrów, ale nadal mogą skutecznie wspierać użytkowników.Liczę na to, że będziemy mądrze projektować, że w przyszłości naukowcy i naukowczynie będą wymyślać nowe metody optymalizacyjne, umożliwiające nam budowanie modeli, które są tak samo dobre, ale będą używały dużo mniej energii do procesu ich trenowania – mówi ekspertka Ministerstwa Cyfryzacji.
Jak wskazuje, z drugiej strony zaawansowane algorytmy AI pomagają w przewidywaniu zmian pogodowych, analizowaniu trendów klimatycznych oraz optymalizowaniu wykorzystania zasobów. W sektorze transportu sztuczna inteligencja już teraz wspiera minimalizację zużycia paliwa poprzez inteligentne systemy zarządzania logistyką i optymalizację tras.Nie musimy do wszystkiego używać tych najfajniejszych modeli, które wydają się najbardziej interesujące. Do wielu zadań możemy używać mniejszych modeli, które zużywają dużo mniej energii, nawet nie językowych, tylko modeli wyjaśnialnych, wytłumaczalnych, mniejszych sieci neuronowych, drzew decyzyjnych. Naprawdę jest miejsce, żeby korzystać z innej sztucznej inteligencji, która jest bardziej efektywna energetycznie – mówi Pamela Krzypkowska.
W przyszłości AI może jeszcze bardziej wpłynąć na efektywność energetyczną, wspierając zarządzanie sieciami energetycznymi oraz systemami odnawialnych źródeł energii. Modele uczenia maszynowego są wykorzystywane do optymalizacji wykorzystania energii odnawialnej, pomagając dostosować produkcję i dystrybucję do rzeczywistego zapotrzebowania, co ogranicza straty i zmniejsza koszty operacyjne.Sztuczna inteligencja może być też wsparciem dla nas, driverem w tym, żeby walczyć ze zmianą klimatyczną. Jeśli patrzymy sobie na wszystkie estymacje mówiące o tym, jak zmienia się nasz klimat, to też to modelowanie i projektowanie często dzieje się ze wsparciem sztucznej inteligencji – mówi dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji.
Ważne, żeby myśleć o wykorzystaniu sztucznej inteligencji jako wsparciu dla najważniejszych dla nas procesów, które są najbardziej energochłonne. Optymalizacja sieci energetycznych, logistyka – to świetne miejsca, gdzie AI ma duży potencjał rozwoju w przyszłości – dodaje Pamela Krzypkowska.