Ciekawostki

Korzystasz z ChatGPT? Nawet nie wiesz, ile to zużywa prądu

przeczytasz w 3 min.

Prawie każdy z nas korzysta z chatbotów opartych o sztuczną inteligencje. Nie każdy jednak zdaje sobie sprawę, ile prądu zużywa każde zapytanie i jaki wpływ centra danych mają na energetykę.

Chatboty oparte na sztucznej inteligencji to technologiczna rewolucja, która z dnia na dzień zyskuje coraz większą popularność wśród zwykłych ludzi. Potrafią odpowiadać na pytania, tworzyć teksty, generować grafiki, a nawet filmiki – pomagając przy nauce, pracy, zakupach czy rozwiązywaniu codziennych problemów. Świetnym przykładem jest ChatGPT.

Nie każdy zdaje sobie sprawę, że każde takie zapytanie do AI wiąże się z pracą ogromnych centrów danych, które zużywają duże ilości energii elektrycznej. Redakcja serwisu Demagog postanowiła sprawdzić, ile dokładnie prądu zużywa sztuczna inteligencja. 

Młodzi ludzie chętnie korzystają z chatbotów 

Wspomniane chatboty cieszą się ogromnym zainteresowaniem, szczególnie wśród młodszych użytkowników. Według danych zebranych w ramach badania Eurobarometru, aż 57 proc. osób w wieku od 16 do 30 lat w minionym roku korzystało z aplikacji służących do generowania tekstów, grafik lub filmów.

Chatboty - popularność wśród młodzych ludzi

W Polsce ten odsetek był jeszcze wyższy i wyniósł 60 proc., co plasuje nasz kraj w czołówce państw europejskich pod względem popularności chatbotów i narzędzi AI wśród młodych ludzi. To pokazuje, że młode pokolenie bardzo szybko adaptuje nowoczesne technologie i widzi w nich realne korzyści na co dzień.

Ile prądu zużywa ChatGPT? 

Jak zauważa serwis Demagog, trudno jednoznacznie odpowiedzieć na pytanie, ile energii zużywa sztuczna inteligencja, ponieważ korporacje technologiczne nie ujawniają dokładnych danych na ten temat. W raporcie Google’a o wpływie na środowisko z 2024 roku podkreślono, że „przewidywanie przyszłego wpływu AI na środowisko jest złożone i ewoluuje, a nasze historyczne trendy prawdopodobnie nie oddają w pełni przyszłej trajektorii AI. Wraz z głęboką integracją AI w naszym portfolio produktów rozróżnienie między AI a innymi obciążeniami nie będzie miało znaczenia”. 

Mimo braku pełnych danych, niektórzy badacze podejmują próby samodzielnego oszacowania zużycia energii przez AI. Alex de Vries z Uniwersytetu w Amsterdamie oparł swoje wyliczenia na liczbie kart graficznych firmy Nvidia wykorzystywanych do obsługi dużych modeli językowych. W 2023 roku OpenAI do działania ChatGPT potrzebowało 3617 serwerów NVIDIA HGX A100, zawierających łącznie 28 936 procesorów graficznych NVIDIA A100 (Ampere). Na podstawie danych o zużyciu energii przez jedną kartę graficzną, de Vries obliczył, że koszt energetyczny jednej odpowiedzi ChatGPT to od 6,9 do 8,9 Wh. 

Z kolei jeden z dyrektorów Alphabet (spółki-matki Google’a) w 2023 r. szacował, że koszt energetyczny dużego modelu językowego jest około 10 razy większy niż zwykłego wyszukiwania – a to oznacza zużycie około 3 Wh na jedno zapytanie, biorąc pod uwagę, że klasyczne wyszukiwanie w Google to zaledwie 0,3 Wh. 

Warto jednak zauważyć, że przytoczone dane pochodzą z 2023 r. W międzyczasie na rynku pojawiły się nowsze układy graficzne – wydajniejsze, ale także bardziej energooszczędne (w rozumieniu efektywności energetycznej - wydajności w przeliczeniu na pobieraną moc), jak chociażby te z rodzin NVIDIA Hopper i Blackwell. 

Warto wziąć pod uwagę skalę 

Warto jednak spojrzeć na zużycie energii przez centra danych z perspektywy ich ogromnej skali działania. Jak podało OpenAI, w grudniu 2024 r. ChatGPT miał 300 milionów aktywnych użytkowników, którzy codziennie wysyłali około miliarda wiadomości. Obsługa takiej liczby zapytań wymaga ogromnych zasobów obliczeniowych, a co za tym idzie – znacznego poboru mocy.

Serwis Demagog zwraca uwagę, że na całym świecie działają tysiące centrów danych, których funkcjonowanie pochłania ilości energii porównywalne z zapotrzebowaniem całych państw. W 2022 roku centra danych zużyły łącznie 460 terawatogodzin (TWh), czyli tyle samo, ile wynosiło roczne zużycie energii elektrycznej we Francji. 

Potrzebna rewolucja w energetyce 

Sztuczna inteligencja to nie tylko innowacyjne narzędzie, które ułatwia codzienne życie i pracę – to również wyzwanie dla sektora energetycznego. Już dwa lata przed osiągnięciem miliarda dziennych zapytań do ChatGPT, założyciel OpenAI, Sam Altman, apelował o konieczność przełomu w energetyce, by sprostać rosnącemu zapotrzebowaniu na moc obliczeniową. 

W Polsce, gdzie również powstają nowe centra danych, problem może być szczególnie dotkliwy, ponieważ wciąż dużą część energii elektrycznej produkujemy w elektrowniach węglowych (i weług prognoz nie wystarczą nam same odnawialne źródła energii). W tym kontekście warto zadać sobie pytanie, jak rozwój sztucznej inteligencji wpłynie na środowisko i czy jesteśmy gotowi na energetyczne konsekwencje tej rewolucji technologicznej. 

Komentarze

4
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    sabaru
    -2
    Ciekawe ile poszło prądu na napisanie tego artykułu.
    • avatar
      Voltrob
      -2
      Nie wiem i mnie to nie obchodzi. Rozwój technologiczny zawsze wymaga coraz większych nakładów energii, to podstawowa zależność.
      • avatar
        piomiq
        0
        "Sam Altman, apelował o konieczność przełomu w energetyce"
        ohh, jej i co Pan Altman krzyknął - dajcie nam więcej prądu, bo nasze centra danych jej potrzebują. Zaapelował. Wow. No to może niech pan Altman jakoś się do tego przyczyni. Apelować to sobie może każdy.
        Aha, niech jeszcze zaapeluje o konieczność szybkiego zbudowanie reaktora termojądrowego na użytek komercyjny. Zapewne od razu stanie się cud i wszyscy odpowiedzą na jego apel.

        Witaj!

        Niedługo wyłaczymy stare logowanie.
        Logowanie będzie możliwe tylko przez 1Login.

        Połącz konto już teraz.

        Zaloguj przez 1Login