rek

Przełom w dziedzinie AI. Modele językowe mogą pochłaniać tyle mocy, co jedna żarówka

Przełom w dziedzinie AI. Modele językowe mogą pochłaniać tyle mocy, co jedna żarówka
Okazuje się, że da się tak zoptymalizować pracę AI, by pochłaniała znikomą ilość mocy.

Jednym z problemów związanych z implementacją sztucznej inteligencji na szeroką skalę jest moc, której AI będzie potrzebować. Niektórzy eksperci, jak szef firmy ARM, przewidują nawet, że w 2030 r. systemy bazujące na sztucznej inteligencji będą potrzebowały aż 25% energii, którą dysponują Stany Zjednoczone (obecnie jest to ok. 4%). Poza rozwojem „umiejętności” tzw. wielkich modelów językowych (Large Language Models, LLM), kluczowym wyzwaniem, które stoi przed naukowcami, jest obecnie kwestia dużo bardziej przyziemna – trzeba uczynić sztuczną inteligencję dużo bardziej energooszczędną.

I wydaje się, że w tej sprawie mamy przełom.

Żarówkowe AI

Tom’s Hardware pisze bowiem o artykule naukowym, który w czerwcu opublikowała grupa pracowników kalifornijskiego UC Santa Cruz. Udaje im się uruchomić LLM, które wymaga bardzo niewiele mocy – pobór energii systemu to jedynie 13 watów, czyli tyle, ile potrzebuje ledowa żarówka.

Autorzy twierdzą, że klucz w budowie energooszczędnego AI to open-source’owe oprogramowanie (na czym akurat wszyscy, jako konsumenci, byśmy skorzystali) i usunięcie obliczeń związanych z mnożeniem macierzy, które dotąd były niezbędne w trenowaniu sztucznej inteligencji. Da się do tego doprowadzić, przekształcając system numeryczny, który stoi u podstaw AI, na trójkowy, korzystający z liczb ze zbioru {-1, 0, 1} i wprowadzając tzw. czasowe obliczenia, co wyposaży sztuczną inteligencję w coś w rodzaju jej swoistej pamięci. W skrócie: trochę poważnej matematyki pozwala znacząco zoptymalizować działanie AI. Zdaniem autorów, obecnie wykorzystywane procesy obliczeniowe są po prostu nieefektywne.

13-watowa sztuczna inteligencja jest sporym sukcesem w porównaniu do obecnie wykorzystywanej AI pochłaniającej ok. 700 watów na jednostkę graficzną. Odkrycie faktycznie może więc pozwolić na rozwój sztucznej inteligencji, ale, jak zwykle, z otwieraniem szampana trzeba trochę zaczekać. Po pierwsze nie wiadomo jeszcze, czy optymalizacja faktycznie będzie mogła być analogicznie przeprowadzona w przypadku wszystkich LLM, po drugie zaś – artykuł został na razie opublikowany w arXiv, więc czeka jeszcze na recenzje. I cóż: czekamy i my. Trzymając kciuki.

Jedna odpowiedź do “Przełom w dziedzinie AI. Modele językowe mogą pochłaniać tyle mocy, co jedna żarówka”

  1. Przepraszam, co to za bełkot?

    Błagam, róbcie jakikolwiek research przed wrzucaniem takich bzdur. LLM można postawić sobie na dowolnym urządzeniu. W przypadku mniej złożonych modeli działa to nawet telefonie (lokalnie, bez połączenia z serwerem). Nowe CPU mają dedykowany układ do tego, który pochłania znikome ilości energii przy tego typu obliczeniach (mowa o wartościach dalekich od nawet tych 13W).

    Najprawdopodobniej mowa o mocy potrzebnej do tworzenia tych modeli i to byłby przełom, ale w obecnej formie artykuł po prostu wprowadza w błąd i nie niesie żadnej wartości merytorycznej.

Dodaj komentarz