Przełom w dziedzinie AI. Modele językowe mogą pochłaniać tyle mocy, co jedna żarówka
Jednym z problemów związanych z implementacją sztucznej inteligencji na szeroką skalę jest moc, której AI będzie potrzebować. Niektórzy eksperci, jak szef firmy ARM, przewidują nawet, że w 2030 r. systemy bazujące na sztucznej inteligencji będą potrzebowały aż 25% energii, którą dysponują Stany Zjednoczone (obecnie jest to ok. 4%). Poza rozwojem „umiejętności” tzw. wielkich modelów językowych (Large Language Models, LLM), kluczowym wyzwaniem, które stoi przed naukowcami, jest obecnie kwestia dużo bardziej przyziemna – trzeba uczynić sztuczną inteligencję dużo bardziej energooszczędną.
I wydaje się, że w tej sprawie mamy przełom.
Żarówkowe AI
Tom’s Hardware pisze bowiem o artykule naukowym, który w czerwcu opublikowała grupa pracowników kalifornijskiego UC Santa Cruz. Udaje im się uruchomić LLM, które wymaga bardzo niewiele mocy – pobór energii systemu to jedynie 13 watów, czyli tyle, ile potrzebuje ledowa żarówka.
Autorzy twierdzą, że klucz w budowie energooszczędnego AI to open-source’owe oprogramowanie (na czym akurat wszyscy, jako konsumenci, byśmy skorzystali) i usunięcie obliczeń związanych z mnożeniem macierzy, które dotąd były niezbędne w trenowaniu sztucznej inteligencji. Da się do tego doprowadzić, przekształcając system numeryczny, który stoi u podstaw AI, na trójkowy, korzystający z liczb ze zbioru {-1, 0, 1} i wprowadzając tzw. czasowe obliczenia, co wyposaży sztuczną inteligencję w coś w rodzaju jej swoistej pamięci. W skrócie: trochę poważnej matematyki pozwala znacząco zoptymalizować działanie AI. Zdaniem autorów, obecnie wykorzystywane procesy obliczeniowe są po prostu nieefektywne.
13-watowa sztuczna inteligencja jest sporym sukcesem w porównaniu do obecnie wykorzystywanej AI pochłaniającej ok. 700 watów na jednostkę graficzną. Odkrycie faktycznie może więc pozwolić na rozwój sztucznej inteligencji, ale, jak zwykle, z otwieraniem szampana trzeba trochę zaczekać. Po pierwsze nie wiadomo jeszcze, czy optymalizacja faktycznie będzie mogła być analogicznie przeprowadzona w przypadku wszystkich LLM, po drugie zaś – artykuł został na razie opublikowany w arXiv, więc czeka jeszcze na recenzje. I cóż: czekamy i my. Trzymając kciuki.
Czytaj dalej
-
Red Bull zorganizował największego na świecie Tetrisa! Absolutnie szalona rozgrywka...
-
1Gracze wracają do Clair Obscur: Expedition 33. Sukces na TGA wpłynął...
-
8Burza wokół polskiej wersji Tomb Raider: Legacy of Atlantis....
-
Assassin’s Creed Shadows z bardziej widowiskowymi animacjami. Nowa aktualizacja wprowadza...

Przepraszam, co to za bełkot?
Błagam, róbcie jakikolwiek research przed wrzucaniem takich bzdur. LLM można postawić sobie na dowolnym urządzeniu. W przypadku mniej złożonych modeli działa to nawet telefonie (lokalnie, bez połączenia z serwerem). Nowe CPU mają dedykowany układ do tego, który pochłania znikome ilości energii przy tego typu obliczeniach (mowa o wartościach dalekich od nawet tych 13W).
Najprawdopodobniej mowa o mocy potrzebnej do tworzenia tych modeli i to byłby przełom, ale w obecnej formie artykuł po prostu wprowadza w błąd i nie niesie żadnej wartości merytorycznej.