1
27.06.2024, 13:30Lektura na 2 minuty

Przełom w dziedzinie AI. Modele językowe mogą pochłaniać tyle mocy, co jedna żarówka

Okazuje się, że da się tak zoptymalizować pracę AI, by pochłaniała znikomą ilość mocy.


Antoni „Darkling” Antoszek

Jednym z problemów związanych z implementacją sztucznej inteligencji na szeroką skalę jest moc, której AI będzie potrzebować. Niektórzy eksperci, jak szef firmy ARM, przewidują nawet, że w 2030 r. systemy bazujące na sztucznej inteligencji będą potrzebowały aż 25% energii, którą dysponują Stany Zjednoczone (obecnie jest to ok. 4%). Poza rozwojem „umiejętności” tzw. wielkich modelów językowych (Large Language Models, LLM), kluczowym wyzwaniem, które stoi przed naukowcami, jest obecnie kwestia dużo bardziej przyziemna – trzeba uczynić sztuczną inteligencję dużo bardziej energooszczędną.

I wydaje się, że w tej sprawie mamy przełom.


Żarówkowe AI

Tom’s Hardware pisze bowiem o artykule naukowym, który w czerwcu opublikowała grupa pracowników kalifornijskiego UC Santa Cruz. Udaje im się uruchomić LLM, które wymaga bardzo niewiele mocy – pobór energii systemu to jedynie 13 watów, czyli tyle, ile potrzebuje ledowa żarówka.

Autorzy twierdzą, że klucz w budowie energooszczędnego AI to open-source’owe oprogramowanie (na czym akurat wszyscy, jako konsumenci, byśmy skorzystali) i usunięcie obliczeń związanych z mnożeniem macierzy, które dotąd były niezbędne w trenowaniu sztucznej inteligencji. Da się do tego doprowadzić, przekształcając system numeryczny, który stoi u podstaw AI, na trójkowy, korzystający z liczb ze zbioru {-1, 0, 1} i wprowadzając tzw. czasowe obliczenia, co wyposaży sztuczną inteligencję w coś w rodzaju jej swoistej pamięci. W skrócie: trochę poważnej matematyki pozwala znacząco zoptymalizować działanie AI. Zdaniem autorów, obecnie wykorzystywane procesy obliczeniowe są po prostu nieefektywne.

13-watowa sztuczna inteligencja jest sporym sukcesem w porównaniu do obecnie wykorzystywanej AI pochłaniającej ok. 700 watów na jednostkę graficzną. Odkrycie faktycznie może więc pozwolić na rozwój sztucznej inteligencji, ale, jak zwykle, z otwieraniem szampana trzeba trochę zaczekać. Po pierwsze nie wiadomo jeszcze, czy optymalizacja faktycznie będzie mogła być analogicznie przeprowadzona w przypadku wszystkich LLM, po drugie zaś – artykuł został na razie opublikowany w arXiv, więc czeka jeszcze na recenzje. I cóż: czekamy i my. Trzymając kciuki.


Czytaj dalej

Redaktor
Antoni „Darkling” Antoszek

Moim ulubionym zajęciem związanym z grami jest notoryczne umieranie w Dead Cells. Interesują mnie nowe technologie, ale nie mogę oprzeć się wrażeniu, że wszystko, co było na ich temat do powiedzenia, napisał już Philip K. Dick. Lubię robić kawę, filozofować i obserwować swojego kota.

Profil
Wpisów208

Obserwujących2

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze