rek

ChatGPT zgłupiał. Jest dużo słabszy niż na początku

ChatGPT zgłupiał. Jest dużo słabszy niż na początku
Mowa o płatnym modelu GPT-4.

Możliwości GPT-4 zwykły być tak duże, że dla niektórych zakupienie subskrypcji chatbota okazywało się po prostu opłacalną inwestycją – model mógł napisać świetne teksty, poprawić trudny kod czy doradzić w sprawie zawodowej, nawet bardzo specjalistycznej. GPT-4 to bowiem przede wszystkim ulepszona wersja dostępnego za darmo GPT-3,5 – płatny model OpenAI robi wszystko zauważalnie lepiej niż swój starszy brat.

I wygląda na to, że nadszedł koniec tych luksusów. Jak podaje Business Insider, wielu użytkowników zaczęło zgłaszać problemy z działaniem GPT-4. Ma być on trochę szybszy, ale jego wydajność jest znacznie niższa.

„Leniwy” i „głupi”

Czy jakość GPT-4 ostatnio spadła? – pytał w maju na oficjalnym forum OpenAI użytkownik EchoTheOracle, który martwił się, że sztuczna inteligencja przestała rozumieć jego pytania i podaje błędne informacje (nawet z uprzednio dostarczonego jej zestawu danych). EchoTheOracle skarżył się, że GPT-4 jest teraz dużo bardziej podobny do modelu GPT-3,5.

https://twitter.com/tunguz/status/1679523558232588289

Użytkownicy, którzy mu odpowiadają, mają podobne odczucia – GPT-4 zawodzi, jest „leniwy” i „głupi”. Zauważają też, że kilka tygodni temu GPT-4 zaczął odpowiadać szybciej, jest jednak dużo mniej precyzyjny. Użytkownik Air twierdzi, że pierwsze zmiany na gorsze pojawiły się w wersji z 12 maja, by następnie… jakość bota znów drastycznie się pogorszyła w wersji z 23 maja.

Business Insider cytuje eksperta z branży, Sharona Zhou, który twierdzi, że OpenAI mogło zmienić zasady działania GPT-4. Obecnie praca czatbota może polegać na obecności kilku małych modeli, „ekspertów” od danych dziedzin (stąd nazwa tej strategii – Mixture of Experts, MOE). Jeden z nich jest np. specjalistą od biologii, a inny od fizyki – gdy botowi zostanie zadane pytanie, system prześle je jednemu lub kilku ekspertom.

https://twitter.com/pommedeterre33/status/1671263789914677248

Takie podejście jest tańsze i szybsze, bo zużywa mniej mocy obliczeniowej. Okazuje się jednak dużo bardziej zawodne, szczególnie gdy „eksperci” mają różne poglądy na daną sprawę – wtedy bot połączy ich odpowiedzi, co często może skutkować dosyć niesatysfakcjonującym wynikiem.

https://twitter.com/npew/status/1679538687854661637

Są to jednak wciąż spekulacje – OpenAI lakonicznie skomentowało sprawę, twierdząc, że GPT-4 wcale nie stał się głupszy, a „wręcz przeciwnie: każda nowa wersja jest mądrzejsza niż poprzednia”.

Dodaj komentarz