Głupia AI, halucynacje i nadzieja na coś więcej. Czy komputer może być inteligentny?
Czy sztuczna inteligencja rzeczywiście zasługuje na swoje miano, czy też jej obecni przedstawiciele są tak nazywani nieco na wyrost? Jak się okazuje, zagadnienie to wcale nie należy do najprostszych.
Sztuczna inteligencja tu, sztuczna inteligencja tam. Zdawać by się mogło, że AI stała się już nieodzownym elementem życia (lub przynajmniej pracy) wielu osób. Mało to w sieci krąży artykułów o groźnie brzmiących tytułach typu: „Te zawody znikną w ciągu najbliższych lat. Zastąpi je sztuczna inteligencja”? Pytaniem pozostaje, czy obecna technologia pozwala na stworzenie modelu AI na tyle kompetentnego, aby był w stanie zająć miejsce człowieka, który wykonuje specjalistyczne czynności, i jednocześnie nie potrzebował przy tym nadzoru oraz szeregu osób poprawiających „pracę” oprogramowania. Nim jednak zgłębimy to zagadnienie, warto zacząć od początku i dowiedzieć się, co w ogóle rozumiemy przez pojęcie sztucznej inteligencji.
Czym jest sztuczna inteligencja?
Wedle terminu ukutego przez amerykańskiego naukowca i laureata nagrody Turinga z 1971 Johna McCarthy’ego sztuczna inteligencja jest inteligencją wykazywaną przez urządzenia sztuczne, w przeciwieństwie do inteligencji naturalnej, którą cechują się istoty żywe, takie jak ludzie lub zwierzęta. Warto przy tym mieć na uwadze, że definicja ta ma już kilka dekad na karku, jako że sformułowana została w 1956 roku przy okazji odbywającej się w Dartmouth konferencji.
Inne rozumienie sztucznej inteligencji przedstawili Andreas Kaplan i Michael Haenlein, wedle których jest to „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”. Nietrudno zauważyć, że w przytoczonej definicji nie wspomniano bezpośrednio o inteligencji, co zdaje się odcinać maszyny od jednej z cech charakterystycznych rozwiniętych organizmów biologicznych.
Początkom AI i jej historii można poświęcić osobny tekst, aczkolwiek nie to jest tematem niniejszego felietonu (mimo to wypada wspomnieć, że powstanie sztucznej inteligencji w pewnym zakresie zostało już przewidziane w XIX wieku przez matematyczkę Adę Lovelace, a sama technologia została rozpropagowana przez dobrze znanego Alana Mathisona Turinga). Obecnie sztuczna inteligencja kojarzona jest przede wszystkim z czatbotami pokroju ChatGPT od OpenAI lub, rzadziej, Gemini ze stajni Google. Czy mogą się one z pełnym przekonaniem nazwać AI? No i tu dochodzimy do momentu, w którym zaczyna się gdybanie.
Ile inteligencji jest w sztucznej inteligencji?
Większości osób ChatGPT nie trzeba przedstawiać, ale niezaznajomieni z tematem zasługują na krótkie objaśnienie. To opracowany przez przedsiębiorstwo non profit (aczkolwiek status ten wkrótce ulegnie zmianie) czatbot, który został po raz pierwszy uruchomiony w listopadzie 2022 roku i otrzymał łatkę „generatywnej sztucznej inteligencji” (podobnie jak m.in. debiutujące nieco wcześniej DALL·E i Stable Diffusion), czyli takiej będącej w stanie tworzyć teksty, obrazy lub materiały wideo.
W momencie publikacji tekstu najnowsza ogólnie dostępna wersja ChatGPT (o1) bazuje na dużym modelu językowym (rodzaju modelu obliczeniowego, którego przeznaczeniem jest wykonywanie zadań związanych z przetwarzaniem języka naturalnego, takich jak generowanie odpowiedzi tekstowych na wiadomości wysyłane przez użytkowników) GPT-4o. Dzieło Sama Altmana i spółki potrafi wygenerować kod lub znaleźć błędy w już istniejącym, opowiedzieć żarty, streścić złożone zagadnienia, a nawet działać na niektórych plikach multimedialnych. Trudno zaprzeczyć, że wszystko to robi niemałe wrażenie – w końcu jeszcze parę lat temu nie dysponowaliśmy narzędziami zdolnymi wykonać podobne czynności. A mimo to ChatGPT ma równie wiele ograniczeń, co możliwości.
Wiedza czatbota nie wzięła się znikąd, a technologia została wyszkolona na zbiorze danych zaczerpniętych w mniej lub bardziej legalny sposób z sieci. Oczywiście stojące za ChatGPT przedsiębiorstwo nie chciało, aby jego twór przy udzielaniu odpowiedzi sięgał do treści powszechnie uznawanych za niestosowne (związanych z przemocą, rasizmem, seksizmem lub innymi przejawami dyskryminacji), a jako że żaden z pracowników firmy nie myślał nawet o przefiltrowaniu pozyskanych materiałów, zadanie to powierzono Kenijczykom zarabiającym niespełna dwa dolary na godzinę.
Mimo że czatbot sprawia pozory inteligentnego rozmówcy, tak naprawdę nie jest w stanie samodzielnie myśleć ani rozumować, a udzielane przez niego odpowiedzi to zlepek danych, na których został wytrenowany. Odpowiadając więc na pytanie postawione cztery akapity temu – duże modele językowe pokroju GPT-4o oraz „generatywne modele AI” możemy sklasyfikować jako sztuczną inteligencję, aczkolwiek należy mieć na uwadze, że termin ten w ciągu minionych lat uległ rozdrobnieniu, a technologia, o której snuli domysły badacze sprzed kilku, a nawet kilkunastu dekad, obecnie nosi miano silnej (bądź też ogólnej) sztucznej inteligencji, czyli AGI (ang. artificial general intelligence).
Nie taka silna sztuczna inteligencja
Czym zatem jest wspomniana silna sztuczna inteligencja? Wedle najprostszej definicji to rodzaj AI, która „dorównuje lub przewyższa ludzkie zdolności poznawcze w szerokim zakresie zadań poznawczych”. Próbę wyjaśnienia pojęcia AGI podjął również amerykański filozof John Searle, który postawił następujące twierdzenie:
Według koncepcji silnej sztucznej inteligencji, komputer nie jest jedynie narzędziem do studiowania działania umysłu, raczej odpowiednio zaprogramowany komputer jest w rzeczywistości umysłem.
Jako że termin ten nie ma jednej, uniwersalnej definicji, korporacje wystosowują własne, dostosowując je przy tym wedle własnego widzimisię. Przykładowo, zdaniem Microsoftu AGI jest systemem, który potrafi dostarczyć sto miliardów zielonych zysku. Bardzo techniczne i dogłębne podejście do tematu, prawda? Biorąc to wszystko pod uwagę, siłą rzeczy pojawiła się potrzeba zawężenia sposobu, w jaki nazywa się obecne modele AI. Projekty pokroju wspomnianego ChatGPT zaczęto określać więc mianem „wąskiej AI” – ze względu na ich ograniczone możliwości oraz zastosowanie.
Mimo że badania związane z AGI idą pełną parą, naukowcy wciąż spierają się o to, kiedy zobaczymy pierwsze efekty pracy osób zajmujących się silną sztuczną inteligencją. Niektórzy twierdzą, że przyjdzie nam poczekać jeszcze co najmniej wiek, inni sądzą, że to kwestia dekad, a jeszcze inni – kilku lat. Na ten moment nie sposób określić, kto ma rację, aczkolwiek w tym miejscu warto wspomnieć, że – wedle doniesień garstki pracowników – OpenAI udało się swego czasu opracować model AI noszący znamiona AGI, co wywołało niemałe poruszenie w przedsiębiorstwie i było prawdopodobnie jedną z przyczyn stojących za opuszczeniem jego szeregów przez Ilyę Sutskevera. Zdaniem naukowca organizacja nie poświęcała wystarczająco dużo uwagi kwestiom bezpieczeństwa, zamiast tego skupiając się na niekontrolowanym rozwoju sztucznej inteligencji, co mogło doprowadzić do katastrofy. Ile jednak jest w tym prawdy, nie wiemy, jako że zarząd nie puścił pary z ust na ten temat.
Podsumowując więc największe różnice pomiędzy silną sztuczną inteligencją a sztuczną inteligencją pokroju wałkowanego już wielokrotnie ChatGPT i jemu pokrewnych modeli – pierwsza z wymienionych może wykształcić coś na podobieństwo rozumu i świadomości, druga zaś umie w dość przekonujący sposób udawać, że ma umysł i potrafi rozumować. A i z tym różnie bywa, jako że ostatnie miesiące przyniosły aż nadto dowodów, iż szeroko pojmowana sztuczna inteligencja nie zawsze jest w stanie popisać się bystrością, w czym spora zasługa tony ograniczeń i zbyt wybiórczego traktowania danych wykorzystywanych do szkolenia.
Sztuczna inteligencja, prawdziwa głupota
Pora pozwolić nieco odsapnąć przemaglowanemu z góry do dołu ChatGPT, w związku z czym na tapet trafia AI Google’a – Gemini. Mimo że korporacja korzystała z wewnętrznych modeli sztucznej inteligencji już od pewnego czasu, pierwszy publicznie dostępny zadebiutował wraz z końcem marca 2023 roku, a więc kilka miesięcy po konkurencie ze stajni OpenAI, i początkowo znany był jako Bard. Przemianowanie na Gemini nastąpiło dopiero w lutym 2024 i już parę miesięcy po tym wydarzeniu pojawiły się pierwsze doniesienia o wybitnych osiągnięciach czatbota giganta z Mountain View.
Start łatwy nie był. Jeszcze nawet zanim Gemini naprawdę „zabłysło”, podczas pierwszych pokazów tej technologii Amerykanom wytykano m.in. fałszowanie materiałów mających zaprezentować możliwości AI. Potem pojawiły się zaś kłopoty z funkcją generowania obrazów, a konkretnie z niechęcią sztucznej inteligencji do tworzenia wizerunków białych osób. W związku z tym dochodziło do kuriozalnych sytuacji pokroju ukazywania niemieckich żołnierzy z okresu II wojny światowej jako azjatyckich kobiet lub czarnych mężczyzn, a z wiadomych przyczyn przedstawicieli ras innych niż biała ze świecą było szukać w armii III Rzeszy. Nie zabrakło w tym wszystkich innych kwiatków, np. czarnoskórych wikingów lub papieża Azjaty. W ciągu zaledwie kilku dni Gemini zdążyło ośmieszyć się do tego stopnia, że Google zdecydował się je chwilowo wyłączyć.
Korporacja zobowiązała się do wprowadzenia poprawek w swoim tworze i wbicia mu do głowy bardziej zgodnego historycznie podejścia do niektórych zagadnień, a do kontrowersji odniósł się nawet sam prezes korporacji, Sundar Pichai, który wystosował oficjalne oświadczenie w sprawie Gemini:
Nasze zespoły pracowały dzień i noc, aby rozwiązać te problemy. Już teraz widzimy znaczną poprawę w szerokim zakresie fraz. Żadna sztuczna inteligencja nie jest idealna, zwłaszcza na tym wschodzącym etapie rozwoju branży, ale wiemy, że poprzeczka jest dla nas zawieszona wysoko i będziemy ją utrzymywać tak długo, jak to konieczne. Sprawdzimy też, co się stało i upewnimy się, że naprawimy to na dużą skalę.
I rzeczywiście po pewnym czasie Gemini powróciło, a wraz z nim poprawiona funkcja generowania obrazów. Zawiedzie się jednak ten, kto myśli, że to koniec kontrowersji wokół czatbota Google’a. Kilkanaście tygodni po tym wydarzeniu internauci zalali sieć zrzutami ekranu prezentującymi, cóż, „innowacyjne” odpowiedzi sztucznej inteligencji Amerykanów.
Ser nie trzyma się pizzy? Dodaj kleju. Chcesz zadbać o własne zdrowie i przejść na zbilansowaną dietę? Jedz kamienie. Nie wiesz, jak przejść do ekranu głównego iPhone’a korzystając z kontrolera? Stuknij swoim palcem wskazującym o kciuk. A może od dłuższego czasu głowisz się nad tym, co oznacza litera „D” w nazwie „One Piece”? Interpretacje tego stanu rzeczy są aż cztery, wliczając w to „deez nuts”.
Jak widać, AI Google’a można określić na wiele sposobów, aczkolwiek „inteligencja” raczej nie byłaby jednym z nich. Oczywiście aktualnie Gemini radzi sobie już lepiej, niemniej w internecie nic nie ginie, a paplanina czatbota stanowi świetny podkład do roztrząsania tego, czy dostępne na rynku modele sztucznej rzeczywiście są tak błyskotliwe, na jakie kreują je ich twórcy. Nim jednak wbijemy kolejną szpilę w AI giganta z Mountain View, warto przyjrzeć się z bliska temu, co mogło odpowiadać za jej abstrakcyjne zachowanie i durne wypowiedzi.
Jesteś tym, co jesz
Jak się okazuje, powiedzenie to odnosi się nie tylko do ludzi, ale też do dużych modeli językowych stanowiących podstawę wielu istniejących modeli generatywnej AI. Podczas tworzenia zbiorów danych służących do szkolenia sztucznej inteligencji firmy pokroju Google’a lub OpenAI chwytają niemal każdy dostępny skrawek informacji, rzadko kiedy weryfikując, czy jest on prawdziwy, czy też nie (no, chyba że zadanie to można powierzyć Kenijczykom o głodowych pensjach).
Z tego też powodu AI zdarza się natrafić na treści, które minimalnie rozgarnięty człowiek w chwilę rozpoznałby jako ironiczne lub satyryczne. Pamiętacie jeszcze przykład z dodaniem kleju do pizzy, aby powstrzymać ser przez ześlizgiwaniem się z ciasta? Odpowiedź Gemini bazowała na poście z Reddita utrzymanym w dość oczywistym humorystycznym tonie.
zdjęć
Problem w tym, że sztuczna inteligencja nie potrafi rozpoznać ironii. Dla AI informacja jest po prostu informacją, a jej kontekst to rzecz nieistotna. Już sam ten fakt może udowodnić, że współczesne modele sztucznej inteligencji z rozumowaniem zbyt wiele wspólnego nie mają, a więc pomiędzy nimi a silną sztuczną inteligencją wciąż pozostaje ogromna przepaść.
Wypada przy tym podkreślić, że halucynacje, bo tak się fachowo określa plecenie kocopołów przez AI, nie są zjawiskiem wyłącznym dla Gemini. Mniej lub bardziej poważne wpadki zdarzają się każdemu: od ChatGPT, przez Claude i Llamę, aż po Groka prosto od Elona Muska. Mimo wszystko to właśnie produkt Google’a zrobił największą furorę za sprawą swoich odpowiedzi, a wiele osób zaczęło się zastanawiać, czy problem wynikał z niechlujnego podejścia do stworzenia zbioru danych, czy też był efektem ich zbyt wybiórczego traktowania i chęci ukierunkowania czatbota na jeden, poprawny, tok myślenia. Tego się już jednak nie dowiemy, aczkolwiek faktem pozostaje, że głupoty wyplute przez Gemini i pozostałe modele AI zostały uwiecznione, to zaś przekłada się na dalsze problemy.
Ucz się na własnych błędach
Z pewnością od wielu osób w swoim życiu usłyszeliście, aby uczyć się na błędach. Duże modele językowe stwierdzenie to traktują dość literalnie, jako że kolejne pakiety danych służące do szkolenia sztucznej inteligencji zawierają coraz więcej niepoprawnych lub niskiej jakości informacji wygenerowanych przez wszelkiej maści przejawy AI. Upraszczając, oznacza to tyle, że sztuczna inteligencja rzeczywiście uczy się na własnych błędach – i to dosłownie. Problem w tym, że nie potrafi wyciągać z nich wniosków, co jest dość istotną częścią procesu nauki.
Utrwalanie i powielanie niepoprawnych informacji sprawia, że AI z biegiem czasu może (i w zasadzie już to robi) stawać się coraz głupsza. A więc oprócz oczywiście nieprawdziwych treści zamieszczanych sporadycznie przez bywalców internetu w celach humorystycznych do zestawu dochodzą bazujące na nich inne oczywiście nieprawdziwe treści wygenerowane przez czatboty i wykorzystywane następnie do uczenia kolejnych iteracji modeli sztucznej inteligencji.
Sam proces szkolenia jednej AI na wypocinach drugiej możemy porównać do kręcenia filmu. Oryginał zawsze wygląda najlepiej, co do tego raczej nikt nie ma żadnych zastrzeżeń. A teraz wyobraźmy sobie, że gotowy obraz, który jest obecnie wyświetlany w kinie, zostaje uchwycony na kamerze ponownie. Jego jakość raczej nie uległa poprawie, prawda? Powtórzmy ten proces jeszcze kilka razy, a produkt końcowy przybierze tak tragiczną formę, że od patrzenia na nią będą piekły oczy.
Dziennikarz i analityk technologii Steven Vaughan-Nichols odniósł się do tego procesu jako do „załamania modelu”. Jak możemy przeczytać w artykule opublikowanym pod koniec lipca 2024 roku w prestiżowym tygodniku naukowym Nature:
Stwierdziliśmy, że bezkrytyczne wykorzystywanie treści wygenerowanych przez model w treningu powoduje nieodwracalne defekty w wynikowych modelach, w których znikają ogony oryginalnego rozkładu treści.
Co to oznacza? Ano to, że kanibalizacja wygenerowanych treści stanowi poważny problem, który może przyczynić się do spadku jakości modeli sztucznej inteligencji, włącznie z tymi stworzonymi przez największych graczy na rynku. Jak więc widać, AI nie jest na tyle bystra, aby odróżnić wartościowe treści od internetowych popłuczyn. A to nie świadczy zbyt dobrze o jej intelekcie, prawda?
Czy AI czeka świetlana przyszłość?
Akurat na to pytanie nie ma jasnej odpowiedzi. Warto się również zastanowić, czy rozwój sztucznej inteligencji w obecnej postaci jest nam na rękę. Pewnie, bazujące na niej narzędzia bywają przydatne, ale, jak już zostało udowodnione, nierzadko udzielają one mijających się z prawdą odpowiedzi, a ślepa wiara w porady wyplute przez czatboty może skończyć się dla nas nader nieprzyjemnie.
Nie pomaga także fakt, że sieć już teraz przepełnia masa treści tworzonych z myślą nie o ludzkich czytelnikach, tylko o botach indeksujących wyszukiwarek i – jak nietrudno się domyślić – nie są to materiały górnolotne i rzadko kiedy okazują się pomocne. Szkopuł w tym, że to właśnie one w głównej mierze posłużą do szkolenia kolejnych wersji popularnych modeli AI, tym samym napędzając błędne koło degradacji ich jakości.
Badacze z Epoch AI przewidują, że wszystkie wartościowe materiały stworzone przez ludzi zostaną pochłonięte przez sztuczną inteligencję w okolicach 2028 roku, a więc względnie niedługo. W międzyczasie informacje te będą mieszały się z zalewem wygenerowanych treści, doprowadzając do zatrucia materiału źródłowego i obniżenia jakości produktu końcowego, na czym ucierpią wszyscy – zarówno „ojcowie” AI, jak i internauci, którzy już praktycznie nie mają jak uciec od „twórczości” sztucznej inteligencji.
Pieśnią przyszłości wydają się agenci AI, czyli, powołując się na Harvardzkie wyjaśnienie definicji, „systemy umożliwiające podejmowanie działań”. Jak czytamy dalej: „W przeciwieństwie do chatbotów wykorzystują one duże modele językowe do organizowania złożonych działań związanych z rozwiązywaniem problemów, obejmujących planowanie, rozumowanie, a nawet interakcje z innymi agentami AI”. Harvard sugeruje, aby systemy takie traktować jako „wysoce wydajnych wirtualnych współpracownikach” lub wirtualną formę siły roboczej. Cóż, jedno z zagranicznych przedsiębiorstw, Artisan, przeprowadziło kampanię reklamową zachęcającą do zaprzestania zatrudniania żywych ludzi na rzecz AI i starczy powiedzieć, że nie spotkała się ona z ciepłym odbiorem. Aby znaleźć podobny przykład, nie musimy nawet szukać zbyt daleko, jako że wystarczy wycieczka do dawnej stolicy naszego kraju. Swego czasu dziennikarzy Off Radia Kraków zastąpiono sztuczną inteligencją, a redaktor naczelny bronił swojej decyzji, określając ją przy tym mianem eksperymentu badawczo-medialnego.
Jest ich dużo, ale ludzi jak na razie nie zastąpią
Oczywiście przewałkowane w tekście ChatGPT oraz Gemini nie są jedynymi zawodnikami na rynku AI. Llama Mety to bodaj najpopularniejszy otwartoźródłowy model, który możemy bez większych problemów uruchomić na własnej „maszynie”, z kolei Claude firmy Anthropic cieszy się uznaniem twórców aplikacji. Wypada napomknąć również o Bieliku, czyli polskiej odpowiedzi na produkt Altmana i spółki. Mimo wszystko to jednak „dzieci” OpenAI i Google’a głównie kojarzą się opinii publicznej ze sztuczną inteligencją i właśnie z tego powodu przypadł im wątpliwy przywilej posłużenia za przykłady na to, że w AI sporadycznie brakuje elementu symbolizowanego przez literę I w nazwie.
Podsumowując, na prawdziwą sztuczną inteligencję, czyli silną AI bądź też AGI, przyjdzie nam jeszcze sporo poczekać. To, z czym mamy obecnie do czynienia w postaci modeli Gemini lub ChatGPT, to w rzeczywistości ogromnych rozmiarów zestawy warunków decydujących o tym, jakimi danymi ze zbioru, na którym został wytrenowany konkretny czatbot, posłuży się on przy udzielaniu odpowiedzi, a do złożoności charakteryzującej ludzki umysł i szeroko pojmowaną inteligencję im zdecydowanie daleko.
Czytaj dalej
Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.