4
15.08.2024, 10:00Lektura na 11 minut

Czy internet umarł w 2016 roku? Boty, AI i algorytmy

Co jeśli ruch w sieci w znacznej mierze generują boty, a nasze poczynania to efekt manipulacji ze strony wszechobecnych algorytmów? Takie są założenia teorii martwego internetu, która w ostatnich miesiącach zyskała wielu nowych zwolenników.


Jakub „Jaqp” Dmuchowski

Przyznacie sami, że brzmi to intrygująco. Wedle ludzi, którzy w to wierzą, internet jest w istocie pustynią, na której z rzadka tylko możemy spotkać drugiego człowieka. Szaleństwo? A może jest w tym ziarno prawdy? By odpowiedzieć na te pytania, wypadałoby się najpierw przyjrzeć pochodzeniu tak radykalnego postrzegania globalnej sieci.


Dzień, w którym umarł internet

Geneza teorii martwego internetu sięga ubiegłego dziesięciolecia, kiedy to jej zalążek wykiełkował w wyniku pojawienia się anonimowego postu na 4chanie lub, jak podają niektóre źródła, Wizardchanie. Społeczność obu serwisów oczywiście podłapała temat, a w 2020 roku omawianej teorii udało się przeniknąć do mediów głównego nurtu. Z kolei za popularyzację jej nazwy możemy podziękować wątkowi „Dead Internet Theory: Most of the Internet is Fake” zapoczątkowanemu na forum Agora Road’s Macintosh Cafe przez osobę kryjącą się pod pseudonimem IlluminatiPirate.


Myślę, że jest całkowicie oczywiste, co subtelnie sugeruję tutaj, biorąc pod uwagę tę konfigurację, ale pozwólcie, że spróbuję zwięźle przedstawić moją tezę: rząd USA angażuje się w manipulację całą światową populacją z wykorzystaniem sztucznej inteligencji. Jeśli Chiny ze swoją punktacją społeczną odtwarzają „Psycho Pass”, to rząd USA doskonale odtwarza Metal Gear Solid 2.


IlluminatiPirate

O tym, że teoria martwego internetu została okrzyknięta mianem kolejnej teorii spiskowej, już wiemy. Warto jednak przyjrzeć się leżącym u jej podwalin założeniom, jako że te zdają się niestety coraz częściej odnajdywać odzwierciedlenie w rzeczywistości i potwierdzane są licznymi raportami publikowanymi przez firmy skupione na analizie ruchu sieciowego. Tak czy siak, zwolennicy rzeczonego „zjawiska” zgadzają się co do jednego – internet umarł na przełomie 2016 i 2017 roku. I nie, nie miał pięknego pogrzebu.


Teoria w teorii

Na przestrzeni minionych lat teorię regularnie wzbogacano o kolejne elementy, jednakże jej pierwotna wersja skupiała się na botach, a dokładniej – ich natłoku w sieci. Wedle założeń skrypty te były tworzone celem manipulowania algorytmami i promowania konkretnych wyników wyszukiwania, wszystko po to, aby „ukierunkować” niczego nieświadomych konsumentów.

Radykalniejsi zwolennicy tego poglądu wysunęli tezę, że boty wykorzystywane są nie tylko przez big tech, ale też agencje rządowe. Skoro internauta może zostać zmanipulowany i tym samym skłoniony do odwiedzenia wybranej strony i dokonania zakupu danego produktu, podobne działania da się równie dobrze zastosować w procesie kształtowania opinii publicznej poprzez podsuwanie ludziom pod nos jedynie pożądanych informacji i ukrywanie tych niechcianych.

Wszystko to według zwolenników teorii można podsumować następująco: ludzie stanowią mniejszość w internecie. Osoby takie uważają, że podczas naszych wirtualnych eskapad rzadko kiedy wchodzimy w interakcję z innym żywym człowiekiem. Co więcej, sugerują, że znaczna część treści, na jakie natykamy się w sieci, jest dziełem sztucznej inteligencji. W tym miejscu wypada zaznaczyć, że ten fragment teorii został sformułowany na długo przed popularyzacją narzędzi pokroju ChatGPT i jemu pokrewnych dużych modeli językowych i generatywnych modeli sztucznej inteligencji, które to aktualnie coraz powszechniej wykorzystuje się do zalewania sieci śmieciami (co prowadzi do pojawiania się kolejnych problemów, ale o nich później).


A może coś jest na rzeczy?

Cechą charakterystyczną teorii spiskowych jest to, że nie mają one odzwierciedlenia w rzeczywistości. A co z teorią martwego internetu? Okazuje się, że w tym wypadku nie musimy spekulować – niektórzy postanowili sprawdzić jej sensowność

W ramach badania przeprowadzonego w ubiegłym roku przez zajmującą się cyberbezpieczeństwem firmę Imperva przeanalizowano internet pod kątem obecności botów. Uzyskane wyniki okazały się niezbyt optymistyczne, wedle nich niemal połowa, bo 49,6%, ruchu w sieci stanowi efekt działań nie ludzi, lecz właśnie botów. To najwyższa liczba w historii tego badania, a w przypadku poszczególnych państw prezentuje się jeszcze okazalej. Dla przykładu, Imperva wykazała, że ruch internetowy w Irlandii jest zautomatyzowany aż w 71%.

Trudno spierać się ze stwierdzeniem, że znaczny udział w tym mają boty, zarówno te indeksujące (stosowane przez korporacje stojące za wyszukiwarkami, np. Google), jak i te, którym powierzono zadanie przeczesywania sieci w poszukiwaniu materiałów służących do szkolenia modeli sztucznej inteligencji. Czerwcowy raport opublikowany przez Akamai Technologies wskazuje na to, że szkodliwe boty są odpowiedzialne za ok. 27% całkowitego ruchu w sieci, z kolei te pożyteczne za niespełna 15%. Wychodzi więc na to, że znaczna część z nich nie działa z korzyścią dla internetu.

Co ciekawe, pewna część złośliwych botów łączy się z internetem za pośrednictwem „domowych” połączeń, w związku z czym jest trudna do odnalezienia i nad wyraz często klasyfikowana jako ludzie. Warto jednak rzucić okiem na to, jak się sprawy mają w przypadku cyfrowych „szkodników”, które nie działają w ukryciu, a ich naturalnym środowiskiem pozostają media społecznościowe.


Kwestia Twittera

Spory wgląd we wszechobecność botów w sieci, a w szczególności w mediach społecznościowych, wniósł proces zakupu Twittera przez Elona Muska. Byli włodarze platformy zarzekali się, że boty to niespełna 5% dziennych aktywnych użytkowników, z kolei słynny miliarder twierdził, iż liczba ta została zdecydowanie zaniżona. Posunął się nawet do wynajęcia firmy analitycznej Cybra, która miała ten fakt ustalić raz na zawsze. Wedle pierwszego z dostarczonych przez nią raportów boty stanowiły ok. 13,7% ówczesnych aktywnych użytkowników Twittera, według drugiego – 11%. Choć wynik ten wcale nie wydaje się imponujący, zwłaszcza w zestawieniu z danymi przytoczonymi w raporcie Impervy, analitycy zwrócili uwagę na to, że nienależące do ludzi konta generują nieproporcjonalnie dużą ilość treści.

Sama świadomość istnienia problemu nie wystarczyła jednak, aby go rozwiązać. Musk wkrótce po przejęciu Twittera przeprowadził w serwisie ogromną czystkę, niemniej nie powstrzymało to natłoku botów na długo. Obecnie miliarder planuje podjęcie radykalniejszych kroków, w tym wprowadzenie symbolicznej opłaty za korzystanie z portalu, co miałoby zniechęcić stojące za botami osoby do zakładania tysięcy kont i zalewania z ich pomocą X-a spamem.

Twitter nie był przy tym jedynym serwisem, który musiał stawić czoła napływowi botów. Swego czasu stojący za YouTube’em inżynierowie mieli wątpliwą przyjemność walki z efektami zjawiska nazwanego wdzięcznie inwersją. W pewnym okresie handel „fałszywymi” wyświetleniami generowanymi przez zarządzane przez boty konta rozrósł się do tego stopnia, że powstała obawa, iż iż sztuczne odtworzenia filmów zaczną przewyższać te nabijane przez ludzi. Doprowadziłoby to do sytuacji, w której algorytmy serwisu błędnie klasyfikowałyby takie wyświetlenia jako prawidłowe, z kolei te pochodzące od żywych osób byłyby uznawane za fałszywe i niebrane pod uwagę przy rekomendacjach. Koniec końców inwersji udało się zapobiec, jednak zwolennicy teorii martwego internetu przywołują to wydarzenie po dziś dzień w celu poparcia słuszności swoich twierdzeń.


Ile inteligencji jest w sztucznej inteligencji?

Wszystkie wcześniejsze przykłady dotyczą botów pod kontrolą ludzi. A co, gdyby sztuczna inteligencja została puszczona samopas? Opcję taką postanowił rozważyć badacz Timothy Shoup z Copenhagen Institute for Futures Studies, a efekty jego rozmyślań trudno nazwać optymistycznymi.

Zdaniem Shoupa w przypadku uwolnienia modelu GPT-3 (który doczekał się już swoich bardziej zaawansowanych następców) sieć stałaby się miejscem nie do poznania. Mimo to trudno byłoby utożsamiać ten moment z jej śmiercią, wręcz przeciwnie – na ilość cyfrowych treści nie moglibyśmy narzekać. Timothy przewiduje, że do roku 2025/2030 za 90-99,9% materiałów dostępnych w internecie  odpowiadałaby AI. Tyle że owe teksty nie należałyby do zbyt górnolotnych. Dlaczego? Ponieważ szkolenie sztucznej inteligencji zatoczyłoby koło, a następne modele uczyłyby się na „twórczości” swoich poprzedników i powielały ich błędy, tym samym stając się coraz głupszymi wraz z upływem czasu i każdym powtórzeniem cyklu. Wedle profesora Toby’ego Walsha z Uniwersytetu Nowej Południowej Walii proces taki może doprowadzić nie tylko do wspomnianego ogłupienia, ale nawet do uszkodzenia poszczególnych modeli. Co ciekawe, tego typu skutki pośrednio da się obserwować nawet teraz, a przykładów powielania przez AI skończonych głupot nie trzeba długo szukać.

Swego czasu Gemini – Google’owski chatbot, który doczekał się integracji ze stroną wyników wyszukiwania (i za którego to gigant z Mountain View musiał przepraszać przy nieco innej okazji) – jako remedium na nietrzymający się pizzy ser sugerował dodanie do niej nieco kleju oraz zalecał jedzenie co najmniej jednego kamienia dziennie, powołując się przy tym na geologów z Berkeley, a ci, jak nietrudno się domyślić, z tak głupim stwierdzeniem nie mieli nic wspólnego.

Skąd więc AI Google’a brała te rewelacje? W większości przypadków łapała się na ewidentne „zarzutki”, jakich w internecie jest na pęczki, sporadycznie także posiłkowała się wypocinami innych modeli sztucznej inteligencji bazującymi na wątpliwej jakości źródłach. Co jednak, gdyby AI rzeczywiście postanowiła zapracować na swoją nazwę i udzielać się w sieci w taki sposób, w jaki mają zwyczaj ludzie?


Witamy na Reddicie

Reddit to popularny agregat treści i forum pozwalające internautom na zrzeszanie się w społeczności, zwane subredditami bądź też po prostu subami. Jeden z użytkowników portalu, zafascynowany sztuczną inteligencją, postanowił przeprowadzić eksperyment. W jego ramach uformowano subreddit, na który odmówiono wstępu… ludziom. SubSimulatorGPT2, bo o nim mowa, wypełniony został botami mającymi imitować prawdziwych użytkowników forum. Puszczeni samopas „cyfrowi podszywacze” zaczęli publikować posty zawierające przepis na kurczaka tikka masala, informacje o śmierci mamy oraz pytania odnośnie do tego, w jakim miejscu w Londynie można zaopatrzyć się w zioło. Wypisz, wymaluj internauci z prawdziwego zdarzenia.

Cel eksperymentu stanowiło sprawdzenie, jak boty poradzą sobie z zadaniem imitowania zachowania ludzi. Szybko okazało się, że wygenerowane przez nie treści, choć nieco abstrakcyjne, często były nie do odróżnienia od twórczości człowieka.


To już jest koniec

Dotarliśmy do momentu, w którym należy postawić fundamentalne pytanie: Czy internet, jaki znaliśmy, rzeczywiście umarł w 2016 roku? Abstrahując od konspiracyjnej otoczki i teorii spiskowej dotyczącej tego, że za wszystkim stoi rząd Stanów Zjednoczonych, natłok botów w sieci jest realnym problemem, a my musimy mierzyć się z nim już teraz.

Mimo to stwierdzenie, że znaczna część napotykanych przez nas w internecie osób jest tak naprawdę programami komputerowymi, zdaje się mocno przesadzone, nie powinniśmy więc popadać w paranoję i doszukiwać się botów na każdym kroku. Oczywiście w mediach społecznościowych roi się od fejkowych kont, a równie fałszywe osoby będą reklamowały produkty i zachęcały nas do dokonania zakupu. Cała filozofia sprowadza się więc do tego, aby odróżnić człowieka od kodu – zadanie to w przeciągu najbliższych miesięcy i lat zostanie zaś znacznie utrudnione.

Nie dziwi zatem fakt, że rządy postanowiły wziąć sprawę w swoje ręce i nieco utemperować zapędy korporacji. W czerwcu Meta dowiedziała się, że nie ma prawa wykorzystać danych europejskich użytkowników do szkolenia swoich modeli AI, w związku z czym koncern zapowiedział, iż jego multimodalna sztuczna inteligencja na Starym Kontynencie po prostu nie zadebiutuje. Z podobnego założenia wyszło Apple, które przekazało, że unijne regulacje w kwestii AI są na tyle niejasne, iż firma wstrzyma się z premierą swojego modelu w tym regionie świata, nie chcąc napytać się biedy.

Sam fakt istnienia ograniczeń i regulacji w tej materii nie oznacza oczywiście, że wszyscy muszą darzyć je miłością i ich przestrzegać. Przykład osoby o specyficznym podejściu do praw autorskich stanowi szef ds. AI w Microsofcie, Mustaf Suleyman, który powiedział, że jeśli treści są publikowane w otwartej sieci, to „każdy może je kopiować, zmieniać i reprodukować”. No, chyba że chodzi o software giganta z Redmond – wtedy łapy precz.

Część korporacji za to sama z siebie wyszła z inicjatywą i postanowiła zawalczyć ze szkodliwymi skutkami obecności AI. Wspomniana już Meta ogłosiła, że stworzone przez sztuczną inteligencję materiały zamieszczane na Facebooku będą odpowiednio oznaczane, podobne wytyczne wystosował YouTube. Ba, giganci technologiczni zdecydowali się nawet połączyć siły i uformować Coalition for Secure AI, czyli koalicję na rzecz bezpiecznej sztucznej inteligencji. Mimo to big tech nagminnie unika tematu botów, które w sieci zaczynają czuć się jak u siebie.

Czy oprócz tego, że po prostu śmiecą, stanowią bardziej wymierne zagrożenie? Zdecydowanie tak, czego dowodem są choćby prowadzone przez Rosję akcje dezinformacyjne dyskredytujące Ukrainę i Ukraińców. Boty maczają swoje wirtualne palce w mediach społecznościowych i są w stanie wypromować wybranych twórców oraz ich dzieła – inżynierowie YouTube’a, którzy zmuszeni zostali dać im odpór, przekonali się o tym na własnej skórze.

Odpowiadając na pytanie, czy internet jest martwy: nie, nie jest. Co więcej, zdawać by się mogło, że ma się lepiej niż kiedykolwiek wcześniej. Giganci technologiczni chwalą się nieustannie rosnącą liczbą użytkowników swoich portali, internetowe gwiazdy biją rekordy wyświetleń, z kolei specjaliści ds. SEO puszą się na samą myśl o tym, jaki ruch generują ich portale. Sieć wręcz tętni życiem, prawda?

A jednak nie sposób nie odnieść wrażenia, że nie jest ona już tą samą siecią, którą poznaliśmy kilkanaście lat temu. Siecią, w której główny towar stanowiła wiedza, a nie nasze dane. Siecią, która bezpowrotnie zniknęła i ustąpiła miejsca swojej skomercjalizowanej młodszej siostrze. Niestety wnioski okazują się smutne: choć współczesny internet jest pełen rzeczywistych użytkowników, to boty spotkamy w każdym zakątku internetu.

Fot. otwierająca: Pexels


Czytaj dalej

Redaktor
Jakub „Jaqp” Dmuchowski

Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.

Profil
Wpisów1131

Obserwujących2

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze