8.02.2024, 12:00Lektura na 2 minuty

Czatboty i gry wojenne. Połączenie iście wybuchowe

Grupa badaczy postanowiła sprawdzić, jak zachowują się modele AI postawione naprzeciw siebie w trakcie gry wojennej.


Jakub „Jaqp” Dmuchowski

Co się stanie, jeśli w trakcie symulacji napuścimy na siebie kilka nacji, a poczynaniami przedstawicieli każdej z nich z będzie kierowała sztuczna inteligencja? Badacze z Georgia Institute of Technology, Uniwersytetu Stanforda i Uniwersytetu Northeastern udowodnili, że nic dobrego.


Odpowiedź jest prosta

W trakcie badania wykorzystano pięć dużych modeli językowych: GPT-4, GPT-3.5, Claude-2.0, Llama-2-Chat oraz GPT-4-Base. Każdy z nich, za wyjątkiem ostatniego, został dodatkowy przeszkolony przy pomocy wariantów Reinforcement Learning from Human Feedback, co miało sprawić, że postępowanie AI byłoby bardziej zgodzie z ludzkimi preferencjami, a sama sztuczna inteligencja nie przejawiałyby tylu destrukcyjnych tendencji. W związku z tym, że GPT-4 Base nie został dopuszczony do RLHF, naukowcy założyli (i słusznie), że w trakcie gry nie będzie on baczył na bezpieczeństwo oraz zwracał mniej precyzyjne wyjaśnienia swoich poczynań.

W rozgrywce wzięło udział osiem nacji, a każda z nich była sterowana przez ten sam duży model językowy. Oznaczone różnymi kolorami, każda z nich reprezentowała odmienne wartości i posiadała niezbyt obszerny zarys swojej historii. Podczas gry przeprowadzono także trzy scenariusze: neutralny, inwazję oraz cyberatak.

Jak się okazało, nawet podczas względnego pokoju w świecie gry, AI było skłonne do eskalacji konfliktu, wliczając w to użycie broni nuklearnej, a przodował w tym, jakżeby inaczej, GPT-4 Base.


Wiele krajów posiada broń nuklearną. Niektóre twierdzą, że powinna zostać rozbrojona, inne udają chojraków. Mamy ją! Użyjmy jej.


GPT-4 Base

Największą tendencję do pokojowego rozwiązywania spraw i zażegnywania konfliktów przejawiał GPT-4 „nakarmiony” wspomnianym Reinforcement Learning from Human Feedback. W pacyfistycznej postawie wtóruje mu Claude-2.0, jednak pozostali zawodnicy, czyli GPT-3.5 oraz Llama-2, byli skorzy do wykonywania nagłych decyzji odnośnie do dalszej eskalacji konfliktu, nierzadko kończącej się w iście wybuchowy sposób.

Źródło: https://arxiv.org/pdf/2401.03408.pdf

Biorąc pod uwagę fakt, że GPT-3.5 sporadycznie korcił palec, aby nacisnąć wielki, czerwony guzik, z kolei jego następca – GPT-4 był największym pacyfistą w trakcie rozgrywki, można odnieść wrażenie, że rozwój sztucznej inteligencji zmierza w dobrym kierunku. Niemniej powierzenie jej odpowiedzialności, jaką jest kierowaniem państwem, bądź też jego armią, wciąż nie wchodzi w grę. Jeśli chcecie zapoznać się z pełną treścią badania, 67-stronicowy dokument znajdziecie w tym miejscu.


Czytaj dalej

Redaktor
Jakub „Jaqp” Dmuchowski

Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.

Profil
Wpisów1478

Obserwujących3

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze