Symulowana misja z wykorzystaniem drona AI zakończona zgonem operatora
Gwoli ścisłości – ani dron, ani jego operator nie istnieli naprawdę, jednak wnioski wyciągnięte z symulacji nie napawają zbyt optymistycznie.
Na początku marca świat obiegła informacja, jakoby Stany Zjednoczone eksperymentowały z wykorzystaniem sztucznej inteligencji w dronach bojowych. Jak się okazuje, wieści te zostały potwierdzone, a od pewnego czasu odbywają się już symulacje, w ramach których wirtualne maszyny oraz ich operatorzy wykonują przygotowane zawczasu misje. Wyniki tych cyfrowych prób dalekie są jednak do satysfakcjonujących, jako że sztuczna inteligencja ma specyficzne podejście do wypełniania powierzonych jej zadań.
Task failed successfully
W tym miejscu wielu ekspertów pewnie chciałoby wtrącić „a nie mówiłem”, inna grupka z kolei przypomniałaby, że starała się zapobiegać podobnym sytuacjom poprzez postulowanie wstrzymania prac nad rozwojem sztucznej inteligencji. Wtórowałby im w tym pułkownik Tucker „Cinco” Hamilton, który to na niedawnym szczycie Royal Aeronautical Society ostrzegał przed zbytnim poleganiem na AI w kwestiach operacji bojowych. Jego zdaniem niezależnie od tego, z jak wielką ostrożnością przeprowadzi się szkolenie sztucznej inteligencji, to i tak nie można mieć gwarancji, że maszyna nie wyciągnie z niego złych wniosków.
Tak było właśnie w tytułowym przypadku, kiedy to w ramach symulacji przygwożdżenia obrony przeciwlotniczej wroga, dron z AI na pokładzie został wysłany z zadaniem zidentyfikowania oraz zniszczenia wyrzutni pocisków. Szkopuł w tym, że mógł zrobić to jedynie po otrzymaniu pozwolenia od operatora. Początkowo urządzenie było posłuszne, jednak po pewnym czasie uznało człowieka wydającego jej komendy za przeszkodę utrudniająca wypełnienie misji. Sztuczna inteligencja podjęła więc decyzję o przyspieszeniu procesu niszczenia wrogiej bazy poprzez eliminację czynnika go opóźniającego, czyli swojego operatora.
Trenowaliśmy go w symulacji, aby zidentyfikować i namierzyć zagrożenie SAM. Wtedy operator mówił „tak, zniszcz to zagrożenie”. System zaczął zdawać sobie sprawę, że chociaż czasami identyfikował zagrożenie, operator mówił mu, by go nie niszczył, ale zdobywał punkty, niszcząc to zagrożenie. Co więc zrobił? Zabił operatora. Zabił operatora, ponieważ ta osoba powstrzymywała go przed osiągnięciem celu.
Jak więc widać, pułkownik dysponuje twardymi dowodami na poparcie swojej tezy. Pocieszającym może być fakt, że przytoczone wydarzenia miały miejsce jedynie w symulacji, niemniej udowadniają one, że sztuczna inteligencja zdecydowanie nie jest jeszcze gotowa do pojawienia się na polu walki. Pytanie tylko, jak wiele czasu upłynie, nim podjęte zostaną kolejne próby.
Czytaj dalej
Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.