Call of Duty: AI będzie moderować czat głosowy

Od czasów Xboksa 360 seria Call of Duty słynie z toczonych przez graczy bojów w lobby, które swoją skalą często przyćmiewały to, co działo się w trakcie właściwej rozgrywki. Zdaje się jednak, że producent pragnie odciąć się od toksycznej przeszłości serii, w związku z czym zatrudnił nowego moderatora czatu głosowego. A będzie nim sztuczna inteligencja.
Panowie, spokojnie
Technologię do moderacji czatu dostarczy firma Modulate, z którą Activision nawiązało partnerstwo. Jej produkt początkowo zostanie zaimplementowany w Call of Duty: Warzone i Call of Duty: Modern Warfare II, a Amerykanie mogą „cieszyć się” ToxModem, bo takie miano nosi omawiane narzędzie, już od wczoraj. Będzie ono odpowiadało za identyfikowanie w czasie rzeczywistym przejawów mowy nienawiści, dyskryminowania oraz gnębienia współgraczy.
Jaka kara czeka na niepokorne jednostki, które nie podporządkują się regulaminowi rozgrywki sieciowej i dbającego o jego przestrzeganie wirtualnego strażnika, tego nie doprecyzowano. Narzędzie nie będzie samodzielnie podejmowało decyzji o karaniu krnąbrnych użytkowników czatu głosowego, a jedynie przesyłało specjalnie spreparowane skargi do moderatorów, którzy zapoznają się z materiałem i zadecydują o wymiarze kary.
Co ciekawe, firma Modulate nie sprecyzowała, jak dokładnie funkcjonuje ToxMod. Jak możemy przeczytać na stronie producenta:
ToxMod ocenia czat głosowy w celu oznaczenia złego zachowania, analizuje niuanse każdej rozmowy w celu określenia toksyczności i umożliwia moderatorom szybkie reagowanie na każdy incydent poprzez dostarczanie odpowiedniego i dokładnego kontekstu.
CEO rzeczonego przedsiębiorstwa zdradził przy tym, że jego twór bierze pod uwagę nie tylko wagę wypowiadanych słów, lecz także ton, w jakim to robiono, i emocje, jakie dało się wyczuć w głosie podczas słania wiązanki w stronę sojuszników.
Warto przy tym zaznaczyć, że Activision wypowiedziało wojnę oszustom, a implementacja antycheata Ricochet ma za zadanie uprzykrzyć i pozwoli zasmakować ich własnego lekarstwa. Fanów z serii z kolei powinna zainteresować informacja dotycząca startu wersji beta jej najnowszej odsłony, czyli Call of Duty: Modern Warfare III.
Czytaj dalej
5 odpowiedzi do “Call of Duty: AI będzie moderować czat głosowy”
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.
No tak. Gracze mogą do siebie nawzajem strzelać, dźgać nożami i wysadzać w powietrze, ale nie daj boże, żeby jeden drugiemu uświadomił co robi z jego matką.
rozumiem, że jesteś jednym z tych co biegają po internecie i myślą, że są fajni jak zwyzywają czyjąś matkę, skoro tak się przejąłeś tym newsem?
Rozumiem, że jesteś jednym z tych, co sięgają między pośladki i grzebią tam, aż wyciągną z wiadomego otworu swoje wnioski.
Postaram się to ci wytłumaczyć jak krowie na rowie:
1: Kwestionuję specyficzną moralność, za sprawą w której dajemy ludziom grę, w której mogą się nawzajem zabijać, ale już sytuacja, w której gracze zabijają się nawzajem używając przy tym „brzydkich słów” jest nie do przyjęcia. Co więcej, CoD-y mają PEGI 18, więc nawet ich nie usprawiedliwia „ochrona dzieci”.
Jeśli ktoś jest wystarczająco dojrzały, żeby wirtualnie zabijać, powinien być na tyle dojrzały, żeby dać sobie radę z tym, że zwyzywał go jakiś random w internecie. Jeśli tego nie potrafi, to nie jest też na tyle dojrzały, żeby grać w grę polegającą na zabijaniu się nawzajem.
2: Activision nie jest od wychowywania swoich klientów i decydowania jak wolno im się zachowywać.
3: Różni ludzie mają różny poziom tolerancji na rozmaite zachowania. Dlaczego to Activision ma decydować za nich, co chcą usłyszeć? Zamiast tworzyć cuda niewidy, podniecać się swoim modnym AI, oddać decyzję, co chcą zobaczyć/usłyszeć w ręce graczy. Dać porządną kontrolę, kogo chcę widzieć/słyszeć na czacie tekstowym/głosowym: wszyscy/własna drużyna/nikt. Do tego przycisk wycisz do zatkania gęby w indywidualnych przypadkach i blokuj, żeby nigdy nie wrzucało cię do jednego meczu z osobą, z która naprawdę nie chcesz grać, bo jej wygłupy wychodzą poza same czaty i już. Tylko tyle i aż tyle potrzeba, żeby zapanować nad „toksycznością”.
4: Narzędzia AI nie są nieomylne. Zawsze będą popełniać błędy i możesz co najwyżej dostroić je czy mają wskazywać false positivy czy false negativy. Jak Ustawisz AI, żeby było mniej czułe, to przez oczka sieci przemkną ci się winni toksyczności. A jak AI będzie bardziej czułe, to rykoszetem oberwie się porządnym graczom (co już niejednokrotnie zdarzało się przez rozmaite systemy antycheaterskie). I teraz, na potrzeby dyskusji przyjmijmy, że skuteczność takiego AI wynosi 99% (a w rzeczywistości daleko mu do takiego wyniku). Zerknięcie na steamdb pokazuje maksymalnie 76 000 jednocześnie grających w ciągu ostatnich 24 godzin. To daje 760 błędnych rozpoznań do sprawdzenia przez moderatorów/ Nie tak dużo? Dodajmy do tego zgłoszenia prawidłowe i weźmy pod uwagę, że jest kilka CoD-ów, w które ludzie aktywnie grają. Jedni wolą Modern Warfare, drudzy Black Ops, a trzeci jeszcze Warzone i już robi nam się całkiem pokaźna liczba tych zgłoszeń, a przepracowani moderatorzy mogą i będą popełniać błędy, czym przechodzimy do kolejnego punktu.
5: Kontekst jest wszystkim. Przykładowo mam grupę kumpli, z którymi strasznie po sobie nawzajem jedziemy. Wszystko w przyjaznej atmosferze i nikt się nie obraża, bo znamy się jak łyse konie i doskonale rozumiemy, że to zwykłe żarty, ale jakbyś nas nie znał, to byś był przekonany, że się mocno nie lubimy i złośliwie sobie ubliżamy. To samo może występować w grze, bo skąd AI ma o tym wiedzieć, że grupka przyjaciół sobie żartuje? Więcej, moderator też nie ma pojęcia, ale może takie rzeczy wychwycić po tonie głosu czy ogólnej reakcji „obrażanych”, ale wracając do poprzedniego punktu, przemęczony moderator, mający przed sobą setki kolejnych zgłoszeń do sprawdzenia, nie będzie dzielić włosa na czworo, tylko z automatu walnie bany.
6: Mając w pamięci, że NSA infiltrowało społeczności graczy w poszukiwaniu terrorystów posługujących się growym czatem, żeby się niepostrzeżenie komunikować (w tym w CoD-ach właśnie), nie mogę się nie zastanawiać, co jeszcze będzie wyłapywać to AI i gdzie jeszcze będzie wysyłać rozmowy graczy. Zwłaszcza, że w takim wypadku konsekwencje źle zrozumianej, wyrwanej z kontekstu wypowiedzi mogą być poważniejsze od bana w jakiejś tam gierce.
Może to w końcu ukryci Te drące japę Wyzywające wszystkich i co robią z ich madakami czy co kto komu possie bo to jest istna zmora coda ale z drugiej strony Jacy klienci taka kultura.
Oh tak, nie ma to jak „AI” które pewnie narobi więcej roboty niż pomocy, wychwytujące „false positves”, które ludzie później muszą przeanalizować. Na pewno się uda xd