Meta przyznała się do zbyt agresywnej moderacji treści na swoich platformach. Koncern utrzymuje, że jest to wynikiem błędów
Nick Clegg, dyrektor ds. działalności globalnej w Mecie, jest niezadowolony ze sposobu prowadzenia moderacji na Facebooku i Instagramie, a winą za obecny stan rzeczy obarcza liczne błędy.
Jeśli udostępnione przez was na Facebooku treści zniknęły z serwisu i jesteście pewni, że nie naruszały one regulaminu platformy, niewykluczone, że zostały one usunięte w wyniku błędu. A te, wedle słów Nicka Clegga, w przypadku moderacji na platformach Mety występują zdecydowanie zbyt często i wypadałoby coś z tym zrobić.
To jak to wreszcie jest z tą moderacją?
W trakcie poniedziałkowej rozmowy z dziennikarzami Nick Clegg, pełniący obecnie rolę dyrektora ds. działalności globalnej w korporacji, przekazał, że treści na Facebooku, Instagramie i Threads moderowane są w sposób kontrowersyjny, a liczba błędów napotykanych w toku tego procesu przyprawia o zawrót głowy. Jako pracownik koncernu zobowiązał się rozwiązać problem, niemniej nie będzie to zadanie należące do najprostszych.
Wiemy, że podczas egzekwowania naszych zasad wskaźniki błędów są nadal zbyt wysokie, co przeszkadza w swobodnym wyrażaniu opinii, które chcemy umożliwić. Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a zbyt wiele osób jest niesprawiedliwie karanych.
Mimo wpompowania milionów dolarów w rozwój systemów automatycznej moderacji raczej trudno określić je mianem działających jak należy. Jako przykład zbędnej i niewłaściwej cenzury Clegg podał niedawną pandemię Covid-19, w trakcie której treści niezgodne z przekazem uznanym za prawidłowy były usuwane w hurtowych ilościach, do czego przyznał się nawet Mark Zuckerberg, przy okazji zasłaniając się ultimatum postawionym przez rząd Stanów Zjednoczonych.
Nikt podczas pandemii nie wiedział, jak się ona rozwinie, więc to naprawdę mądrość z perspektywy czasu. Mimo to czujemy, że trochę przesadziliśmy. Zdajemy sobie z tego sprawę, ponieważ użytkownicy całkiem słusznie podnieśli głos i skarżyli się, że czasami przesadzamy z egzekwowaniem przepisów i popełniamy błędy, usuwając lub ograniczając nieszkodliwe lub niewinne treści.
Ze słów Nicka Clegga można wywnioskować, że moderacja w serwisach amerykańskiego koncernu jest zbyt surowa, a jej ofiarami nader często padają niewinni użytkownicy. A jak system Mety sprawuje się w przypadku materiałów, które są nie tylko niezgodne z regulaminem platformy, ale i z prawem? Cytując klasyka: tak średnio bym powiedział.
W poprzednim miesiącu informowaliśmy o tym, że założyciel InPostu, Rafał Brzoska, walczy z Metą w sądzie. Sprawa dotyczy tony fejkowych zdjęć wykorzystujących wizerunek jego i jego żony do promowania szemranych stron internetowych i naciągania nieświadomych osób. Posty takie potrafią wisieć przez naprawdę długi czas, nim znikną serwisu, a aby to nastało, nierzadko należy wysłać nawet kilkanaście zgłoszeń. Wychodzi więc na to, że automat na Facebooku świetnie sobie radzi z blokowaniem treści nienaruszających przepisów, zaś oczywiste deepfake'i i scamy hulają sobie w najlepsze i robią milionowe zasięgi.
Wysoko postawione w Mecie osoby są świadome problemów trapiących algorytmy odpowiedzialne za moderowanie treści – to już wiemy. Usłyszeliśmy również szumną zapowiedź tego, że powinno się to zmienić. W tym wszystkim zabrakło jedynie konkretów, kiedy to miałoby nastąpić i w jaki sposób zaktualizowany system oceniałby, czy dany materiał jest zgodny z zasadami, czy też nie.
Czytaj dalej
Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.