Złamano narzędzie chroniące obrazy przed wykorzystywaniem ich przez AI
Batalii artystów z żerującą na ich dorobku sztuczną inteligencją ciąg dalszy.
Tytułowym narzędziem chroniącym niektóre prace przed ich kopiowaniem przez AI jest Glaze. Przepuszczone przez nie obrazy były wzbogacane o niewidoczny dla ludzkiego oka szum, który (do niedawna) skutecznie powstrzymywał sztuczną inteligencję i uniemożliwiał jej odczytywanie stylu danego twórcy.
Projekt Glaze
Za stworzenie narzędzi wchodzących w skład pakietu okraszonego mianem Projekt Glaze (ang. The Glaze Project) odpowiada profesor Ben Zhao z Uniwersytetu w Chicago. Ostatnio na koncie projektu w serwisie X pojawił się wpis dotyczący ogromnego zainteresowania ochroną grafik przed zakusami ze strony sztucznej inteligencji:
Co ciekawe, wzrost popularności Projektu Glaze zdaje się być ściśle związany z ogłoszeniem przez Metę planów co do rozpoczęcia szkolenia swoich nowych modeli AI. Wedle słów Zhao, nawet gdyby jego zespół poświęcił cały swój czas na przetwarzanie próśb o skorzystanie z Glaze, prawdopodobnie i tak nie byłby w stanie spełnić większości z nich.
Dlaczego więc chcący skorzystać z narzędzia artyści nie zrobią tego we własnym zakresie? Otóż dlatego, że wymagana przez nie moc obliczeniowa prawdopodobnie doprowadziłaby do awarii lub wyczerpania baterii większości powszechnie dostępnych na rynku urządzeń. Bez Zhao poinformował także, że ilość czasu potrzebna na opracowanie specjalnej aplikacji mobilnej oraz umieszczenie jej w popularnych sklepach pokroju App Store lub Google Play jest wręcz niewiarygodnie wysoka, a wśród badaczy pod jego wodzą niestety nie ma ekspertów w tej dziedzinie, co stanowi kolejną przeszkodę na drodze.
Glaze pokonany
Zespół badaczy z Zurychu postanowił osobiście sprawdzić, jak bardzo skuteczne są zabezpieczenia nakładane przez Glaze na obrazy. Jak się szybko okazało, pozostawiały one sporo do życzenia, a inżynierom udało się je całkiem sprawnie obejść. O zajściu tym postanowili poinformować Zhao i jego zespół, aby ci mogli udoskonalić swój projekt. Jak jednak słusznie zauważył osoby odpowiedzialne za Projekt Gaze, przygotowanie narzędzia jest jedynie początkiem, a aby wywiązywało się ono wzorowo ze swojego zadania, musi stale ewoluować – tak, jak robi to sztuczna inteligencja.
Jedną z osób stojących za atakiem na Projekt Glaze był Nicholas Carlini – pracujący dla Google DeepMind naukowiec. Swoje perypetie z Glaze, a raczej łamaniem rzeczonego narzędzia, przedstawił we wpisie na blogu, który możecie przeczytać w tym miejscu.
Bez Zhao zdecydowanie nie jest usatysfakcjonowany z przebiegu ataku, aczkolwiek, jak już wspomniano, był świadomy tego, że w obecnej Glaze nie będzie skuteczne przez dłuższy okres. Prawdopodobnie jednak liczył na to, że jego twór będzie użyteczny nieco dłużej, a poczynania Carliniego i Höniga udowodniły, że sztuczna inteligencja już teraz może sobie poradzić z nakładanymi przez niego na obrazy zakłóceniami. W związku z atakiem na blogu Glaze pojawił się wpis wyjaśniający zasady działania narzędzia i starający się zbyć część ze stawianych mu zarzutów.
Co dalej z Projektem Glaze? Odpowiedzialne za niego osoby zapewniają, że wyciągnęły wnioski z ostatnich wydarzeń, a wiele poprawek niezbędnych do zapobiegnięcia ich ponownemu wystąpieniu w przyszłości zostało już wdrożonych. W dłuższej perspektywie badacze planują opracować jeszcze silniejsze zabezpieczenia, aby skuteczniej chronić prace artystów, którzy wolą nie udostępniać swoich dzieł AI i stojącym za nią korporacjom.
Czytaj dalej
Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.