rek

Google chce naprawić AI. I proponuje sześć punktów

Google chce naprawić AI. I proponuje sześć punktów
Firma wierzy, że główne problemy sztucznej inteligencji da się naprawić przez wdrożenie kilku relatywnie prostych działań.

W rozmowie z portalem Axios, szef bezpieczeństwa informacji Google Cloud, Phil Venables, zwraca uwagę na to, że implementowanie AI przez firmy zazwyczaj nie jest poprzedzone namysłem nad tym, do czego długofalowo ma służyć ta technologia i jak można zadbać o bezpieczeństwo użytkowników.

Propozycja Google’a

Venables twierdzi, że problemy ze sztuczną inteligencją są analogiczne do tych, które pojawiły się po powstaniu mediów społecznościowych, gdy „użytkownicy byli tak chętni, by połączyć się z innymi na nowych platformach, że nieszczególnie analizowali to, jak ich dane są gromadzone, udostępniane i chronione”. Skądinąd ciekawe w myśleniu Venablesa jest przerzucenie odpowiedzialności za wykorzystywanie danych na ofiary praktyk korporacji, czyli na użytkowników.

Jak twierdzi Venables, Google martwi się, że AI mogą spotkać te same trudności, co portale społecznościowe, i proponuje kilka podstawowych rozwiązań, które powinny przyświecać firmom przy wdrażaniu sztucznej inteligencji.

https://twitter.com/philvenables/status/1666854356338212867

Po pierwsze, należy zastanowić się, jakie istniejące środki bezpieczeństwa, np. szyfrowanie danych, mogą zostać łatwo rozszerzone na AI. Korporacja zachęca również do poszerzenia analizy cyberzagrożeń, tak, by uwzględniała ona problemy związane bezpośrednio ze sztuczną inteligencją. Google chce też zadbać o to, by mechanizmy bezpieczeństwa działały automatycznie oraz były regularnie testowane i naprawiane. Ostatnim punktem proponowanym przez Google’a jest powołanie w firmach zespołów do spraw ryzyka związanego z AI – miałyby one oceniać, „gdzie zagrożenia powiązane ze sztuczną inteligencją miałyby znaleźć się w całościowej strategii łagodzenia strat biznesowych”.

Troska o użytkowników?

Nietrudno zauważyć, że propozycje Venablesa wcale nie są przejawem dbania o bezpieczeństwo danych użytkowników, od którego zaczął swoja wypowiedź. Google wydaje się proponować powyższe punkty, by zwrócić uwagę na możliwe problemy firm, a nie osób, które korzystają z ich usług. Innymi słowy, w myśleniu Google’a o AI dominuje nie tyle troska o dane użytkowników, co lęk o biznesową przyszłość wielkich korporacji.

Dodaj komentarz