5.06.2024, 13:15Lektura na 3 minuty

Byli pracownicy OpenAI i Google walczą o „prawo do ostrzegania o zaawansowanej AI”

Otwarty list podpisany został przez 13 pracowników OpenAI i Google DeepMind – zarówno tych byłych, jak i obecnych.


Jakub „Jaqp” Dmuchowski

W otwartym liście, z którym możecie zapoznać się w tym miejscu, zawarto informację, że przedsiębiorstwa zajmujące się pracą nad sztuczną inteligencją posiadają wiele skrywanych przed społeczeństwem informacji na temat funkcjonowania i ograniczeń opracowanych przez siebie systemów. Podpisane pod listem osoby, czyli byli i obecni pracownicy OpenAI i Google DeepMind, są przekonane co do tego, że ich pracodawcom nie można ufać w kwestii dobrowolnego podzielenia się tymi danymi i w tej kwestii przydałaby się interwencja rządu.


Prawo do ostrzegania

Najistotniejszym problemem poruszanym w piśmie jest to, że skupione na rozwoju AI firmy są praktycznie niemożliwe do pociągnięcia do odpowiedzialności. Wiele obszarów ich działalności pozostaje nieuregulowane, więc nawet jeśli prowadzone działania są wątpliwe moralnie i potencjalnie niebezpieczne, nie oznacza to, że łamią one prawo.

Co więcej, ze względu na strukturę wewnątrz przedsiębiorstw i ich podejście do dzielenia się informacjami (a raczej do jego braku), jedynymi osobami, które są w stanie zwrócić uwagę na potencjalne problemy wynikające z prac nad sztuczną inteligencją, są pracownicy tych firm. Ci jednak rzadko kiedy decydują się na puszczenie pary z ust, a to ze względu na wszechobecne klauzule o poufności i będące efektem ich złamania reperkusje. Taki stan rzeczy mógłby się zmienić, gdyby sygnalistom zapewniono odpowiednią ochronę.


Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, których się obawiamy, nie jest jeszcze uregulowanych. Niektórzy z nas słusznie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w całej branży. Nie jesteśmy pierwszymi, którzy napotykają lub mówią o tych kwestiach.


Fragment otwartego listu pracowników OpenAi i Google DeepMind

Podpisani pod listem są świadomi zagrożeń płynących z nieuregulowanego i niekontrolowanego rozwoju sztucznej inteligencji. Wśród problemów wymieniono m.in. dalsze utrwalanie istniejących nierówności, manipulację i szerzenie dezinformacji, a nawet utratę kontroli nad autonomicznymi systemami AI, co jest w stanie doprowadzić do wyginięcia ludzkości.

Jakie rozwiązania tego problemu zaproponowali więc Jacob Hilton, Daniel Kokotajlo i spółka? Przede wszystkim chcą, aby firmy nie zabraniały dyskredytowania ich działań ze względu na obawy związane z ryzykiem oraz nie prowadziły działań odwetowych ze względu na krytykę. Ponadto wśród żądań znalazł się zapis, że zarówno obecni, jak i byli pracownicy przedsiębiorstw, powinni mieć możliwość anonimowego zgłaszania swoich obaw nie tylko do zarządu, ale i państwowych organów regulacyjnych oraz wszelkich niezależnych organizacji.

Do listu trafiła także wzmianka o tym, że firmy powinny wspierać kulturę otwartej krytyki i nie piętnować osób, które wyrażają swoją dezaprobatę lub zaniepokojenie w wyniku prowadzonych przez przedsiębiorstwo działań. Pracownicy powinni mieć możliwość publicznego dawania upustu swoim obawom i swobodę w przekazywaniu ich opinii publicznej.

Pod listem podpisało się 13 pracowników firm z sektora sztucznej inteligencji (niektórzy z nich pragnęli pozostać anonimowi, aby uniknąć potencjalnych nieprzyjemności ze strony swojego pracodawcy), jego postulaty poparło do tej pory także trzech ekspertów z tej dziedziny: Yoshua Bengio, Geoffrey Hinton i Stuart Russell.


Czytaj dalej

Redaktor
Jakub „Jaqp” Dmuchowski

Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.

Profil
Wpisów1009

Obserwujących2

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze