OpenAI rozwiązało swój zespół ds. długoterminowego ryzyka związanego z AI

Jak ustaliła redakcja Wired, zespół OpenAI ds. długoterminowego ryzyka związanego ze sztuczną inteligencją został rozwiązany, a jego członkowie zaabsorbowani przez pozostałe jednostki funkcjonujące w obrębie firmy. Z przedsiębiorstwem pożegnał się także Ilya Stukev – jego współzałożyciel, a przy okazji jedna z osób, która swego czasu przyczyniła się do zwolnienia Sama Altmana (który powrócił na łono OpenAI po zaledwie dwóch dniach nieobecności).
Silna sztuczna inteligencja
Jak już zostało wspomniane, zespół mający dbać o ograniczanie długoterminowego ryzyka wynikającego z rozwoju sztucznej inteligencji został rozwiązany. Co więcej, stojący na jego czele Ilya Stukev postanowił pożegnać się z przedsiębiorstwem, w którym spędził minioną dekadę.
Badacz przekazał, że miło wspomina czas spędzony w OpenAI, aczkolwiek postanowił skupić się na bardziej osobistym projekcie, którego szczegóły ma zamiar zdradzić w najbliższej przyszłości. Uwagę przyciąga jednak wzmianka na temat silnej sztucznej inteligencji. W napisanym przez Stukeva poście możemy przeczytać, że jest przekonany co do tego, że „OpenAI zbuduje AGI, która będzie zarówno bezpieczna, jak i korzystna”.
W tym miejscu warto nadmienić, że niektórzy z pracowników przedsiębiorstwa ostrzegali przed przełomem w badaniach nad AI chwilę przed wspomnianym zwolnieniem Sama Altmana. Wewnątrz OpenAI krążyły pogłoski na temat tajemniczego projektu znanego wówczas pod nazwą Q* (Q-Star), a całkiem pokaźna liczba osób wierzyła, że jest on związany właśnie z AGI, czyli silną sztuczną inteligencją.
Ilya Stukev nie jest przy tym jedynym wysoko postawionym pracownikiem OpenAI, który zdecydował się złożyć wypowiedzenie. Wraz z nim szeregi firmy postanowił opuścić Jan Leike. On również był odpowiedzialny za funkcjonowanie zespołu ds. długoterminowego ryzyka związanego z AI i mimo wielu ciepłych słów odnośnie do swojego byłego pracodawcy, Leike miał mu też co nieco do zarzucenia:
W wywodzie Leikego również nie zabrakło wzmianki na temat AGI oraz implikacji, jakie może ona nieść dla całej ludzkości:
Jak przekazał Jan, jego drogi z OpenAI rozeszły się w wyniku sprzeczności poglądów. Wedle badacza, zarząd przedsiębiorstwa inaczej spoglądał na poszczególne sprawy, w związku z czym Leike postanowił odejść z firmy.
Od dłuższego czasu nie zgadzałem się z kierownictwem OpenAI co do głównych priorytetów firmy, aż w końcu osiągnęliśmy punkt krytyczny. W ciągu ostatnich kilku miesięcy mój zespół żeglował pod wiatr. Czasami walczyliśmy o moc obliczeniową i coraz trudniej było przeprowadzić te kluczowe badania.
Dynamiczny rozwój sztucznej inteligencji związany jest z wieloma zagrożeniami, a zespół, którego członkami byli Stukev i Leike, miał je analizować i szukać sposobów na ich zapobiegnięciu. Jak się jednak okazuje, działania te nie były priorytetem dla OpenAI, a firma zdecydowała się wyznaczyć dalsze opracowywanie coraz bardziej zaawansowanej technologii jako swój priorytetowy cel.
Czytaj dalej
3 odpowiedzi do “OpenAI rozwiązało swój zespół ds. długoterminowego ryzyka związanego z AI”
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.
Hmm, te posty wyglądają jak stworzone przez SI.
Bez kitu. To chyba jakiś eksperyment. Albo, biorąc pod uwagę jak wyglądał ostatni odcinek podcastu, nie chce się im już.
Pierdu śmkerdu ta cala AI, jeden wielki marketing i efektow zero.
To co widzialem odnosnie tego AI to tylko zaawansowane skrypty z ktorymi mozna sobie popisac.
W zyciu naszym nic to dalej nie zmienia, nawet programistow nie zastepuje, a kod to najbardziej maszynowy twor jaki istnieje, wiec AI jako pierwsza powinna to ogarnąc i pisac programy na podstawie opisów.
Z wieeeelkieh chmury nawet kapuśniaczek nie pada, mize tyle co ksiadz kropidlem pochlapie w niedziele palmową