25.09.2024, 11:30Lektura na 2 minuty

ChatowiGPT można było wstrzyknąć sztuczne wspomnienia i wykraść dane użytkowników

Tytułowy problem został odkryty jeszcze w maju, aczkolwiek wówczas OpenAI zamiotło sprawę pod dywan.


Jakub „Jaqp” Dmuchowski

Zasługę znalezienia rzeczonej luki w dużym modelu językowym OpenAI możemy przypisać Johannowi Rehbergerowi. Badacz odkrył, że pamięć długoterminowa ChatuGPT może zostać wykorzystana do składowania w niej fałszywych informacji lub, co gorsza, złośliwych instrukcji, w tym tych nakłaniających sztuczną inteligencję do przesyłania zapisów rozmów na zewnętrzny serwer. Twórcy czatbota poinformowani o tym problemie nie zwlekali i czym prędzej... zamknęli zgłoszenie Rehbergera, klasyfikując je jako prostą usterkę, a nie poważną lukę w zabezpieczeniach.


Usterka czy poważna luka?

ChatGPT został wzbogacony o pamięć długoterminową względnie niedawno i mimo że testy tej funkcji rozpoczęły się jeszcze w lutym, tak na szeroką skalę zaczęła być wdrażana dopiero w bieżącym miesiącu, czyli wrześniu. Służy ona do przechowywania istotnych informacji nt. użytkownika, do których czatbot może odwoływać się w toku różnych konwersacji, bez potrzeby przekazywania mu za każdym razem tych samych danych, np. wieku lub płci rozmówcy.

Johann Rehberger odkrył, że pamięć ta może zostać zmodyfikowana przez pośrednie wstrzyknięcie prompta, co w konsekwencji jest w stanie doprowadzić do nakłonienia AI do postępowania wedle instrukcji pochodzących z niezaufanych źródeł pokroju wiadomości e-mail, dokumentów, stron internetowych lub wszelkiej maści plików zamieszczonych w sieciowych dyskach takich jak OneDrive lub Dysk Google.

Po raz pierwszy o swoim odkryciu Johann poinformował OpenAI w maju, jednakże wówczas przedsiębiorstwo postanowiło zbagatelizować problem i zamknęło zgłoszenie. Rehberger się nie poddał i ponownie zgłosił lukę miesiąc później, tym razem załączając dowód na to, że ChatGPT dla systemu macOS został nakłoniony do wysłania kopii wszystkich rozmów z użytkownikiem na zewnętrzny serwer.

Po tym wydarzeniu OpenAI postanowiło posypać głowę popiołem i wprowadziło stosowne poprawki w swoim tworze. Dzięki zmianom w API, ataki takie jak ten przytoczony powyżej są niemożliwe do przeprowadzenia za pośrednictwem interfejsu webowego ChatuGPT. Jeśli interesuje was szczegółowy opis perypetii Johanna Rehbergera z czatbotem, warto zapoznać się z blogiem badacza.


Czytaj dalej

Redaktor
Jakub „Jaqp” Dmuchowski

Swoją przygodę z grami komputerowymi rozpoczął od Herkulesa oraz Jazz Jackrabbit 2, tydzień później zagrywał się już w Diablo II i Morrowinda. Pasjonat tabelek ze statystykami oraz nieliniowych wątków fabularnych. Na co dzień zajmuje się projektowaniem stron internetowych. Nie wzgardzi dobrą lekturą ani kebabem.

Profil
Wpisów1168

Obserwujących2

Dyskusja

  • Dodaj komentarz
  • Najlepsze
  • Najnowsze
  • Najstarsze