rek

Google przeprasza za swojego czatbota

Google przeprasza za swojego czatbota
Jakub "Jaqp" Dmuchowski
Zdaniem prezesa korporacji sposób, w jaki działało Gemini, jest „całkowicie nie do przyjęcia”.

Wybryki Gemini, związane przede wszystkim ze specyficznym podejściem do różnorodności i poprawności historycznej, doprowadziły do wyłączenia możliwości generowania obrazów przez narzędzie. Zdaje się przy tym, że poczynania czatbota odbiły się echem nie tylko wśród jego użytkowników, ale także i wewnątrz stojącej za nim firmy – Google.

We are sorry

Do kontrowersji wokół Gemini odniósł się sam prezes korporacji, czyli Sundar Pichai. Wedle wewnętrznej notki, do której dotarła redakcja Semafor, mężczyzna określił problematyczne odpowiedzi czatbota dotyczące różnych ras mianem niedopuszczalnych i zobowiązał się do wdrożenia zmian strukturalnych celem wyeliminowania tego problemu.

Pichai zapewnił przy tym, że prace nad naprawą błędu idą pełną parą i poczyniono już spore postępy na tym polu.

Nasze zespoły pracowały dzień i noc, aby rozwiązać te problemy. Już teraz widzimy znaczną poprawę w szerokim zakresie fraz. Żadna sztuczna inteligencja nie jest idealna, zwłaszcza na tym wschodzącym etapie rozwoju branży, ale wiemy, że poprzeczka jest dla nas zawieszona wysoko i będziemy ją utrzymywać tak długo, jak to konieczne. Sprawdzimy też, co się stało i upewnimy się, że naprawimy to na dużą skalę.

Nie zabrakło przy tym wzmianki o tym, że pomimo tej wizerunkowej wpadki, cel korporacji pozostaje bez zmian.

Nasza misja polegająca na uporządkowaniu informacji ze świata i uczynieniu ich powszechnie dostępnymi i użytecznymi jest nienaruszalna. Zawsze staraliśmy się dostarczać użytkownikom pomocne, dokładne i bezstronne informacje w naszych produktach. Dlatego ludzie im ufają. To musi być nasze podejście do wszystkich naszych produktów, w tym naszych nowych produktów AI.

W tym miejscu warto zaznaczyć, że Google zobowiązało się do przeprowadzenia w wybranych państwach członkowskich UE kampanii przeciw dezinformacji w związku ze zbliżającymi się wielkimi krokami wyborami. Wszystko byłoby cacy, gdyby nie fakt, że przedsiębiorstwo kreujące się na orędownika prawdy i godnego zaufania dostarczyciela informacji jednocześnie płaci wydawcom za zamieszczanie na łamach ich serwisów treści wygenerowanych przez AI na bazie artykułów pochodzących z konkurencyjnych portali.

Problem Gemini został poruszony także na blogu Google przez starszego wiceprezesa firmy – Prabhakara Raghavana. Zapewnił on, że zachowanie czatbota nie było zaplanowane i wynikało z błędów, które to obecnie przedsiębiorstwo stara się naprawić. Raghavan przypomniał także, że Gemini, zresztą jak i pozostałe modele sztucznej inteligencji, nie są niezawodne. Z tego też powodu nie powinniśmy ślepo wierzyć w informacje wypluwane czatboty, jako że zdarza im się popełniać błędy (co zresztą dość skutecznie udowodniło Gemini).

17 odpowiedzi do “Google przeprasza za swojego czatbota”

  1. Smutne. Kolejny bastion prawdy upadł 🙁 A już niewiele ich na świecie.

  2. Google prowadzi kampanię przeciw dezinformacji, a jednocześnie:
    1. Zarabia krocie na reklamach scamerów podszywających się pod prawdziwe strony (linki sponsorowane w wyszukiwarce i reklamy na yt),
    2. Uważa, że ojcem założycielem USA była czarnoskóra kobieta i indiański transwestyta.
    Niezły paradoks.

    • Dokładnie tak uważa Google, dlatego nie cofnęli tego błędu tylko apelują do szefa Departamentu Edukacji o zmiany w podręcznikach. #truestorybro

  3. „Wybryki Gemini, związane przede wszystkim ze specyficznym podejściem do różnorodności i poprawności historycznej,”

    AI to nadal tylko program, za którym stoi człowiek. Więc może Google powinno zacząć od dojścia do tego kto, i dlaczego, tak zaprogramował czatbota, żeby ten unikał generowania obrazów z białymi ludźmi. To, że użytkownicy, jak tylko odkryli ten konkretny „defekt”, zaczeli go wykorzystywać tak a nie inaczej absolutnie nikogo nie powinno dziwić. Dziwnym by było, gdyby tego nie robili.

    • Bo AI jest po prostu głupie. Na każde zapytanie próbowało generować wyniki które były „diverse” a że głupie ai jest głupie, to wzięło pod uwagę inne znaczenie tego słowa i wychodziło co wychodziło.

    • @DEMILISZ Wydaje mi się, że odpowiedź na to jest tutaj https://youtu.be/vNUgDnZ_nZc Co zdumiewające, jest wątek wrocławski

  4. Najlepszymi przeprosinami byłoby zaniechanie wpychania „ai” gdzie popadnie

  5. „naprawa błędu” xD

  6. „If you ask for a picture of football players, or someone walking a dog, you may want to receive a range of people. You probably don’t just want to only receive images of people of just one type of ethnicity (or any other characteristic).”
    Czyli w zasadzie cały problem z tego, że chcieli być świętsi od papieża. Żeby biedny użytkownik się nie przemęczył wpisywaniem słówka „diverse”, kiedy mu tego potrzeba, Dostroili AI tak, że każdy prompt traktuje jako „+ diverse”. A nie lepiej było pozostawić AI neutralne pod tym względem i ludzie sami sobie sprecyzują czy im potrzeba białych, czarnych, żółtych, czerwonych czy mieszaniny?

    • To co pokazywaloby, gdy wpiszesz bez uscislenia? Jaki jest „standardowy” czlowiek? Przeciez to oczywiste, ze musialo uwzgledniac, ze rozni ludzie roznie wygladaja i bez uscislenia mieszalo ich dowolnie. A ze jest glupie, to wyszlo jak wyszlo.

    • Jeśli użytkownik wpisuje bez uściślenia, AI powinno sobie „wylosować” wygląd. „rzucić” sobie wirtualną kostką na parę cech takich jak płeć, kolor skóry. Beż żadnych „wag”, czy „priorytetów” przypisywanych do określonych wyników. Komputerowe PRNG mogą nie być tak idealnie losowe, jakbyśmy sobie życzyli, ale poza takimi zastosowaniami jak kryptografia, ich pseudolosowe wyniki są w zasadzie nie do odróżnienia od losowych.

      I wtedy dla niesprecyzowanych poleceń masz rzeczywiście bezstronne wyniki. A jak użytkownik sprecyzuje, że chce mieć Hinduskę bawiącą się z psem, to wtedy AI ma sobie darować losowanie i pokazać Hinduskę.

      Wadą takiej metody może być to, że losowość może czasem wydawać się nielosowa. Np. możesz dostać 50 razy pod rząd ten sam wynik. Co prawda prawdopodobieństwo czegoś takiego jest niskie, ale przy milionach, jeśli nie miliardach użyć w końcu się zdarzy, że komuś, kto nie sprecyzował jakiego człowieka chce widzieć na obrazku trafi się seria osób tej samej płci i koloru.

    • „I wtedy dla niesprecyzowanych poleceń masz rzeczywiście bezstronne wyniki.”

      Piekny pomysl, szkoda ze tak to nie dziala. Problem w tym, ze nie istnieje cos takiego jak bezstronnosc w maszynach programowanych przez ludzi, ani w danych, z ktorych kaze sie im korzystac, wiec moze ladnie to brzmi na chlopski rozum, ale jest rownie powierzchowne i niczego nie rozwiazuje. Z takiego podejscia mielismy np. DALL-E, ktore bialych ludzi rysowalo ok, ale czarnych juz niezbyt, czy Google tlumaczacy wyrazenia z innych jezykow przekrecajac ich rodzaj osobowy („doctor” = „on”, nurse = „ona”, na przyklad). Wiec tak, google zawalilo ze swoim podejsciem, ale to kwestia dopracowania algorytmu, a nie przerzucania sie na mityczny „bezstronny wynik”, oparty o niebezstronne dane czy ich implementacje.

    • Masz rację… i się mylisz. Zupełnie mylisz 2 różne rzeczy.

      Tak, od tego jakimi danymi zostanie nakarmiona AI będzie zależeć jakie efekty będzie dawać. Podobnie od tego, jak ją dostroił człowiek. I tu właśnie mamy przykład tej stronniczości (tylko pogłębionej i uwypuklonej przez błąd, który kazał AI ignorować dyrektywę „diversity” w kontekście historycznym), dzięki której się okazuje, że papieżem może być kobieta, deklarację niepodległości Stanów podpisała czarnoskóra szlachcianka, w 1943 w Wehrmachcie byli przede wszystkim czarnoskórzy i azjatki, AI generuje pary azjatyckie, afrykańskie, żydowskie bez najmniejszego problemu, ale już przy parze białej, protestuje, że ci nie pokaże, bo nie będzie utrwalać „negatywnych stereotypów rasowych”.

      Natomiast generatory liczb pseudolosowych to coś zupełnie innego. Algorytmy komputerowe mogą być deterministyczne, ale mając losowe „ziarno” czy też „zalążek”, możemy dostać wyniki w praktyce wystarczająco zbliżone do losowych. Jeśli masz PRNG, który przechodzi testy na losowość statystyczną, to masz narzędzie, które pozwoli ci wylosować ze zbioru [0 – czarna kobieta, 1 – czarny mężczyzna, 2 – biały mężczyzna, 3 – kobieta azjatka…] kombinację płci i koloru skóry w sposób wystarczająco zbliżony do losowego.

      Tak, ten sposób ustalania, kogo przedstawić na obrazku też byłby podatny na błąd, który wymuszał ignorowanie kontekstu historycznego, ale skutek byłby mniejszy (bo zamiast dyrektywy „diversity” dalej by losowało, więc przynajmniej część wyników byłaby zgodna z historią i faktami).

      Więc zamiast na chłopski rozum mieszać 2 różne sprawy, dodaj do swoich opinii fakty. Poczytaj trochę i rozszerz horyzonty. Nawet ci podpowiem, gdzie szukać:
      Douglas Stinson – „Kryptografia w teorii i praktyce”, rozdz. 12 Generowanie liczb pseudolosowych (uwaga, duża dawka matematyki!)
      Bruce Schneier – „Applied cryptography”, rozdz. 2.8 Generowanie sekwencji losowych i pseudolosowych
      Bruce Schneier i Ferguson Niels – „Cryptography engineering design”, rozdz. 9 Generowanie losowości
      Rolf Opplinger – „Contemporary cryptography”, rozdz. 9 losowe generatory bitów (uwaga, duża dawka matematyki!)

      PRNG są tam omawiane pod kątem zastosowań kryptograficznych, ale dość jasno jest tam wytłumaczona losowość i pseudolosowość.

    • „Natomiast generatory liczb pseudolosowych to coś zupełnie innego”

      Być może, nie jestem specjalistą w dziedzinie, ale sednem mojej wypowiedzi było raczej to, do czego odniosłeś się na początku:
      „Tak, od tego jakimi danymi zostanie nakarmiona AI będzie zależeć jakie efekty będzie dawać. Podobnie od tego, jak ją dostroił człowiek.”

      I to w zasadzie wyczerpuje temat, bo zgadzamy się, że Google popełniło błąd, który teraz naprawia – i czy użyje takiej, czy innej metody, nie ma znaczenia, jeśli wyniki będą zgodne z oczekiwaniami użytkowników. Nie widzę powodu dla przeczesywania zawiłości kryptografii, ani trochę mnie to nie interesuje :).

      *(Choć oczywiście widzę twoją próbę bycia złośliwym w cytowaniu mnie, różnica polega jednak na tym, że ty wymagasz ode mnie zostania ekspertem w temacie zupełnie pobocznym, podczas gdy ja zazwyczaj sugeruję zorientowanie się w jakichkolwiek zewnętrznych źródłach dotyczących głównego zagadnienia i wtedy pozwalam sobie na złośliwostki ;-))

    • „Nie widzę powodu dla przeczesywania zawiłości kryptografii, ani trochę mnie to nie interesuje :).”
      Czyli ustaliliśmy, że nie masz ochoty poszerzyć swoich horyzontów. No ja cię do niczego nie zmuszę.

    • Haha, wrzutka przygotowana chyba zawczasu albo bez przeczytania poprzedniego komentarza, ale doceniam, że się bardzo starasz ;-).

      Jak mawiają Anglosasi: „maybe one day!”

  7. Następnym razem proponuję, żeby AI generowało osoby w kominiarce i rękawiczkach.

Dodaj komentarz