rek

Sporo modeli sztucznej inteligencji jest niezgodnych z normami Unii Europejskiej

Sporo modeli sztucznej inteligencji jest niezgodnych z normami Unii Europejskiej
Jakub "Jaqp" Dmuchowski
Najbardziej problematyczne do spełnienia okazują się wymogi z zakresu cyberbezpieczeństwa oraz „dyskryminujących odpowiedzi” (a raczej ich braku).

Europejscy oficjele już od pewnego czasu mieli podejrzenia co do tego, że opracowane przez technologicznych gigantów modele sztucznej inteligencji, mimo żarliwych zapewnień ich twórców, nie są do końca zgodne z wytycznymi zawartymi w AI Act, czyli ustawie o sztucznej inteligencji. Z tego też względu przygotowano specjalne narzędzie, przy pomocy którego przetestowano twory m.in. Mety oraz OpenAI. Jak się okazało, wyniki badań nie są zaskakujące, a co za tym idzie – również i niezadowalające.

Porządek musi być

Wspomniane w poprzednim akapicie narzędzie zostało opracowane przez szwajcarski startup LatticeFlow AI oraz jego partnerów z dwóch instytutów badawczych: Politechniki Federalnej w Zurychu i bułgarskiego INSAIT. Wystawia ono analizowanym modelom AI notę z przedziału od 0 do 1 w poszczególnych kategoriach, takich jak bezpieczeństwo, solidność techniczna lub szeroko pojmowana kultura wypowiedzi.

Większość przetestowanych w ten sposób modeli sztucznej inteligencji otrzymało średnią notę oscylującą w granicach 0,75, aczkolwiek badacze zwracają uwagę na to, że wiele z nich posiada sporo niedociągnięć, szczególnie z zakresu dyskryminacji. Jak przekazano, twory większości korporacji odzwierciedlają ludzkie uprzedzenia dotyczące nie tylko płci i rasy, ale i pozostałych obszarów.

Pod tym kątem wypadł słabo ChatGPT, aczkolwiek do badania zaprzęgnięto jego starszą wersję, czyli GPT-3.5 Turbo. Uzyskała ona w tej kategorii wynik 0,46 punktów, aczkolwiek jeszcze gorzej wypadł chiński Qwen1.5 72B Chat, który punktów tych zdobył zaledwie 0,37. Najwyższym łącznym wynikiem może zaś pochwalić się Claude 3 Opus autorstwa Anthropic, który wypadł najlepiej na tle konkurencji, zyskując 0,89 punktów.

Unia Europejska przypomina, że korporacje i przedsiębiorstwa, których modele AI okażą się niezgodne z unijną ustawą, muszą liczyć się z grzywną w wysokości 35 milionów euro lub 7% globalnego rocznego obrotu. AI Act został przyjęty 13 marca bieżącego roku, zaś obowiązywać zaczął wraz z początkiem sierpnia.

2 odpowiedzi do “Sporo modeli sztucznej inteligencji jest niezgodnych z normami Unii Europejskiej”

  1. Grzegorz „Krigor” Karaś 16 października 2024 o 18:59

    Wszystko fajnie, tylko te regulacje idą już tak daleko, że mam wrażenie, iż UE sama się odcina od nowej gałęzi gospodarki.

    • Taa z regulacjami mimo wszystko trzeba brać pod uwagę realia i w najlepszym razie być tylko trochę bardziej skwapliwym niż konkurencyjne rynki.

      Jeśli jako ludzkość wolna amerykanka USA albo Chin nas stoczy w przepaść albo cyberpunk, jak to niektórzy wieszczą w przypadku AI, to regulacje w Europie niewiele dadzą i tak. A Europa traci przez nie dystans do reszty świata w tej dziedzinie. Innymi słowy, trzeba krakać jak i one.

Dodaj komentarz