DLSS 5 zaprezentowane. Technologia wygląda jak z obrazka… tyle że wygenerowanego przez AI

DLSS 5 zaprezentowane. Technologia wygląda jak z obrazka… tyle że wygenerowanego przez AI
Gracze są… sami wiecie jacy. Tylko tym razem ma to rozsądne uzasadnienie.

Deep Learning Super Sampling to funkcja obecna w kartach graficznych Nvidii począwszy od serii 2000, czyli już od 8 lat. Technologia jest bez przerwy rozwijana i chętnie implementowana przez developerów czy to w nowszych, czy starszych grach. Czasami zasadność dodawania go do np. 20-letniego silnika może zastanawiać, ale lepiej mieć wybór, niż być go pozbawionym, prawda?

Niestety dobrze już było. Dotarliśmy chyba do tego magicznego momentu, w którym dobre usługi, potrzebujące tylko dalszego wsparcia, zaczynają się psuć i ostatecznie zazwyczaj kończą jako część problemu, który miały rozwiązywać. Pierwszy trailer DLSS 5 pokazuje działanie funkcji na kilku grach, m.in. Resident Evil Requiem, Hogwarts Legacy czy Starfield. Trudno jest mi zdecydować, co wygląda najgorzej, więc decyzję pozostawiam wam:

Po chwili zastanowienia chyba jednak Starfield został tutaj najbardziej skrzywdzony. Ciekawe co na to pewien znany wizjoner z Bethesdy

A tak zupełnie poważnie, to oczywiście DLSS 5 prezentuje się okropnie, zmieniając w zasadzie każdą grę w festiwal ruchomych grafik generowanych przez sztuczną inteligencję. Nvidia twierdzi, że dzięki nowej technologii developerzy będą w stanie lepiej oddać swoją wizję artystyczną, na co nie pozwalają im ograniczenia dzisiejszych sprzętów. Jeśli usuniemy z tego korpomowę, otrzymamy po prostu zapowiedź kolejnego narzędzia od Jensena Huanga, wymagającego karty graficznej od Jensena Huanga.

Baner Banner CD-Action Heroes of Might and Magic, numer 2

Czy w tym, co widzimy na zwiastunie, jest miejsce na jakąkolwiek wizję artystyczną? W takiej wersji raczej nie, bo wszystko zaczyna wyglądać w ten sam sposób plastikowo, ale nie wydaje mi się, by w wyniku negatywnych reakcji graczy Nvidia miała się z tego wycofać. W końcu firma zawdzięcza swoją ogromną wartość nie kartom graficznym, tylko przede wszystkim AI.

39 odpowiedzi do “DLSS 5 zaprezentowane. Technologia wygląda jak z obrazka… tyle że wygenerowanego przez AI”

  1. Wyrażę zdanie odmienne. Że niby wcześniej postaci wyglądały naturalnie? Były jeszcze bardziej sztuczne, tylko zdążyliśmy się do ich widoku przyzwyczaić, tak będzie i z tą technologią. No i pisanie o „skrzywdzeniu” Starfield… sorry, ale tego jak animowane są tam twarze, nic nie jest w stanie skrzywdzić. Cienie i światło układa się na twarzach znacznie lepiej, a to całe uczycie „plastikowości”, wynika z tego, że zaczynają przypominać prawdziwe twarze, ale w zestawieniu z nimi nie wyglądają naturalnie. To jednak niezbędny etap na drodze do prawdziwego fotorealizmu.

    • Tak samo mam odmienne zdanie. Przed chwilą pisałem parę komentarzy na innym portalu (gdzie niby szukają tanich gier), bo mi ręce opadły na widok totalnej głupoty ludzi. Różnica w grafikach jest na lepsze, jest niewielka, a bezmózgi piszą o ataku na wizję artystyczną twórcy grafiki. Na zaprezentowanych grafikach są po prostu żywsze kolory, nikt nie zmienił koncepcji. Tak samo zachwalano RTX, wtedy nikt nie robił za Inkwizycję, wystarczyło hasło „AI” i ludziom odwaliło.

      • Efektu można zawsze nie włączyć. Pojęcie wizji artystycznej (mocno dyskusyjne w przypadku wielu tytułów) jest czymś co znacznie wykracza poza zakres przekształceń obrazu w ramach DLSS 5…
        A jeśli już mielibyśmy sprowadzać ją do takich niuansów wizualnych, to pytanie kiedy szanuję, a kiedy szargam kanon wizualny gry? Czy gra z godnie z wizją ma wyglądać jak na monitorze IPS czy QLED i co jeśli używam projektora? Jakie ustawienia nasycenia i kontrastu oddają wizję twórców? Co z Path Trycing? Czy mogę używać tej funkcji, czy niszczy ona koncepcję? A może ci którzy jej nie używają nie szanują zamysłu? Dlaczego przy wszystkich powyższych czynnikach, które drastycznie wpływają na wygląd obrazu, nikt nie rozdzierał szat nad szarganiem wizji artystycznej?

  2. Jakkolwiek gardzę AI, to jestem zmuszony przyznać, że prezentacja możliwości tej technologii zerwała mi czapkę z głowy. Oczywiście, efekt końcowy razi sztucznością, natomiast sam poziom nasycenia detalami bez jakiejkolwiek podmiany modelu, czy tekstur po prostu musi robić wrażenie. No i nikt mnie nie przekona, że te postaci ze Starfielda nie wyglądają o niebo lepiej od oryginalnych. Inna sprawa, że o zachowaniu jakiejkolwiek wizji artystycznej twórców nie może być tu mowy – to jest ta rzecz, z którą AI nie poradzi sobie nigdy.

    • Tak samo mam odmienne zdanie. Przed chwilą pisałem parę komentarzy na innym portalu (gdzie niby szukają tanich gier), bo mi ręce opadły na widok totalnej głupoty ludzi. Różnica w grafikach jest na lepsze, jest niewielka, a bezmózgi piszą o ataku na wizję artystyczną twórcy grafiki. Na zaprezentowanych grafikach są po prostu żywsze kolory, nikt nie zmienił koncepcji. Tak samo zachwalano RTX, wtedy nikt nie robił za Inkwizycję, wystarczyło hasło „AI” i ludziom odwaliło. Gdzie tępaki widzą atak na wizję artystyczną? Jest poprawiona grafika, a nie zmiana scen.

  3. MisiuZbychu 16 marca 2026 o 23:53

    Ja chce takich technologii, zeby zrobic sobie Amigowe hity czy DOSowe z grafika realistyczną.
    Kibicuje takim rozwiazaniom bo to lepsze niz placenie hajsu za jakies skorki w grach! No i klasyki dostana nowe zycie, obu to mozna bylo uzyc w kazdej grze i taka teksture zapisac do pliku gry, zeby nie generować wiecej niz raz.

    Kurde Syndicate, UFO Enemy Unknows, Hired Guns, Gubship 2000, Moonstone wszystkie z grafikami jak ze zdjec czy filmów realistycznymi.
    Marzenie zycia spelnione i znowu moglbym byc no lifem, a gaming pokochal jak 35 lat temu, gdzie szkoda bylo isc siusiu czy zapominal czlowiek jesc tak dobre byly gry i tak dobrze w nie sie gralo (chociaz dzisiaj bym tych zmian dyskietek i loadingow nie wytrzymal, SSD rozleniwilo czlowieka).

  4. Jej, czyli wszystko będzie wyglądało jak identyczny AI slop!

    4 gry na różnych silnikach i wszystkie postacie jak z jednej bajki xd
    Podoba mi się jak nastoletni czarodziej zmienił się w 30letniego chłopa. I to paskudne wyostrzanie na Starfieldzie, jakby ktoś dokleił postacie do tła.

    • Biorąc pod uwagę, że to krok w stronę „fotorealizmu”, pragnę zauważyć, że realny świat nie ma stylu graficznego 😉

      • Czaje, zwyczajnie dla mnie fotorealizm nie jest ultymatywnym celem gejmningu, a kolejną estetyką.
        I raczej nie jaram się na wieść o kolejnym narzędziu/rozwiązaniu powodującym jeszcze większą „unifikację”.

      • Na bajki i anime też narzekacie że nie mają fotorealizmu?
        xD

    • „Fotorealizmem” to można się było jarać 30 lat temu, jak po ekranie biegały postaci złożone z 30 wielokątów, ze wszystkimi teksturami o takiej rozdzielczości, jaką dziś ma pieprzyk na twarzy bohatera i praktycznie zerowymi efektami oświetlenia. Wtedy to faktycznie, co wyszło, to robiło przełom i człowiekowi szczęka opadała, że łał, takiej grafiki to jeszcze nie było, teraz to już jest „fotorealizm” pełną gębą.

      A teraz to już od lat nie widziałem nic, co by mnie bardzo pozytywnie zaskoczyło, o zachwycie i opadzie szczęki nie wspominając. Ot, od czasu do czasu, ledwie zauważalnie ostrzejsze tekstury albo ciut lepsze oświetlenie. i żaden DLSS 5 nic tu nie zmienia.

      • Bo nie zmienia. Na filmiku porównującym efekty jest po prostu zwykła poprawa wyrazistości grafiki, bardziej żywe kolory, więcej światła. Różnicę widać gołym okiem, ale jest to różnica jaką można uzyskać w każdej grze za pomocą zwykłych suwaków w opcjach graficznych. Gdyby ten sam efekt uzyskano bez używania określenia AI, to gracze byliby zadowoleni z poprawy grafiki. Jednak wystarczy stwierdzić, że poprawę uzyskano za pomocą AI, to uruchamia się syndrom łowców czarownic i ludziom po prostu odwala. Ja widzę psychozę na tym punkcie. A przecież to tylko zwykła poprawa wyrazistości grafiki. Żaden przełom, żadna rewolucja, a tym bardziej żaden atak na wizję artystyczną.

  5. Całkiem imponujące, choć wybitnie tego nie widzę na swoim monitorze (być może dlatego, że mam kartę od AMD). W grze typowo narracyjnej – spoko, w akcyjniaku – meh.

  6. Fakt, wygląda to z jednej strony całkiem ładnie, realistycznie, coś tam coś tam, ale chyba odczuwam efekt doliny niesamowitości. Może to przez fakt pierwszego kontaktu. Ale coś mi tu nie gra, może chodzi nie o sam wygląd, tylko o to, w jaki sposób wszystko na tym obrazie się porusza. I tak sięgnę pewnie po bajkowe platformówki czy pradawnego Fallouta. Nie na złość, po prostu lubię. A tam raczej i tak nie będzie to miało zastosowania, choć mogło by to być całkiem zabawne.

  7. Na dwoje babka wróżyła. Jednym grom to może się przysłużyć (Starfield, Hogwart), innym niekoniecznie. Prócz modeli postaci, w takim Hogwarcie fajnie wygląda środowisko, barwy są bardziej nasycone i nie ma tego mydła i wyblakłych kolorów, jakie występują w podstawce. Jak to z narzędziami bywa: jeśli zostanie to dobrze zaimplementowane w konkretnych tytułach, to czemu nie. A jeśli będzie to wrzucane na odwal i niech AI wypluje coś randomowego, a my idźmy na CSa (i to jest scenariusz najbardziej wg mnie prawdopodobny), to sukcesu nie wróżę. Inna rzecz, że to powinna być opcja, niech gracz sam wybiera, czy chce DLSS 5, DLSS 4.5, czy wersję bez upscalingu, tak jak ją dev stworzył. Jeśli nagle w opcjach dostaniemy tylko wybór: DLSS 5 albo bez skalowania, to jednak słabo. I ostatnia rzecz, jakiego potwora będzie trzeba, by włączyć DLSS 5. Na razie te demka odpalano na dwóch topowych RTXach serii 5. Ciekawe, czy – tak jak to bywało z poprzednimi wersjami DLSSa – NVIDIA zaimplementuje to w przyszłości na kartach serii 4…?

  8. Szkoda, że trzeba mieć kartę NASA żeby korzystać z tego czegoś.

  9. szczurwysyn 17 marca 2026 o 08:05

    Technologia wygląda spoko, ale nie wiem, czy fotorealizm (i ogólnie oprawa graficzna) to coś, czego najbardziej brakuje współczesnym tytułom.

    Można też podejrzewać, że te narzędzia będą bardziej służyć cięciom kosztów, a nie podnoszeniu jakości gier.

  10. Wychodzę z założenia że naprawdę trzeba mieć zero poszanowania dla twórców i brak poczucia estetyki żeby uważać że te plastikowe i wygładzone obrazki to jakikolwiek krok w dobrą stronę. Przecież twarze wyglądają kompletnie inaczej, to nie jest zmiana typu dodanie HDR albo zmiana ustawień graficznych z niskich na wysokie. To nie jest wyświetlanie na innym monitorze. Mosparko, z całym szacunkiem ale po prostu nie rozumiesz czym jest wizja artystyczna i styl. Ktoś zaprojektował te modele, powstały w oparciu o rysunki koncepcyjne a nad całością sprawował pieczę dyrektor artystyczny. AI slop to jest całkowite odwrócenie się od tych którzy gry tworzą i próba przypodobania się chyba tylko inwestorom i ludziom bez gustu czy jakiejkolwiek znajomości procesu twórczego. Zaskakuje mnie że ktoś widzi coś tak sztucznego i uznaje mhm wygląda jak delikatna próba upiększenia. A tu jeszcze będzie ktoś wyskakiwał że ludzie których niezadowala niska jakość to inkwizycja bo oczywiście biedne korpo które pakuje miliardy w technologię która nie jest potrzebna wymaga bronienia.

    • Jako doktor sztuki ze specjalizacją fotografią rozumiem bardzo dobrze, nawet lepiej niż zdecydowana większość. A mówienie o poszanowaniu wizji artystycznej w takich produkcyjniakach jak Starfield jest dla mnie po prostu śmieszne, to jak mówienie omawiani artystycznej w Szybcy i wściekli. Twierdzę też w oparciu o swoje kompetencje, że nastrój, wysycenie, temperatura barwowa, to na czym się obraz wyświetla, jego rozmiar albo zupełnie inna praca światła (path trycing), mogą mieć większy wpływ na odbiór obrazu, niż detale.

      • No to dziwne że dla ciebie detalami jest całkowicie przekształcony model postaci ale widocznie to jej ma żadnego sensu.

        Rozumiem, że poziom wizji artystycznej zależny jest od budżetu?

      • Jesteś doktorem sztuki fotograficznej, i zajmujesz się gierkami dla dzieci?
        No jasne.. xD

      • Maksu napisał(a):

        No to dziwne że dla ciebie detalami jest całkowicie przekształcony model postaci ale widocznie to jej ma żadnego sensu.
        Rozumiem, że poziom wizji artystycznej zależny jest od budżetu?

        Nie od budżetu, ale nie nadużywajmy pewnych wyrażeń. Nie wszystko co powstaje ma w sobie artyzm.

      • Zdzichu napisał(a):

        Jesteś doktorem sztuki fotograficznej, i zajmujesz się gierkami dla dzieci?
        No jasne.. xD

        Jakimi gierkami dla dzieci? Zdajesz sobie sprawę, że osoby nieletnie stanowią tylko około 25% wszystkich graczy?

      • A to kolega doktor ze specjalizacją w fotografii nie zauważył jak to AI stara się upewnić, żeby twarze były doświetlone i dobrze widoczne, jakby było trenowane na studyjnych portretach? „AI” to nic innego jak zaawansowane narzędzie statystyczne podejmujące „decyzje” w oparciu o wynik najbardziej trafny statystycznie, więc wszelkie skrajności będzie próbowało uśrednić do tego „idealnego” portretu.

        Tyle, że gra to nie studio portretowe i to, co w portrecie fotograficznym jest ważne, żeby twarz modela była właściwie doświetlona, a wszystkie istotne szczegóły odpowiednio widoczne (a i tak nie w każdej odmienia portretu zresztą), nie zawsze będzie sprawdzało się dobrze w grze. Czasem, cholera, twarz celowo ma być ukryta w cieniu, prześwietlona, czy oświetlona w „niepochlebny sposób”, bo tak wynika z rozkładu świateł na scenie albo celowego zabiegu artystycznego (odsyłam do słów fotografa Freemana Pattersona, który tak mówi o „poprawnej” ekspozycji: „Jedyna „właściwa” ekspozycja dla danego tematu, to ta, którą chcesz zastosować”).

        Chyba twoje kompetencje doktorskie mówią ci, że choćby w horrorze twórcy mogą chcieć mocno niedoświetlone twarze jakichś potworów czy innych upiorów, a ten wynalazek będzie im to rujnować. Tak, tak, twórcy sobie to mogą wyłączać, kiedy i gdzie chcą, ale to im teraz zwyczajnie dołoży pracy, sprawdzać, gdzie radosna twórczość AI psuje ich wizję..

      • DirkPitt1 napisał(a):

        Tak, tak, twórcy sobie to mogą wyłączać, kiedy i gdzie chcą, ale to im teraz zwyczajnie dołoży pracy, sprawdzać, gdzie radosna twórczość AI psuje ich wizję..

        A która to „artystyczną” wizję, tą z włączonym HDR i Path Trycing, czy bez? No i się zastanawiam w jaki sposób, na podstawie filmiku pokazującego kilka krótkich ujęć z przykładami efektów bardzo wczesnej wersji oprogramowania, wiesz jak ono będzie działało, że będzie rozjaśniało celowo zaciemnione motywy itd? Odrobinę powagi…

      • Jaki sens ma takie kłamanie? Gdybyś doktoryzował się z czegokolwiek pokrewnego z wizualiami (nie bardzo wiem, co to za kierunek studiów „sztuka”), nie porównywałbyś całkowitej podmiany gęby postaci ze zmianą kontrastu czy oświetlenia. Te drugie to są drobne zmiany, bo scena jest zdefiniowana. Te pierwsze to jest całkowita zmiana czegoś uprzednio zdefiniowanego.
        Być może istnieją jakieś gry, których celem jest stuprocentowy realizm graficzny (żadna nie przychodzi mi na myśl) ale co do zasady gry są STYLIZOWANE. Ktoś celowo wymyślił i postanowił, że ma być właśnie tak a nie inaczej. Podmianka tego na bezpłciowy, generyczny wytwór AI to jest glajchszaltowanie tej dziedziny twórczości. To tak, jakbyś (toutes proportions gardees) wziął obrazy z Luwru i kazał AI je „ulepszyć”. A potem dziwił się, że ktoś ma coś przeciwko temu, no bo jak to – przecież widać, że to z grubsza ta sama postać, a nawet ma więcej detali, więc jest lepiej niż było.

      • [cytat author=”ZiomekGit” comment_id=”1507488″Jaki sens ma takie kłamanie? Gdybyś doktoryzował się z czegokolwiek pokrewnego z wizualiami (nie bardzo wiem, co to za kierunek studiów „sztuka”), nie porównywałbyś całkowitej podmiany gęby postaci ze zmianą kontrastu czy oświetlenia. Te drugie to są drobne zmiany, bo scena jest zdefiniowana. Te pierwsze to jest całkowita zmiana czegoś uprzednio zdefiniowanego.
        Być może istnieją jakieś gry, których celem jest stuprocentowy realizm graficzny (żadna nie przychodzi mi na myśl) ale co do zasady gry są STYLIZOWANE. Ktoś celowo wymyślił i postanowił, że ma być właśnie tak a nie inaczej. Podmianka tego na bezpłciowy, generyczny wytwór AI to jest glajchszaltowanie tej dziedziny twórczości. To tak, jakbyś (toutes proportions gardees) wziął obrazy z Luwru i kazał AI je „ulepszyć”. A potem dziwił się, że ktoś ma coś przeciwko temu, no bo jak to – przecież widać, że to z grubsza ta sama postać, a nawet ma więcej detali, więc jest lepiej niż było.[/cytat]

        Czyli tak w skrócie; „nie wiem nawet, że są takie studia, ale napisze jakie mam wyobrażenie o czymś o czym nie wiem”…
        Co do reszty. Nie ma tu mowy o „całkowitej podmianie gęby”, a o uwydatnieniu pewnych elementów w oparciu o materiał wyjściowy. Path Tracing jest czymś znacznie dalej idącym niż „drobne zmiany”, bo przez całkowicie inny rozkład światła i cienia zupełnie redefiniuje warstwę wizualną. Zastosowanie tej technologii będzie wymagało implementacji jej w grach, a więc nie będzie do samowola producenta kart graficznych, a korzystanie z niej także pozostanie decyzją gracza. No i warto jeszcze pamiętać o scenie moderskiej, w przypadku której jakoś nikt nie rozdziera szat nad tym jak to niszy ona „artystyczną wizję” twórców gier.

  11. Myślę, że po pierwszym zachwycie szybko przyjdzie otrzeźwienie, że jednak pod spodem tej podrasowanej grafiki nadal są te same mechaniki i silnik – w przykładzie ze Starfieldem widać w jednym z filmików jak postać (piękna jak ze slopbajki) wstaje sztywno z ławki, w jej ręce materializuje się nagle torebka, po czym odchodzi koślawo jak robot. Takie pudrowanie ma za zadanie wywołać mocną reakcję, ale de facto wiele nie zmienia, oko przyzwyczai się ekspresowo i wrażenie rozejdzie się po kościach.

    W skrócie, nie ma się czym emocjonować, warto natomiast zapamiętać obrazek z tegorocznego GTC, gdzie nVidia prezentowała swoją technologię pod logosami swoim i Palantira otoczonym serduszkami <3<3<3 – BFFs w totalnej inwigilacji i zbrodniach wojennych.

    • Trafiłeś dobrze, bo właśnie mechaniki stają się w tym momencie podstawowym problemem. To „urealnienie” wyglądu znacznie mocniej wydobywa je na wierzch i ich prymitywizm powoduje wyraźny dysonans.

    • Artur Mazurek 17 marca 2026 o 10:14

      Warto zauważyć, że z technologii Palantira będzie korzystać też polskie wojsko, choć zapewne w celach innych, niż precyzyjne mordowanie ludności cywilnej, czy dobijanie rannych na polu bitwy. Niemniej, jest pewna ironia w fakcie, że jedną z pierwszych rzeczy do jakich człowiek zaczął wykorzystywać AI, stało się krzywdzenie innych. Niby nikt nie chce urzeczywistnienia scenariusza „Terminatora”, a jednak robimy dosłownie wszystko, by jednak do tego doszło.

      • Chyba większa część postępu wiązała się z wojną i rywalizacją. Tacy już jesteśmy…

  12. W tym całym hejcie nie chodzi o to że będzie to można sobie włączyć czy wyłączyć. Chodzi o to, że zaraz leniwi twórcy będą używać tego jako toola właściwego, w oryginale podstawiając jakieś mapety z asset shopu i dodając jedynie krótkiego prompta jak ta postać ma wyglądać. Będzie jak z technologią generowania klatek gdzie mamy 25-50% nowych gier które są tak źle zoptymalizowane że bez tego nie da się komfortowo grać.

    Niby super, ale jeśli rtx3060, 3070 czy 4070 nie będzie w stanie tego udźwignąć to gracz będzie oglądał odcinek ulicy sezamkowej w niedalekiej przyszłości w grach za 350zł. (Albo wcale nie pogra, nie kupi, będzie wielkie halo i masz kolejną aferę). Bardziej chciałbym aby twórcy użyli tego do budowania modeli i późniejszej jej edycji. Do zbudowania szkieletu świata czy to postaci(absolutnie nie chodzi o fabułę), z lub bez użycia graficznych konceptów.

    • To jest rzeczywiście realne zagrożenie i słuszna obawa, choć może brak powszechnego dostępu do tej technologii, częściowo nas przed tym obroni.

  13. Wszystkie te postaci wyglądają jak „baby” z reklamy zupy Krakus. Jak się komukolwiek może coś takiego podobać.

  14. Zresztą, niech teraz pokażą jak w ten sam sposób ten plastik zamieniają w coś wartościowego.
    Co mi po ładnych obrazkach, jak wszystko to sztuczne, plastikowe i z niezniszczalnych materiałów?
    Pfff.
    Żenada.

  15. Tutaj radzę się po prostu uspokoić i wziać głęboki oddech i pomyśleć nad następstwami. Nie jest opłacalne przerzucać obliczenia do AI bo to kosztuje. Dużo. Lepiej generować modele i tekstury wysokiej jakości niż je poprawiać w realtimie. To jest technologia która umożliwi rozwój narzędzi do tego. Tzn przerzucimy te obliczenia z realtime na generowanie modeli i animacje twarzy bo algorytmy bedą zawsze tańsze. Teraz jesteśmy w takiej fazie przejściowej. Zaraz powstaną narzędzia które pozwolą znacznie łatwiej i lepiej robić modele, animacje, mimike twarzy itd.

Skomentuj Azalas Anuluj pisanie odpowiedzi