Fejkovej vjem nikdy nebude dokonalej. Vzdy se objevi artefakty - staci se podivat na stav upscalingu a dopocitavani v televizich.. samozrejme, ze tam vznika i vyssi latence, protoze televize uvazuji v navaznosti na "budouci snimky", coz bohuzel DLSS nemuze udelat, protoze by hra lagovala. Televize samozrejme jde nastavit i tak, aby delala jen upscale, bez dopocitani snimku.. takze tady mame DLSS 2.0 a ani nemusite kupovat novou grafiku.. ale kdo by chtel hrat na televizi.. ze?
Na druhou stranu ma pristup ke geometrii, ale zde si musime polozit jakou - renderovany obsah neni klasickym a uplnym 3D modelem (to je potreba na raytracing), ale jen hromadkou vyselektovanych trojuhelniku - neco jako kdyz provedete dekompozici 2D fotky na regiony kvuli "parallax" efektu v nasledne animaci. Jiste, radove je tam vicero ploch, ale porad to jsou pro dva ruzne framy dve ruzne sady dat, protoze moderni aplikace nebude do renderingu posilat neviditelna data.
Takze to, co me vadi - je integrace komplexniho systemu pro vareni z vody, namisto hledani cest jak zvysovak vykon.
Situace je to stejna, jako kdyby vyrobce disku prodaval disky stylem 1000 pisnicek/fotek/filmu a pristi rok to bylo 1500 a prespristi 2000. A jedine co by to delalo bylo znizovani bitratu u mp3, kvality u jpegu a bitratu u videa. Bude vas budouci uzivatel 32K bryly nadsenej, ze se mu na budouci disk vejde 100000 pisnicek/fotek/filmu, touto logikou?
A proto vyzera 4K z telefonu nebo YT jako vyzera. Uzivatele jsou konstantne krmeni iniciativou levneho posouvani hranic kvalitativnich meritek.
videl jsem webinar audinate (delaji technologii dante hq realtime audio a ted i video), nahravali hudebniky ve 3 ruznejch lokalitach tisice km od sebe spojenejch optikou. delali presne na tohle pokusy kolik lagu uz vadi a kolik si mozek dorovna sam. narazili na to, ze je nejvic brzdi input lag na hdmi tv. vyspekulovali nejakej model, (uz v dobe webinare EOL samo :) ) ktery mel lag nejmensi, konstatovali ze se tohle skoro nikdy neuvadi. zcela neprekvapive zalezi na treningu pozorovatele. kdyz jsem delal ve video produkci tak ze zkusenosti beznej clovek nepozna 3-5 oken pri 25fps na lip syncu :). u hudebniku to bylo tusim 3 okna pri 60fps nez bubenik zacal zrychlovat.
muzes overit jak moc mam slabou pamet
https://go.audinate.com/resources/assets/blue-note-peltrix-webinar-2021-ty
Ono 3 okna při 60 fps jsou nějakých 5 % (50 ms) - a to už by opravdu poznat měli. A pokud by mi "ujela" synchronisace audio/video o 5 snímků z 25 (200 ms), budu mít velmi nepříjemný pocit, že "lidi klapou hubou naprázdno" - osobně považuji 100 ms za maximum u dabovaného filmu, 50 ms u "původního znění". (A pak mi YouTube při uploadu videa posune zvuk o odhadem 30 ms při převodu formátů...)
Jinak: mozek si dorovná klidně půlvteřinu, když má motivaci, ale poměrně dost to kazí zážitek.
Tak se divam do specifikace DLSS a je to predpokladam presne tohle :D
"The DLSS frame generation algorithm takes two rendered frames from the rendering pipeline, and generates a new frame that smoothly transitions between them. So for every frame rendered, one additional frame is generated"
Takze proste vezme jeden budouci snimek a mezi ten a soucasny jeste da jeden dopocitany a efektivne zdvojnasobi fps.
Ten povyk trochu připomíná počátky spekulativních větvení v pipelines, který doslova raketově urychlil CPU segment. Místo zvyšování cache a bandwith se začala optimalizace-in-time :-)
A s těmi MP3 je to trefa, taky zpočátku si lidi ťukali na čelo, proč se dobrovolně ošizujeme o plnou škálu zvuků, v obraze dtto (kdo dnes kontroluje JPEG kompresi).
Tak u CPU to zvedlo realny vykon. Ty instrukce neskoncili s artefakty v datech, ktere pocitaji. Ve svetle naslednych bezpecnostnich obav, muzeme rict, ze pak produkovali spis ty artefakty vedlejsi.. vhodna analogie na realny svet je handsfree v aute, ktera dava do beden protifazi signalu z mikrofonu, takze pokud stojite vne ciziho auta - slysite velice jasne co jedna strana rika. A tomu co v tom aute sedi zavrejen - to jako vubec nedocvakne :) Vidal - tedy slysel, jsem to casto - protoze jsme meli parkoviste naproti baraku.
Ale jako dodnes nepochopim lidi, kteri vezmou zakompreseny obsah, a pak ho jeste prekoduji - treba prave do h265/av1... jen aby usetrili par bajtu. Nebudu jmenovat, ale asi vsichni tusime, kdo tim panem tady je ,)
Hmmm, trocha mi to pripomina dilemu, co bolo skor sliepka, ci vajce.
V tomto pripade to mozno bude lahsie. Naozaj si myslite, ze GPU zvysuju vykon kvoli monitorom z vyssim rozlisenim a narocnejsim enginom pre hry?
Nebude to skor naopak?
Predavaju sa monitory s vyssim rozlisenim, lebo vyrobcovia slubuju, ze to ich karty daju. Enginy zvysuju detaily a narocnost sceny, lebo na to existuje HW, ktory to utiahne, prip. vyrobcovia slubuju, co vsetko ich buduce generacie HW dokazu.
Aby nVidia DLSS mohla skryt a nechat bezat len na pozadi aby o tom uzivatel nevedel, tak to by to muselo bezat spolahlivejsie a nie len na urcitych kombinaciach HW a rozlisenia (hovorim o prvej verzii DLSS) a len pre vybrane hry, kde este cielene tuto podporu treba pridat.
Trocha by som kludnil to nadsenie.
Spotreba (a ceny) novych kariet myslim, ze ani nepotrebuju komentar. Co je vela, to je vela.
Nebude, u monitoru nejde ani tak o to, co si na nich muzes zahrat, ale spise co si na nich muzes prehrat. Nejlepsi vysvetleni je jednoduche a docela popsane v clanku - proste se toho seslo vice najednou. 30 fps < 60 fps, atd. samozrejme pokud mas najit jeden probliknuty frame, tak to nepoznas, ale pohyb ne jen ve hre, ale i mysi po obrazovce je mnohem plynulejsi. Co se tyka rozliseni, tak tam uz to je 4x vice pixelu. Takze jsme v situaci, kdy potrebujeme zhruba 8x vyssi vykon, to je docela dost. a jeste jsme se vubec nebavili o nejakem raytracingu. Samozrejme muzes si to dat do 1080p a pobezi ti to krasne plynule i na tech 144 fps, ale kdyz uz mas monitor 4K na filmy ....
Kdyz se vytvari narocna hra, tak se pocita s tim, ze high end v te dobe bude low end, az hra vyjde. Pri dokonceni to pak jenom hrstka lidi dokaze rozjet na nejvyssi detaily pri nejvyssim rozliseni. Kazdy hrac pak logicky udela to, ze snizi detaily a/nebo rozliseni takovym zpusobem, aby byl spokojeny. At uz to je dosahnuti urciteho fps u stredne vykonnych sestav nebo u nizko vykonnych sestav aspon tech 30 fps. DLSS je v podstate to same.
Aby si clovek patentoval PRDIM - progresivni rendering dynamicky interaktivniho modelu :)
Co se hejbe, bude v nizsim rozliseni, protoze to clovek stejne nepozna (resp. mozek bude rad za motion blur) a jakmile se zastavite, na druhem frejmu se dorenderuji detaily, jako kdyz stahujete progressive-jpeg. Mate v tom pokryto jak vysoke fps, tak vysoke rozliseni, v human-compatible podani.
Tam to dělala TV. Vytvářela automaticky mezisnímky. Nezapomeňte, že před PS5 bylo "30 fps ought to be enough for everybody". Problém byl, že TV musela počkat na následující snímek. Takže gameplay her musel počítat s velkým input lagem (k tomu se přidal lag přenosu přes HDMI /na straně TV je pomalé zpracování dat/, lag bezdrátového herního ovladače atd.). Console peasants byly zvyklý, tam se stejně nedalo bavit o kompetitivním hraní. Dnes už jsou konzole výkonné dost, takže se na TV zapíná "herní režim", který motion compensation apod. vypne - pro co nejnižší lag.
25. 9. 2022, 17:53 editováno autorem komentáře
Já jsem jeden z těch kterejm vadí každá vada obrazu, odmítal jsem FXAA protože to prostě patlalo obraz a další podobný věci....ale DLSS 2.0 funguje fakt skvěle, jasně, rozdíl tam je, ale třeba v Cyberpunku to skoro nerozeznam od native 4K, dokonce i rozsypaný pletivo a dráty v dálce to celkem umí řešit, fakt to vypadá jako 4K. V Metru Exodus už to tak slavný neni, ale i tam je to použitelná funkce, hlavní je že je ostrej obraz, je to určitě menší zlo než nastavit nenativní rozlišení, takže za mě super, ale záleží na kvalitě implementace.