Fejkovej vjem nikdy nebude dokonalej. Vzdy se objevi artefakty - staci se podivat na stav upscalingu a dopocitavani v televizich.. samozrejme, ze tam vznika i vyssi latence, protoze televize uvazuji v navaznosti na "budouci snimky", coz bohuzel DLSS nemuze udelat, protoze by hra lagovala. Televize samozrejme jde nastavit i tak, aby delala jen upscale, bez dopocitani snimku.. takze tady mame DLSS 2.0 a ani nemusite kupovat novou grafiku.. ale kdo by chtel hrat na televizi.. ze?
Na druhou stranu ma pristup ke geometrii, ale zde si musime polozit jakou - renderovany obsah neni klasickym a uplnym 3D modelem (to je potreba na raytracing), ale jen hromadkou vyselektovanych trojuhelniku - neco jako kdyz provedete dekompozici 2D fotky na regiony kvuli "parallax" efektu v nasledne animaci. Jiste, radove je tam vicero ploch, ale porad to jsou pro dva ruzne framy dve ruzne sady dat, protoze moderni aplikace nebude do renderingu posilat neviditelna data.
Takze to, co me vadi - je integrace komplexniho systemu pro vareni z vody, namisto hledani cest jak zvysovak vykon.
Situace je to stejna, jako kdyby vyrobce disku prodaval disky stylem 1000 pisnicek/fotek/filmu a pristi rok to bylo 1500 a prespristi 2000. A jedine co by to delalo bylo znizovani bitratu u mp3, kvality u jpegu a bitratu u videa. Bude vas budouci uzivatel 32K bryly nadsenej, ze se mu na budouci disk vejde 100000 pisnicek/fotek/filmu, touto logikou?
A proto vyzera 4K z telefonu nebo YT jako vyzera. Uzivatele jsou konstantne krmeni iniciativou levneho posouvani hranic kvalitativnich meritek.
videl jsem webinar audinate (delaji technologii dante hq realtime audio a ted i video), nahravali hudebniky ve 3 ruznejch lokalitach tisice km od sebe spojenejch optikou. delali presne na tohle pokusy kolik lagu uz vadi a kolik si mozek dorovna sam. narazili na to, ze je nejvic brzdi input lag na hdmi tv. vyspekulovali nejakej model, (uz v dobe webinare EOL samo :) ) ktery mel lag nejmensi, konstatovali ze se tohle skoro nikdy neuvadi. zcela neprekvapive zalezi na treningu pozorovatele. kdyz jsem delal ve video produkci tak ze zkusenosti beznej clovek nepozna 3-5 oken pri 25fps na lip syncu :). u hudebniku to bylo tusim 3 okna pri 60fps nez bubenik zacal zrychlovat.
muzes overit jak moc mam slabou pamet
https://go.audinate.com/resources/assets/blue-note-peltrix-webinar-2021-ty
Ono 3 okna při 60 fps jsou nějakých 5 % (50 ms) - a to už by opravdu poznat měli. A pokud by mi "ujela" synchronisace audio/video o 5 snímků z 25 (200 ms), budu mít velmi nepříjemný pocit, že "lidi klapou hubou naprázdno" - osobně považuji 100 ms za maximum u dabovaného filmu, 50 ms u "původního znění". (A pak mi YouTube při uploadu videa posune zvuk o odhadem 30 ms při převodu formátů...)
Jinak: mozek si dorovná klidně půlvteřinu, když má motivaci, ale poměrně dost to kazí zážitek.
Tak se divam do specifikace DLSS a je to predpokladam presne tohle :D
"The DLSS frame generation algorithm takes two rendered frames from the rendering pipeline, and generates a new frame that smoothly transitions between them. So for every frame rendered, one additional frame is generated"
Takze proste vezme jeden budouci snimek a mezi ten a soucasny jeste da jeden dopocitany a efektivne zdvojnasobi fps.