Jeste k tomuhle:
"A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení."
Zase ta tvoje omezena logika. To uz vypada na schvalnost - bias AMD fanouska - ale rad se budu plest. Pro pocitani DLSS se vyuzivaji Tensor Cores. Jinymi slovy vykon se setri tim, ze co driv musela pocitac CUDA jadra a zbytek cipu, se ted z vetsi casti vyresi na Tensor Cores, ktere jsou na cipu navic ke CUDA cores. To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.
Mozna by neskodilo, kdyby sis to dal dohromady s vyjadrenim inzenyra Nvidie o strategii pro Turing na forech 3DCenter (ktere bylo zda se uz odtraneno, puvodni link zde: https://www.forum-3dcenter.org/vbulletin/search.php?searchid=13024487 ), ktery rikal vicemene:
- jeste jsme neukazali vsechny inovace a technologie Turingu
- hrube zvysovani vykonu nema budoucnost, musime na to chytreji (=> offloadovani prace na specializovana jadra - Tensor Cores, RT Cores)