Odpovídáte na názor k článku Grafiky Nvidia GeForce GTX 1660 Ti na fotkách. Turing bez RTX vyjde za 10 dní. Názory mohou přidávat pouze registrovaní uživatelé.
Může to být tak, že to funguje jako "enhancement" vrstva aplikovaná až na předtím škálováný obraz, ale i potom bych to iMHO celkově charakterizoval jako upscaler (kombinace scaler + postprocessing), řekl bych že tím DLSS označujeme celý proces?
Nevím samozřejm,ě jak to má Nvidia přesně implementováno. Pokud by se to aplikovalo na škálovaný snímek, tak by muselo být zajištěno, aby vždy byl použitý ten samý bit-exaktní algoritmus pro škálování, jako se používal při trénování (což je určitě realizovatelné), aby tam nebyla nepřesnost. Nebo by se muselo trénovat víc a s různými, aby to bylo schopné reagovat na různé? (Třeba Lanczos, bicubic, bilinear etc mají různé artefakty.)
Ten DLSS 2x by se podle mě asi měl ale stejně trénovat zvlášť, pro ideální efekt. Asi by ta síť mohla mít univerzálně efekt i při nativním rozlišení, ale zase by to mohlo přlíš přiostřovat, přijde mi lepší kdyby 2X byla separátně natrénovaná přímo na tu úlohu.