DLSS 2.0 je podle Nvidie trénované na 16K obrázcích.
Já bych to označoval jako Superresolution, to už se nějakou dobu pro tyhle pokročilé upscalery používá (a často se v těch přístupech objevuje i to temporální motion-compensated filtrování ve snaze posílit detaily pomocí využití sousedů). Když jsme u toho, Nvidia by mohla nabídnout i DLSS model pro sledování videa, nepřekvapilo by, pokud by to byla budoucí novinka. V principu je to úplně stejný problém, vzhledem k tomu, že DLSS funguje v doméně pixelů a ne objektů.
Jinak tenhle přístup pro trénování upscalingu/interpolace, teda že máme korpus obrázků s vysokou/originální kvalitou a pak druhý korpus s downscaled verzí, který zpracovává neuronová síť a my hodnotíme pomocí metriky to, jak blízký/podobný je její výstup, tak to myslím nebylo nic nového, to je asi standard. Ona se ta metoda vyloženě nabízí. Už třeba staré filtry NNEDI až NNEDI3, které člověk mohl používat v Avisynth se IIRC trénovaly úplně stejně. Akorát se to tehdy dělalo na tehdejších starých CPU a na korpusu složeném z různých testovacích fotek.