No implementaci TAA má BF V naopak hodně dobrou, zdá se. To tam v tom videu ten člověk taky podotýká, protože zdaleka nemaže tak jako v FFV benchmarku a asi ani v tom Port Royale. A nedokonalostí TAA si Nvidia tak trošku pomáhala v těch srovnáních...
Jinak mě teda ale taky dost překvapilo, jak rozmazaně ty textury vypadají v tom videu. Ten normální upsaling co používají má možná nějaký hodně ostrý algoritmus nebo taky extra přiostření (myslím, že jsem tam někde viděl halo efekt na obloze kolem kontur), ale byly tam regulérní místa, kde byly opravdu vidět rozmázlé textury (dřevo, stůl, při přiblížení bylo vidět, jak DLSS sežere různé ďubky na textuře). A taky DLSS hnusně přepatlává vegetaci (je to vidět při přiblížení), což se dalo čekat, protože to těmhle filtrům vždycky dělá potíže, je to stejné jako s odšumováním fotek v kompaktech a digitálech, nejhnusnější/nejnepřirozenější jsou vždycky keře a stromy.
Taky mi ale přijde, že něco na bázi neural networks by se mělo dát udělat o dost líp. Třeba to uvidíme u DLSS 2X.
BTW tam taky zazněla jedna podstatná věc - 3dmark port royal a FFV nebo to Infiltrator demo jsou vlastně fixní videa, i když je kreslí grafika jako hru. Takže všechny snímky jsou vždycky stejné a síť se může natrénovat přesně na ně, na úplně všech možných snímcích. V normální hře není počet možných snímků takhle malý a konečný, protože je tam volný pohyb. Takže ta síť by měla logicky fungovat hůř.
(Ale tím neříkám, že to co je vidět v tom BF V je maximum možného - spíš možná někdo blbě navrhl ty efekty, které ten filtr má mít. Nebo používají blbou metriku, podle které se to učí, a ta nezachycuje, že je detail textur rozmazaný? Je to trošku jako když se enkodér videa řídí jenom podle PSNR, to taky dopadá hnusně a rozmazaně).