Názor k článku První hra používající ray tracing na GeForce RTX vyšla. DXR ale snižuje výkon o 40–60 % od Maudit - Battlefield V pro RTX nevyuziva Nvidii doporucene DLSS....

  • 15. 11. 2018 18:31

    Maudit (neregistrovaný)

    Battlefield V pro RTX nevyuziva Nvidii doporucene DLSS. K tomu jeste pocita reflections v nativnim rozliseni. Navic implementace v BF V nenahrazuje zadny z narocnych efektu, jako svetlo/stiny, ambient occlusion, pruhlednosti, zrcadlove efekty. Silne podeziram DICE, ze kvuli problemum s jejich battle royal modem celkove implementaci RTX dost omezili aby se prave BR mohli venovat.

    Implementace, ktere tyto efekty nahrazuji, maji potencial vysokeho vykonu. Treba hra Enlisted, kde pomoci raytracingu zcela nahradili klasice osvetleni/stiny globalni osvetlenim, dokaze dat 120 fps pri 4k rozliseni bez problemu.
    https://youtu.be/ZnQRzLZ5nEE?t=3m15s


    Z clanku:
    "benchmarku Final Fantasy XV pro PC, v kterém je implementován upscaling DLSS"

    Opet je potreba pripomenout, ze autor postavil tuhle svoji smyslenku o "upscalingu" na zcela zcestnych predpokladech.

    „Jan Olšan 17.9.2018 at 15:13“
    „Co vidíš, je prostě efekt toho, že DLSS pracuje jako spatial filtr, jen s jedním obrázkem. Protože nefunguje temporálně (s více snímky)“
    https://www.cnews.cz/nvidia-dlss-deep-learning-supersampling-upscaling-princip-fungovani/#comment-194887


    „Jan Olšan 8.11.2018 at 20:51“
    „Tyhle řeči o rozpoznávání objektů jsou abstraktní hodně za vlasy přitažená omáčka, reálně to ta neuronální síť nedělá, prostě jen vezme pixely, upraví je podle svých natrénovaných vah.“
    https://www.cnews.cz/amd-procesory-cpu-architektura-zen-2-zlepseni-ipc-avx2-mcm-chiplet-epyc-rome-servery/#comment-198256


    Pritom DLSS zcela jasne funguje jako temporalni sit, pracujici s vice snimky, jak dle vyjadreni primo sefa Nvidie zde:
    „Network has to remember part of the past.“
    „Network has to be temporaly stable.“
    https://youtu.be/Mrixi27G9yM?t=52m35s


    Tak dle Turing Whitepaperu zde:
    „Finally, Figure 24 illustrates one of the challenging cases for multi frame image enhancement. In this case, a semi-transparent screen floats in front of a background that is moving differently. TAA tends to blindly follow the motion vectors of the moving object, blurring the detail on the screen. DLSS is able to recognize that changes in the scene are more complex and *combines the inputs in a more intelligent way that avoids the blurring issue*.“
    https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf (strana 35 dole)

    A kdyby to nestacilo:
    „DLSS leverages a deep neural network to extract multidimensional features of the rendered scene and intelligently combine details from multiple frames to construct a high-quality final image.“
    https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/


    Ta informace o rozpoznavani detailu k dispozici je taky, jak z keynote sefa Nvidie, tak v dalsich prezentacich. DLSS je convolutional autoencoder. Viz treba zde:
    https://youtu.be/QLMDX56-GSU?t=338


    Autoencodery ve zpracovani obrazu se uci rozpoznavat objekty ve zdroji.
    „Some architectures use stacked sparse autoencoder layers for image recognition. The first autoencoder might learn to encode easy features like corners, the second to analyze the first layer’s output and then encode less local features like the tip of a nose, the third might encode a whole nose, etc., until the final autoencoder encodes the whole image into a code that matches (for example) the concept of ‚cat‘.“
    https://en.wikipedia.org/wiki/Autoencoder


    Doslova – prvni layer autoencoderu se nauci rozponat hranu, dalsi na zaklade toho predchoziho spicku nosu, dalsi cely nos .. az na konci pozna, ze je na obraze kocka. Takze se samozrejme o zadny spatial filter netemporalni upscaling nejedna.

    Autor nikdy svoje tvzeni nicim nepodlozil. V puvodnim clanku je jen vagni odkaz na Turing Whitepaper, ve kterem se ale o spatial filtru nikde nemluvi (zdroj je dole na strance):
    https://www.cnews.cz/nvidia-dlss-deep-learning-supersampling-upscaling-princip-fungovani/


    Jedine, co od Jana Olsana mame, jsou jeho vlastni domnenky a smyslenky, ciste fabulace, bez dukazu:
    „To multiple inputs tady nejspíš znamená jakože přeneseně multiple inputs v tom MSAA obraze, na kterém se trénovalo.“
    Nejspis. Jakoze. Prenesene.

    Takhle vykrucovat jsem uz dlouho nikoho nevidel. To chce opravdu totalni absenci svedomi. Tim hur, kdyz se k citacim a odkazum na nekolik zdroju, ktere jeho tvrzeni zcela vyvcari, tvrdosijne vyhyba. Dukazni bremeno je ale na predkladateli. To on napsal clanek o DLSS zalozeny na nicem a dodnes jej ani nicim nepodlozil. Presto demagogicky trva na svem, i kdyz moho zdroju, vcetne TechPowerUpu citovaneho v tomhle aktualnim clanku, tvrdi opak.