Je legracni sledovat, jak se to Honzo snazis naroubovat na svoje predstavy.
Jan Olšan: speciální případy si asi žádají speciální přístup, takže odpovím s dovolením přímo v příspěvku, pardon za svévolnou moderaci. Snad to aspoň bude přehlednější pro přihlížející. Všechny následující tučné části v tomto komentáři jsou moje odpovědi, ne obsah od originálího diskutujícího.
Tady v tom novem videu mluvi Nvidia o DLSS 1.0 jako o "temporaly stable":
https://youtu.be/0X1RtXCvPFQ?t=68
JO: Když píšu, že lidi z Nvidiě v konferenčním hovoru, který jsem poslouchal, řekli, že DLSS 1.0/1.x nebylo temporální a pracovalo jenom na úrovni jednoho snímku (a taky tam vyvrátili ty tvoje domněnky, že to nepracuje s pixely, ale že to nějak rozeznává objekty a tak dál), tak to tam píšu, protože to v tom konf. hovoru fakt explicitně řekli. Byli v těchhle věcech krásně konkrétní, musím říct, že ta konference byla fakt skvělá, protože to vysvětli pěkně a tyhle hlavní rysy vždycky byly vždycky vyjasněné, aby nevznikly přesně tyhle hloupé debaty. Přesně tak taky vyjasnili, že v Control byla výjimka, protože temporální stabilizaci mělo, ale taky řekli, že to vlastně přes označení DLSS nebylo úplně DLSS, protože výpočty nepoužívaly tensor jádra, ale shadery (to mě dost překvapilo, z těch původních informací jsem si to tak nevyložil). Opět to bylo řečené úplně jasně, což teda opravdu oceňuju, palec nahoru.
JO:
TL;DR Že v DLSS 2.0 je temporální stabilizace a vyžití temporálních vektorů novinka a v DLSS 1.x to nebylo je jinýma slovama přímo od Nvidie a jdi si teda stěžovat k nim, že zradili tvoje city nebo něco.
Tady v tom samem videu mluvi o DLSS 2.0 jako o "more temporaly stable":
https://youtu.be/0X1RtXCvPFQ?t=118
Proc? Protoze ti unikla jedna vec. Podivej se jeste jednou na ten diagram. Odkud ze bezi ta sipka s temporal feedbackem? Ze 4k jiz supersamplovaneho vystupu. DLSS 1.0 pouzivala motion vektory (temporalni informaci) pouze u tech low-res snimku ze vstupu (co vyrenderoval engine, v diagramu maji popisek "1080p motion vectors"). Rozdil oproti DLSS 2.0 je v tom, ze DLSS 2.0 pridava ten zpetny feedback obrazu v plnem rozliseni (a pak samozrejme spoustu dalsich veci).
Fakt ne...
"Nvidia v konferenci k DLSS 2.0 potvrdila, že DLSS 1.x fungovalo jako čistě „spatiální“ "
Muzes to tvrzeni nejak dolozit? At hledam, jak chci, nikde to ve tvych zdrojich (ani jinde na internetu) nemuzu najit ;)
JO: Nevím, jestli se záznam může zveřejnit. A kvůli někomu s tvým přístupem se obtěžovat nebudu (viz "Jinému bych žebřík půjčil, ale hájkovi..."), asi bys neuznal, že ses spletl, počítám. Zkus si to sehnat sám, vždycky děláš, jak o těch věcech všechno víš, tak máš nejspíš super kontakty :)
A jeste takova perlicka nakonec k tomu Control z DLSS, kdyz jsem te ja a jeste dalsi clovek upozornil na to, ze v clanku fabulujes, tak jsi na to tenkrat odpovedel:
"Jan Olšan 3.9.2019 at 14:15
V originálním článku není řečeno prakticky nic konkrétního, proto se musím domýšlet, o co tam jde."
https://www.cnews.cz/nvidia-vylepsene-dlss-ve-hre-control-temporalni-stabilizace-proti-shimmering/#comment-216945
Informace v blogu o Control byly málo čitelné pokud jde o tyhle detaily. Třeba tam byly nějaké formulace ("image processing approach"), které zpětně viděno evidentně měly zohlednit to, že už to nepoužívá tensor jádra, ale je to taková odbočka, kdy Nvidia použila jenom shadery (ale zase vyzkoušela experimentálně tu temporální stabilizace před tím, než na ní založila DLSS 2.0). Ta konference byla ale krásně ve všem jasná, úplně radost to sledovat. Pro rekapitulaci: Control stálo trochu mimo DLSS 1.x, prezentující z Nvidie o něm řekl, že se dá vnímat jako "precursor" pro DLSS 2.0 - ovšem s tím, že v něm vlastně nebyla ta neuronová síť a ta temporální stabilizace tam je vlastně asi dost jiná.
A delas to zas. Samozrejme se nikde nic o tom, ze by Control driv nevyuzivalo Tensor Cores, nepise. Opet, muzes to dolozit? A nejaky svoje fabulace si nech. Chtel bych videt zdroj toho "podle Nvidie DLSS v Control nepoužívalo tensor jádra" a neco kde se opravdu ve zdrojich Nvidie rika "Control nepouziva Tensor Cores" a ne zadny okeceavani, ze si tuhle a tamtu vetu ty sam vysvetlujes tak a tak.
Tak zas na dloooouhou dobu na videnou. (JO: Dík.) Stejne to zas urcite smazes :D Zastavil jsem se tu jen podivat se, co zas vymyslis, kdyz jsem ten announcement videl na Techpowerupu. A nezklamal jsi. Ta zahorklost tam porad je.
Jako nemůžeme čekat originalitu jako u nativního obrazu, ale DLSS 2 už začíná mít (podle mě) celkem dobrý potenciál - pokud tedy videa a obrázky jsou pravé a neupravované (člověk si nemůže být dnes jistý).
Nicméně teď i sama Nvidia potvrzuje (z obrázků), jak její DLSS 1 stála za hov.o a zdejší fanatici ji tady obhajovali do krve, že je to super, přitom na první pohled bylo jasný, že je to hnus. A navíc musely být profily pro každou hru...
Nevíte, dal by se někde na internetu najít nějaký přehled všech moderních používaných super-samplingů a anti-aliasingů? Už v tom mám dost guláš, nevím, co je AMD-only, co je nVidia-only, co musí implementovat přímo hra, co se dá zapnout obecně v ovladačích...
Tohle DLSS třeba zní fajn, ale nemám ani podporovanou grafiku, ani podporovanou hru :-)
IMHO někomu může vyhovovat jednoduchý upscaling (algoritmy jako lanczos, bicubic), protože tam nejsou ty efekty toho silnějšího postprocessingu a projevy, kteér můžou mít ty neuronové sítě. Ale stejně tak naopak, někdo zase bude preferovat to, že nejsou vidět ty projevy tradiční interpolace a všechno je tak ostré. Proto jsem napsal na tom konci, že minimálně z části jsou tu ve hře věci, na kterých se asi lidi principiálně neshodnou.
Podle videa HWUnboxed, kde testovali WF:YB říkali, že zváží zda u her s DLSS 2.0 budou testovat hry s DLSS ON protože kvalita je lepší než native s TAA a není důvod to nechávat vyplé, aka lidi s RTX kartami budou to DLSS zapínat, když to umí přinést téměř dvojnásobný výkon v 4K. Díky tomu i na RTX2060 s plným nastavením včetně RT s DLSS člověk v 4k těch 60FPS má.
I další recenze DLSS 2.0 se nesly ve stejném duchu.
BTW mě DLSS rozhodně nevadil, ale mám z těch her snad jen Control, kde to byla nutnost abych měl svých 60 FPS s RT. DLSS v Controlu ale byla vylepšená verze, nepoužívala Tensor Cores, nefungovalo to ale stejně dobře všude, DLSS 2.0 je velký posun
https://www.youtube.com/watch?v=ScAQ5Of1LfE tady je to video
https://www.youtube.com/watch?v=gpzFX4P1Jow a od DF
Dokonce NV Shield má DLSS - https://www.youtube.com/watch?v=coOzBPGl-O8
Ta AMD má jednu shaderovou implementaci upscalingu stejně jako NVIDIA. Oboje je +- stejné, NV ale umožňuje customizaci toho filtru per titul, AMD má jen jedno nastavení pro vše.
Tohle není třeba jakkoli implementovat, pokud je to podporované grafické API, tak tam běží vše. Něco podobného zvládne třeba reshade, ale reshade už injektuje hru, což se nemusí líbit nějakým anticheatům apod.
DLSS dřív museli vývojáři implementovat a poskytnout super resolution samply na kterém se UI (na serverech NVIDIA) musely učit model pro DLSS, které je akcelerované přes Tenor jádra na RTX grafikách.
Control přinesl vylepšenou verzi, která ale používala CUDA jádra.
Současná DLSS je snazší pro implementaci a z článku vychází že není třeba tu UI učit na konkrétní rozlišení ani konkrétní titul
https://www.youtube.com/watch?v=ScAQ5Of1LfE tady je video s rozborem první implementace DLSS 2.0, je tam i něco o původních verzích
Zahořklost bude až redakce, které hry testují budou testovat výkon s DLSS, protože produkuje srovnatelný nebo lepší výsledek a budou to porovnávat s konkurencí, protože ten kdo bude moct DLSS použít ho použije, viditelné to bude hlavně ve vyšších rozlišeních, třeba WB:YB na 4k v plných detailech včetně RT ON běží na 2060 na 4k rychleji než na 5600XT bez RT.
Díky za info. Další (lehce zastaralý) přehled jsem našel tady: https://www.pcgamingwiki.com/wiki/Glossary:Anti-aliasing_(AA)
Hlavně je dobrý jak v té tvé recenzi ten borec říká, že DLSS bylo obrovský zklamání a byl to od Nvidie prakticky podvod na zákazníky. :) Ale když tu v diskusi kdokoliv zmínil, že DLSS kvalita není srovnatelná s nativem, nebo že NV naslibovala hromadu RTX her a slib nebyl dodržen, tak se na něj hned slítlo hejno rozzuřených fanatiků. ;)
DLSS 2.0 zatím vypadá dobře, věřím, že si NV reputaci vylepší. Udělali kroky správným směrem, tedy konečně podpora všech rozlišení na všech kartách, jednodušší (+rychlejší) implementace, vylepšená kvalita.
On chtěl antialiasing, a ty na něj vytáhneš upscaling :)
Když vynechám supersamplovací MSAA/SSAA a speciální DLSS, existují podle mě jen 3 použitelné AA metody:
FXAA - vždy rozmaže obraz, dobré implementace i něco vyhladí
SMAA - maže méně než FXAA, vyhlazuje zhruba stejně dobře, záleží na konkrétní implementaci
Obě AA metody lze vnutit do skoro každé hry skrz Reshade - umožňují i spoustu nastavení, například využitím depth bufferu u SMAA lze skoro dokonale vyhladit hrany bez rozmazání, ale pak úplně přijdete o vyhlazování textur.
Třetí možnost je pak TAA/TXAA, které ale nelze jen tak vnutit do hry.
Já proti té technologii nic nemám, zvlášť když je to svobodná volba, zda ji použiju nebo ne. Na druhou stranu tu byli jistí lidé (a ty jsi jeden z nich), kteří hltali marketing Nvidie hlava nehlava, bez jakékoliv špetky zamyšlení. A pak tu z toho vznikaly legendární hlášky jako "raytracing bude zrychlovat hry". :D
Blbečkům co neumí použít google a zadat tam 3 slova neradím. A co tady pořád osočuješ? Přečtení veřejně dostupných údajů co vypadnou z googlu opravdu není šmírování. Navíc když to tam blbeček osobně vypsal, že? Číst se učí děti v první třídě.
A nebo jinak, podej trestní oznámení na neznámého pachatele kvůli šmírování. A nebo se jdi léčit ze závislosti na slově "šmírování".
No chytráku já pořád čekám, kdy sem hodíš ty odkazy s mými osobními údaji...
A asi Ti hodně ležím v žaludku, když máš tu potřebu dohledávat a šmírovat moji osobu :-) Počítám, že takhle se snažíš dohledávat i další co Ti nejsou po vůli :-) A jak stupňuješ ty to napadání a urážení tak koukám, že Ti už začíná docházet, že jsi se tu osobně prásknul před ostatními :-D
Jinak dík, že jsi se přiznal sám, že to děláš... ušetřil jsi mi práci kdy bych to dohledával :-D Takže fakt dík ;-)
Marku, už i ty? Já jsem žádné údaje nikde nedohledával, za to mně boreček nestojí. Stačilo se v průběhu doby jen podívat na těch konkrétních webech které dotyčný plevelí svou nenávistí do informací co tam o sobě sám napsal. Pak si k tomu přičíst co o sobě tvrdí dotyčný v samotné diskuzi a není potřeba nic aktivně dohledávat.
Na ukázku: DDworld, cnews, diit, pctuning, pak krásný byl CZC + BelkaKoutek. To je na co jsem si vzpoměl, byly ještě nějaké další, ale to už si nepamatuji.
Kochren, mistr světa v ICT už minimálně 20 roků posedlý tím, že ho všichni kolem šmírují. Na sebe práskáš tak akorát ty sám v diskuzích a na fórech. Vůbec nic jsem nemusel kdy hledat, stačilo číst a dát si 1+1 dohromady. A dávej bacha až budeš otevírat konzervu, aby na tebe nevyskočil nějaký šmírák.
Hele slidile Speedile..ty si nevidis do huby. SI dobre pamatuji na prvni tvoji stiznost JO, kdy se ti nelibilo, ze jsem mel "velky pocet prispevku" u vydani 8xxx rady Intelu. Vtipne..ted bych tu mel zacit jecet jako ty, ze tady spamujes :D
Pak je vtipny, jak ti vadilo, ze jsou v mych komentarich "urazky". Pritom delas to stejny..tady nadacas kochrenovy do blbecku, zesmesnujes jej...ostatne ani nic jineho stejne delat neumis, ale u druhych ti to vadi. Prispevek, kde by jsi se snazil ze sebe vyplodit neco, co by stalo za namahu si aspon precist, si od tebe nepamatuji.
Tvoje ulitle 'litanie' na tema "DD" ty jsou pak vseobecne zname...samozrejme, kdyz je pises ty, tak to nevadi...
Pro Kochrena, odborníka ICT už nejméně 20 roků. Googlem si jen ověříš to kde jsem načerpal informace o tobě. Některé už asi sebral čas, ale některé tam pořád jsou. A to je to vyhledání zrovna teď. Ale nevím jestli to pobereš.
Nebo snad popřeš svou historii osvěty na CZC, Belka blogu, DD blogu a dalších?
Trollbambíno, proti tvým bukvicím a podobně jsem naprostý břídil, jsem si toho vědom. A proti tvému offtopic spamu taktéž.
P.S. https://www.czc.cz/vyjadreni-k-situaci-v-diskuzich-na-czc-cz/clanek/85105q4h70is38ldlohp8ko4ab/diskuse
Hele Speedliku, ze jsi bridil to by ani tak nevadilo, kazdemu neni dano. Horsi je, ze jsi k tomu jeste i klasicky pokrytec, ktery si stezuje na veci, ktere dela on sam. Jinymi slovy, nevidis si do huby...
A jinak diky, ze jsi opet potvrdil svym odkazem jen to, co tady o tobe psal Kochren a ja uz taky.. ze jsi prachobycejny slidil, ktery neumi a nedela nic jineho, nez lozi po diskusich a snazi se vystouravat veci na druhe. Cechacek v plne krase.
Je mi te lito...
ne že bych byl zastáncem nějakého šmírování, ale jak to tady (a několikrát předtím) čtu, Kochren Tombo a na závěr Wendak udělali , resp. permanentě dělají ze sebe ukázkové idioty( co se týče napadání oponentů) ... stačí požádat někoho nestranného, pak snad tomu uvěříte ... neustálé napadání, prachsprosté lhaní ... docela ubohé, měl jsem o prvních dvou vyšší mínění ...Kochrene, máš co skrývat? Nemáš? Pak co řveš jako blázen? Pokud ti něco vadí, nech toho blábolení po webech, nebude tě nikdo "šmírovat" ... Tombo, kapitola sama o sobě, reklama na pokrytectví, Wendak, "dídího" nejlepší žáček ...
Takto porovnané bol asi aj DX9 megafail a s vydaním DX10 to Microsoft prakticky potvrdil. A tak môžeme pokračovať ďalej. :-) Ono aj dnešný Raytracing v hrách za par rokov bude vyzerať ako fail, ale bez toho, aby s tým niekto začal, by sa vývoj nepohol. Ale to tu niektorí ľudia nedokážu akceptovať len preto, že ten kto pohol s vývojom ako prvý bola NVIDIA (aspoň čo sa týka návrhárov GPU čipov).
No, no. Nesmíš hned plakat, když tě někdo nachytá jak lžeš. A že neurážíš???? Cha cha cha, tak si jen přečti, co si teď napsal: "trosko", "chudáku".,...
Chápu, že máš asi stařeckou demenci a nevnímáš, když píšeš nenávistný komentáře, to ale neznamená, že jseš nevinej, ba naopak. Je mi tě hrozně líto, takovej ubohej život mít, a nevědět co vlastně píšeš, není to už na invalidní důchod?
A co se týče šmíráka HWSpeedy, sorry, ale je to šmírování a pokud to tak nevidíš, tak máš pokřivený myšlení komunistickou érou.
ááá nebohý gogo už dorazil, a zase nám tady lže.
DDho nemusím stejně jako Obrmajera, pro mě to jsou jak černá a bílá, tak jaký pak žáček? Můžeš mi najít třeba můj poslední příspěvek na DíDí? To bude tak minimálně 5,6 roků?
A urážení ostatních jde tobě myslím daleko líp než ostaním, takže zase lež (vím, že si to nebudeš chtí přiznat, ale dá se to tu dohledat ve starších článcích)
Navíc o pár řádků níž tady DLSS 2 chválím --- TO BY PŘECE DÍDÍho PŘÍZNIVEC NIKDY NEUDĚLAL. To udělá jen ten, kdo se na to dívá objektivně, ne fanaticky jako gogo a šmírák speedy
Tak co jsem se tak díval po screenshotech, tak je to lehce přesaturované a i tak nějak nic moc.
Nicméně šlo mi o to, že po velkém zeleném troubení a bubnování na téma "neuronové sítě" přišlo AMD s klasicky pojatým (ale kvalitně udělaným) upscalingem, který to nvidií čudo, které se muselo na vše učit, strčil do kapsičky u vesty. Z tohoto pohledu jde u DLSS 2.0 o regresi, než progresi (na "obecně vycvičený grid" a další zelené marcom kydy fakt nevěřím).
Pokud znáš "Adéla ještě nevečeřela" - tak scénka "Dar přítele Messera"
Saturace je sytost barev, asi myslíš přeostřené. To IMHO je, to je asi taky hlavní důvod, proč to řadě lidem přijde hezčí/lepší než originál. Stejný efekt se děje i i těch jednodušších ostřících efektů - ve skutečnosti to ten obraz mrví, ale lidem se to na první pohled (a asi často i na drhuej...) líbí a často to kvůli tomu v nataveních přeženou.
@tynyt:
Tak AMD neprebila nič. Urobili len obyčajný upscaling. To, čo robí NVIDIA je skôr rekonštrukcia obrazu, ktorá využíva viac predchádzajúcich vyrenderovaných obrázkov. To sa nedá podľa mňa vôbec porovnávať. Inak tomu "všeobecne vycvičenému" gridu sa mi tiež nechce veriť. Resp. uverím až keď to uvidím.
Pamätám si ale po prvej prezentácii, že NVIDIA prezentovala DLSS 2 ako rekonštrukciu obrazu, ktorá z obrázkov v 4K rozlíšení sa snažila vytvoriť obrázky s čo najviac priblížením sa výzoru k takým obrázkom, ktoré boli renderované v oveľa vyššom rozlíšení. Toto nejako zapadlo prachom a rád by som to zasa videl.
DLSS 2.0 je podle Nvidie trénované na 16K obrázcích.
Já bych to označoval jako Superresolution, to už se nějakou dobu pro tyhle pokročilé upscalery používá (a často se v těch přístupech objevuje i to temporální motion-compensated filtrování ve snaze posílit detaily pomocí využití sousedů). Když jsme u toho, Nvidia by mohla nabídnout i DLSS model pro sledování videa, nepřekvapilo by, pokud by to byla budoucí novinka. V principu je to úplně stejný problém, vzhledem k tomu, že DLSS funguje v doméně pixelů a ne objektů.
Jinak tenhle přístup pro trénování upscalingu/interpolace, teda že máme korpus obrázků s vysokou/originální kvalitou a pak druhý korpus s downscaled verzí, který zpracovává neuronová síť a my hodnotíme pomocí metriky to, jak blízký/podobný je její výstup, tak to myslím nebylo nic nového, to je asi standard. Ona se ta metoda vyloženě nabízí. Už třeba staré filtry NNEDI až NNEDI3, které člověk mohl používat v Avisynth se IIRC trénovaly úplně stejně. Akorát se to tehdy dělalo na tehdejších starých CPU a na korpusu složeném z různých testovacích fotek.
J.O.: ano, psal jsem o saturaci a myslel jsem saturaci. Stačí srovnat snímky. Jistě můžeme taky stav "DLSS OFF" označit za vyblitý a "DLSS ON" naopak za správně barevně podaný (je to jen o relativitě pohledu).
Mareknr: ano, však jsem psal, obyčejný upscaling, který ovšem dával lepší výsledky než to neuronosíťové DLSS. Což je BTW jeden z důvodů, proč byla v1 fail (alias "dar přítele Lasera")
Hmm no saturaci ve smyslu přidané stytosti tam teda nevidím. Je tam hodně přiostřední, nebo možná by se dalo říct přeostření (které může třeba vést k zesílení tenkých červených linií/bodů, ale to je sekundární efekt toho ostření), ale že by byl odstín barev samotný manipulovaný, to tam teda nevidím (naštěstí...). Teda aspoň na těch snímcích, ty videa jsem teĎ znovu neprohlížel.