K precteni bych doporucil i stejny clanek na pctuningu. Popisuje uplne to same, ale z kazde vety citime a obcas i primo cteme uzasle vau, vau, to je narez, NVidia je proste nejlepsi.
Proste situace je takova, ze PCT dostane RTX2080(Ti) na recenzi a CNews nedostane, tudiz se to tady obeslo bez Huangovych pokynu k recenzim na pouhe technicke konstatovani pouzitych technologii.
Takze pokud uz takovou masaz delaji u technologickeho popisu, tak proste predem rikam, ze at recenze dopadnou jakoli, tak jim proste verit nebudu, dokud to neotestuje nekdo, kdo si tu grafiku koupi za svoje.
Co se tyka slabsich grafik, tak se zda, ze GTX2060 a niz prijdou az nekdy v pristim roce. Zatim vse nasvedcuje tomu a jsou tam i naznaky ze samotne NVidie, ze Pascalu je stale na sklade hodne a tudiz dal zustavaji v prodeji GTX1080, GTX1070Ti, GTX1060 i GTX1050Ti. Dokonce neni uplne jasne, zda vubec Turingy v "levne" verzi bez RT a Tensor Cores kdy vyjdou, ono pak jaky by mely smysl, kdyz je to cele postavene na tom.
Mohu se zeptat co má znamenat ten odstavec "FP16 zdá se nepřišlo". Hned první stránka s relevantními informacemi z whitepaperu architektury Turing: " The RTX 2080Ti Founders Edition GPU delivers the following exceptional computational performance:
- 14.2 TFLOPS of peak single precision performance
- 28.5 TFLOPS of peak half precision performance
..."
Nevím jak vám, ale mně připadá, že Turing Rapid Packed Math podporuje.
Předem se omlouvám za to, že znovu otravuji a že jsem takový hnidopich, ale myslím, že vám o Turingu unikl jeden detail a to konkrétně L0 instrukční cache, který Turing (asi) zdědil z Volty. Z již zmíněného whitepaperu: "... Each block includes a new L0 instruction cache and a 64kB register file.
... "
Blbě se to hledá a v standardním SM diagramu to z nějakého důvodu není, ale v textu se to objevuje a bylo to zmíněno i ve videu kanálu Gamers Nexus a také je možné tuto informaci dohledat v článku o Turingu na devblogs.nvidia , což beru jako známku, že se nejedná jen o chybu v textu.
P.S: tak mě napadlo že došlo k výraznějšímu rozvrstvení v mainstreamu a budoucí gtx2060 o které se povídá že má mít jen 5GB VRAM bude spíš nástupce dnešní GTX1030 3GB - nyní jsou obě 1060 hodně u sebe výkonem a jediný rozdíl je paměť která první jmenovanou začíná dost srážet, takže v NV asi došli k názoru že to víc rozdělí, takže za mě 2060 = 1060 3GB a 2070 = 1060 6GB a 2080 okupuje celý segment bývalé 1070/1070Ti/1080. A za mě to takto má víc smysl.
Proti tomu se musím ohradit, nějaké takovéhle kádrování ze stany Nvidie vůbec nebylo.
My bychom taky dostali kartu k recenzi, dokonce nám zastoupení nabízelo půjčení celé sestavy (což je naopak vstřícné, ne?). No ale bohužel už na ty recenze nemáme zázemí (ani nějakou databázi výsledků k srovnání...)
A co se týče pochvaly, no ta je asi na místě, proč ne? Jsou tam ty nové bloky a zároveň obecná architektektonická zlepšení, teda něco jako když Intel přidá AVX a zároveň vylepší jádro. Třeba další zlepšení komprese jsem ani nečekal. Kromě zvedání cen tam nic špatného nevidím, a to zvedání cen je proces co už začal v předchozích generacích.
V clanku jsou i dalsi chyby. Mozna schvalne? Uz nekolikrat jsem tu mluvil o DLSS jako supersamplingu.
"Maudit 23.8.2018 at 2:14
Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL)."
TechPowerUp by W1zzard, on Sep 14th, 2018
"NVIDIA also speak of a DLSS 2X setting, which renders the image at the intended target resolution and then upscales it via its AI-based neural network to quality levels approaching those of a natively rendered 64x super sample rendering."
https://www.techpowerup.com/reviews/NVIDIA/GeForce_Turing_GeForce_RTX_Architecture/9.html
DLSS tak scenu vyrenderovanou ve 4k posune treba na 8k a tu informaci pouzije pro vylepseni puvodniho 4k obrazu. Proc tohle v clanku chyby? ;) Nekdo se neceho boji? :D
Už jsem to psal mnohokrát PCT=DDW stejná mince opačné strany...
K recenzím... doufám že se kluci od nás (PCnadsenci) dostanou k 2080Ti a udělají testy. Možná se na to přijedu i podívat (podle toho kdo to od nás bude dělat).
Podle mě je RT zatím hlavně na dema. Já tento krok ale kvituji. Ostatně už dlouho se hovoří o RT a kdy přijde do her. Použitelný výkon ale budou mít až nadcházející čipy. Nicméně nová architektura má víc zajímavých vlastností.
Krom recenzí u nás budu ještě zvědavý na Guru3D. TomsHardware se předem odepsal co se nezaujatosti týče.
Kdyz pominu ty preklepy, tak i tak je to zmateny. A to z toho duvodu, ze neprosta vetsina lidi, co nekupovala GTX1080, ji nekupovala kvuli cene.
Kdyz se ale podivas na ceny nove generace, tak lidi co si koupili GTX 1070(Ti) si v nove generaci maji koupit GTX2060 nebo-li nahradu lowendu GTX1060/3?
To tezko budou zkousavat. Sam jsem ten pripad, ze jsem kupoval velmi brzo GTX1070, ale nikdy bych nekoupil 3gigovy ojeb GTX1060 a stejne tak vim, ze urcite nekoupim ani 5gigovy ojeb GTX2060.
Takze ve vysledku tu budou lidi co koupil GTX1080 a ti v budoucnu podle financi zakoupi RTX2070 a vyssi. A lidi co kupovali GTX1060, tak mozna nekteri z nich koupi GTX2060.
A co ten zbytek? (My ostatni asi budeme cekat, jestli preci jen neco nevykuti AMD, protoze NVidia na nas z vysoka kasle.)
Ja si treba nedokazu dost dobre predstavit, ze NV vyda nastupce 1060 s min pameti..5GB. Budouci 2060 je karta, ktera bude celkem zvladat i 1440p rozliseni a tam tech 5GB muze byt malo. Ono je to malo i dneska v nekterych hrach, pokud to nekdo maxuje.
1060GB s 3GB byl podle mne trochu ulet, byt funguje ok. Kamarad ji ma taky (na moje doporuceni)
Je až s podivem, že se někdo ještě zdržuje s čtením Mauditových komentářů, natož na ně reaguje. Podle mě absolutní zbytečnost a ztráta času, ten člověk si buď dělá jen srandu, nebo je zcela mimo, jelikož pokaždé plácá absolutní nesmysly a ještě ten jeho primitivní styl k tomu... jak říkám, vůbec nečíst je nejlepší řešení.
ber to tak že 3GB byla nutnost kvůli velké mezeře výkonu 1050Ti a plnotučnou 1060, zvlášť když tam zamířila rx 570. A ve fHD se i přes nižší videopaměť drží hodně dobře (stejně jako podobné postarší gk s 79xx a 38xx). A pokud má nástupce této úspěšné grafárny dostat o 2GB víc tak není co řešit. Na nějaké extra vyhlazování stejně čip nebude mít sílu jako u 1060.
Ad ceny, ty se srovnají, ale spíš tak po Vánocích, jednak se musí doprodat vyšší karty s jádry Pascal a pak už bude před svátkama a hlavní nákupní sezóna. A jelikož konkurence stojí s prázdnýma rukama tak dřív než po svátcích bych slevy nečekal. Za to nemůže NV ale neschopnost AMD.
Neni na nem nic optional. A pocita se na TensorCores. Uplne stejne tak offloaduje praci z klasicke pipeline na fixed function jadra. Proc by tam nemel byt narust vykonu?
A kde se k cemu upinam? Celou dobu rikam, viz muj prispevek nahore, ze se ty extra samply daji vyuzit jak ke zvyseni rozliseni, tak k supersamplingu. A presne tak - do puntiku - to je. To ty jsi tvrdil, ze jde jen a jedine o upscaling. A tvrdosijne to pises i ve clanku, schvalne vypoustejic informaci o supersampling funkcionalite, i kdyz zbytek internetu je toho plnej. To je tak srabacky, az nevim, jestli se tomu mam smat nebo nad tim kroutit hlavou ????
Jednoduche, potrebuju grafiku na QuadHD na doma. RX580 je vhodna na FullHD, ale ne na vyssi rozliseni.
Zaroven jsem v podstate vyresil i ten problem na chalupe, kde mam FullHD, nebot az vyjdou spickove grafiky od AMD Navi, tak tu si koupim domu a z domova se grafika presune na chalupu.
Takze ten Polaris od tebe, co jsem ti byl ochoten za nej dat i 4 tisice, tak uz potrebovat nebudu. Musis prodat nekomu jinemu.
Já o tom tehdy psal, ale IIRC tehdy někdo, kdo byl na místě a z koho jsme čerpali, napsal že FP16 se skrývá pod tím buzzwordem "variable rate shading". Což se vzápětí ukázalo, že je něco jiného. Tohle mě asi svedlo na špatnou kolej, takže jsem pak čekal, že to o FP16 bylo jenom nedorozumění.
no dnes na fHD funguje 3GB dost dobře, kupodivu - nv má lepší správu paměti. I ve W8.1 se to pere zdatně bez propadů pokud se tam nenahází vyšší vyhlazování či ultra textury, takže 5GB by neměl být problém. Dnes třeba těch 8 či 6GB moc nepomáhá, hlavně slušně prodražuje kartu, takže je pak otázka zda víc jak 4GB není na těch mainstream čipech drahá zbytečnost kterou využijí jen fajnšmekři. Protože v testech sice nějaký rozdíl je proti 3/4GB grafikám, ale poměrně malý. Na lepší využití prostě schází výpočetní výkon. A koho pak pálí že v paměťově náročnějším Vulkanu má rx580 150fps vs 1060 s 130fps. Kdo má 120Hz+ monitor tak pochopitelně jde do vyšší řady kde těch 120fps bude mít ve většině her ne u jednotek. U těchto karet jde o to aby dávaly 60-70fps což se jim obvykle daří.
GTX1060/3 byla a je karta uplne k prdu, protoze ikdyz nebyl rozdil mezi plnotucnou a touto jen ve videopameti, prave videopamet tuto grafiku srazela k low-endu. I na fullHD hrani dnes potrebujes neco malo pres 3GB videopameti a strop 3GB ucinil z te grafarny traparnu, kterou si davala RX580/4 k snidani.
Mimochodem u AMD to dopadlo tak, ze RX470 a pozdeji opravena RX570 se v podstate neprodavaly, protoze byly v podstate stejne drahe jako 480 a opravena 580.
Co melo u AMD smysl a ma dodnes byly RX580/4 s dostacujici videopameti pro mainstreamove hrani a RX580/8 pro hrani mirne nad mainstreamem (nechci pouzit oznaceni horsi highend, protoze cip RX580 na highend nedosahuje). Rekneme si tez, ze az na snad jen dve hry, vsem hram stacilo na mainstremove hrani 6GB videopameti.
Takze rekapitulace:
fullHD mainstream dostacujici 4GB videopameti, v nekterych pripadech si hry braly az 6GB a snad pouze dve hry dosahly na 8GB videopameti.
GTX1050Ti/4 pro maximalni stlaceni financi davala smysl. Pokud zakaznik miril o neco vys potom RX580/4 a pokud v ramci mainstremu nejvys, potom GTX1060/6 a RX580/8. Nic jineho smysl nedavalo a kdo poridil za bezne ceny neco jineho, ten nejednal ekonomicky s ohledem na pomer vykon/cena. (Obdobi kryptohorecky ve sve analyze pomijim, to bylo cire blaznostvi.)
-----
Ty ceny RTX grafik dolu nepujdou nijak zavratne , tomu never. Podivej se na dnes neprodejnou Vega 56 a Vega 64, jake silene pomeru vykon/cena zcela neodpovidajici castky za to chteji. Presto nejde slevit pod vyrobni naklady. Podobne Turing je vyrobne drahy, jestli pujde dolu o -10% maximalne -15%, tak mu hodne fandim, niz jen tezko.
Chybi informace o supersamplingu DLSS ve clanku nebo ne? Chybi.
Nazyva to Olsan "optional" featurou ve snaze ji bagatelizovat, i kdyz na ni nic optional neni? Ano.
Tvrdi Olsan, bez jakychkoliv dukazu, ze neprinese narust vykonu, i kdyz se dalsi samply pocitaji na TensorCores, ulehcujic tim praci klasicke pipeline? Ano.
Case closed ???? Je mi jasny, ze tu za chvili bude naval zhrzenejch AMD fans, ale fakta jsou fakta. DLSS je opravdu supersampling.
věř tomu že není, geforce umí s pamětí nakládat lépe jak radeonky a v praxi je to s rx570 velice vyrovnané (testoval jsem v zimě i tu radeonku od Asus). Samozřejmě je třeba si odpustit vyhlazování které je vyjma uhd textur největší žrout paměti.
Já si ji pořídil kvůli limitovanému rozpočtu na novou sestavu a taky už se proslýchalo že nové nvidie vyjdou v létě, takže jsem nechtěl dávat do grafárny víc než je bezpodmínečně nutné a zároveň nesahat do lowendu. A vážně mě mile překvapila tahle kartička, solidní přetaktování a v Doom jede se default 72fps synchro ve fHD na plné detaily (ne nightmare textury pochopitelně).
Probehla tu blazniva kryptodoba, takze je mozne, ze v dobe tve koupe byly nesmyslne ceny za Radeony a nic jineho ti nezbylo, kdyz se podivam na situaci jiz neovlivnenou kryptohoreckou, tak nejlevneji:
MSI GeForce GTX 1060 3GT OC, 3GB GDDR5 - 5590Kc
Sapphire Radeon PULSE RX 580 OC, 4GB GDDR5 - 5999Kc
(zdroj czc)
Takze ty 4 stovky navic se suprove vrati v mnohem lepsim vykonu.
"Jan Olšan 15.9.2018 at 17:35
.. tak najednou se upínáš k tomu optional režimu 2X, co? ???? Ten ale pochopitelně nebude zvyšovat výkon."
Nikde se v tom dokumentu Nvidie o optional nic nepise. Nikde ani jine weby nepisou o "optional" povaze. To jsi si proste vycucal. Nikde se tam nepise nic o tom, ze by supersampling nemel zvysovat vykon. A co se stalo s tvym tvrzenim, ze DLSS je jen upscaling? V clanku zminka o supersamplingu chybi, i kdyz jinde se o tom pise na stejne urovni. To se to tam stydis pridat?
Navic, optional by znamenalo, ze tam ten rezim vubec nemusi byt, ale on tam bude vzdycky, jen si ho budes treba muset vybrat (stejne jako si vybiras no aa/2xaa/4xaa atd.). Co je na tom divnyho?
LOL a jestli chces v pondeli vydat clanek o tom, jak je to jen a jedine upscaling a ne supersampling, tak to bude takovej krasnej pomnicek tvymu AMD fandovstvi, ze ti to bude celej ceskej internet pripominat jeste roky :D
Nejspíš nemají potřebu komentovat někoho, kdo plodí výrazy jako "nezmynuje". :D S odchovancem zvláštní školy se špatně diskutuje. :D :D
Byl jsi vedle jako jedle, začíná ti to už pomalu docházet. Když vydala NV grafy s nárůstem výkonu s DLSS, tvrdil jsi že rozhodně o upscaling nejde. :D Ale jako, co čekat od fanatika, který tu předpovídal, že raytracing bude výrazně zrychlovat hry. :D :D :D
"Nejspíš nemají potřebu komentovat někoho, kdo plodí výrazy jako „nezmynuje“." To je jen autocorrect na anglictinu, kterej kolikrat zapomenu vypnout, kterej mi meni na i na I ale I cely slova na podobny anglicky slova, viz. moje ostatni posty. Kdyz to slovo pak opravim, casto si nevsimnu ze to zmenilo vic pismen, nez jen treba koncovku. A bohuzel tu neni edit. Jestli je tohle tvuj jedinej argument aznohu, tak to je fakt slabotu :D
"Jan Olšan 15.9.2018 at 21:54
Měli pravdu, tak nemaj potřebu dělat ramena a křičet aby něco zamaskovali?"
Myslis treba jako ty se snazis zamaskovat, ze DLSS je supersampling tim, ze to do clanku vubec nedas, kdyz vsechny velke svetove weby o tom pisou?
No to je chlapacky, to teda vubec nic nemaskuje :D
https://www.tomshardware.com/reviews/nvidia-turing-gpu-architecture-explored,5801-5.html
https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive/9
https://www.techpowerup.com/reviews/NVIDIA/GeForce_Turing_GeForce_RTX_Architecture/9.html
A co se vykonu tyce, proc Olsan, kdyz uz sem dava link na architecture dokument Nvidie, neuvede ten odstavec tesne pred tim? Dalsi vec, kterou se hodi zamlcet ;) Jasne se tam mluvi o tom, jak TAA vyuziva shadery:
"For example, Temporal AntiAliasing (TAA), a shader-based algorithm that combines two frames using motion vectors to determine where to sample the previous frame, is one of the most common image enhancement algorithms in use today."
strana 35 hned nahore (nad tim, co sem Olsan postnul LOL) https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
Stejne tak MSAA/FXAA/SAA/MLAA se pocitaji na shaderech.
https://en.wikipedia.org/wiki/Multisample_anti-aliasing
https://en.wikipedia.org/wiki/Fast_approximate_anti-aliasing
https://en.wikipedia.org/wiki/Spatial_anti-aliasing
Co se asi stane, kdyz se bude misto toho pocitat aliasing na Tensor Cores? At uz DLSS nebo DLSS 2x? To nebude uspora vykonu? :D :D :D
"Jan Olšan 15.9.2018 at 22:19
A ten whitepaper jsi si přečetl? Dal jsem ti i čísla stránek. Jestli jo a pořád ti přijde, žes nebyl vedle, tak asi nerozumíš anglicky a pak už holt nevím."
Jisteze precetl. A whitepaper jasne mluvi o supersamplingu a nikde se tam nepise o nicem "optional". Proc to chybi v clanku? A co se stalo s tvym tvrzenim, ze DLSS v zadnem pripade neni superampling? ;)
Fakt se divím, že tě tu trpí Maudite, když tu nechutně lžeš redaktorovi do očí. Jen se mi potvrdilo, že jsi opravdu pacient. Ty a DD jste na tom prakticky na 100% stejně, čirý fanatismus.
Maudit: "Ja to pridam radsi I sem, protoze ocividne ani Jan Olsan netusi, co je DLSS a jak funguje. Rozhodne to neni upscaling." https://www.cnews.cz/nvidia-geforce-rtx-2080-turing-prvni-benchmarky-4k#comment-192928
#stopfanatismu
https://cs.wikipedia.org/wiki/Fanatismus
Vykon 1060/3GB je v pohode. Tam je problem v tom, ze v momente, kdyz ji dojde pamet, tak budes mit stuttering v obraze a budes muset snizovat textury/detaily/rozliseni, byt ta karta ma navic. Z toho pohledu je AMD 4GB 570 ve stejny cenovce treba lepsi volba, byt nekde mze byt 1060/3gb i o fous rychlejsi.
@aznoh
Ano, DLSS neni upscaling. A ze V TOM SAMEM POSTU pisu, co to presne DLSS je a ze se da pouzit jak pro upscaling, tak pro supersampling, to ti unika?
"Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu – vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL)."
Z Nividia Architecture Whitepaperu, co sem daval i Olsan:
"After many iterations, DLSS learns on its own to produce results that closely approximate the quality of 64xSS, while also learning to avoid the problems with blurring, disocclusion, and transparency that affect classical approaches like TAA."
Kdyby bylo DLSS jen upsacling, nikdy by jsi nemohl dokazat zvednout KVALITU, protoze cistym upscalingem a naslednym downscalingem se dostanes pri nejlepsim ke stejne kvalite, jako ten puvodni lower-resolution obraz. DLSS ale dela neco vic - dodava extra samply k puvodnim input samplum. A s tim muzes udelat dve veci - vyuzit je primo pro renderovani extra pixelu (v contextu upscalingu) a nebo je pouzit pro zleseni kvality existujicich (v contextu supersamplingu).
Ale to uz jsem psal "23.8.2018 at 2:14", jak si kazdej muze precist ;)
Muzes to okecavat jak chces, ale vy jste tvrdili, ze jde jen a jedine o cisty upscaling, coz neni pravda. O upscaling se vubec nejedna, jen se data z te DNN daji pro upscaling pouzit (ale nejsou upscalingem ziskana). :D :D :D
Lol magor. :D
Lžeš tu jak když tiskne, viz "vy jste tvrdili, ze jde jen a jedine o cisty upscaling" - o žádném čistém upscalingu tu nikdo nemluvil.
Ty jsi fakt zralej na Chocholouška, ale tobě to třeba časem dojde Maudite, ty tvoje přešlapy pečlivě eviduju i se zdroji a po recenzi tu o tobě bude pěkný příspěvek. :D :D :D
Taková ochutnávka: :D
1. Maudit: raytracing podporuje 21 her při vydání Turingu, realita: her je 11 a zdaleka ne při vydání
2. Maudit: Turing bude o 80-200% výkonnější než Pascal, realita: 35-45%
3. Maudit: Raytracing zrychlí hry, protože RT jádra odlehčí shaderům, realita: RT hry běží na 2080Ti 40 fps ve FHD :D
#stopfanatismu
https://cs.wikipedia.org/wiki/Fanatismus
Maudite ty seš fakt tragéd. Problém s tebou je, že asi vůbec nechápeš, co sou neuronový sítě, nebo prostě schválně děláš blbýho, aby si mohl držet tu svoji pohádku.
Supersampling znamená, že na jeden pixel vykreslování se použije víc vypočítanejch pixelů. U antialiasingu taky metody používající supersampling pracujou s vědomostma o geometrickým modelu, aby mohly například dělat SS jenom na hranách.
Jenže DLSS i DLSS 2X s tímhle nemá nic společnýho. Supersampling se použil JENOM na ten obraz, kterej se používal při trénování.
Když použiješ DLSS, tak GPU počítá bez supersmaplingu, vyplivne obraz bez AA, a efekt antialiasingu supluje neuronová síť. Ale ta nedělá žádnej supersampling, ta jenom udělá s každým pixelem efekt, kterej se naučila dělat při tom trénování. Je to čistě spatial filtr a nepoužívá na výstupní pixel víc samplů. DLSS ani DLSS 2X neví nic o tom, jakou má scéna geometrii, neví nic o objektech, je to filtr běžící čistě na pixelech. Jako to waifu2x...
To, že trénovací kvalitní obrazy supersampling používaly, je úplně jedno, DLSS i DLLS 2X ten efekt jenom emuluje. Přijde úplně ohavný, jak demagogicky jseš o tom ochotnej lhát. Jo, to je bez přehánění lež, co tu praktikuješ. Nemám rád, když se sem takový silný obvinění tahají, protože to tu diskusi vyhrocuje, ale ty jsem fakt extrémní případ.
P.S. A ty tvoje básnš o tom, že to běží na tensor cores, takže něco!!!11one, to s tím nemá co dělat.
Zda se spis, ze ty nechapes, jak neural networks funguji. Nebo nechces chapat? ;) Rozdil mezi klasickymi zpusoby zpracovani obrazu a deep learningem je prave v tom, ze se deep learning nauci rozumnet tomu, co je na obrazku. Pocitacove videni ti nic nerika? Jak umeji neural networks poznat, ze je na obrazku pes, kocka nebo jakekoliv jine zvire (dnes uz lepe, nez clovek), jak umeji dynamicky poznat objekty v okoli a umoznit tak autonomne rizena auta? Je to prave o tom, ze dokazou pochopit obsah. To je to, co klasicke ciste matematicke metody nedokazou. A to je ten duvod, proc se tomu rika umela inteligence. Clovece lzes jenom sam sobe :) Ale nemusime chodit daleko, vsak on o tom Huang mluvi primo v keynote:
"It can then generate pixels in has never seen before, pixels that make sense to go there. If you and I were to look at it, we would know what pixels make sense to go there, so it makes sense that we can teach a neural network to make sense of what pixels go there."
https://youtu.be/Mrixi27G9yM?t=59m54s
To uplne krasne demonstruje, jak totalne mimo jsi ohledne chapani funkce DLSS, viz treba:
"Ale ta nedělá žádnej supersampling, ta jenom udělá s každým pixelem efekt, kterej se naučila dělat při tom trénování. Je to čistě spatial filtr a nepoužívá na výstupní pixel víc samplů. DLSS ani DLSS 2X neví nic o tom, jakou má scéna geometrii, neví nic o objektech, je to filtr běžící čistě na pixelech. Jako to waifu2x…"
DLSS praveze rozumi tomu, co je na scene, rozumi geometrii, dokaze identifikovat objekty i detaily a inteligentne je doplnit. Ty extra samply nepochazeji z rasterizace jako klasicky aliasing, ale prave z toho, ze ta neuralni sit chape scenu, co na danem miste ma byt. DLSS se nauci, jake objekty jsou pro danou hru typicke a pak je dokaze doplnovat. Pokud by to byl obecny spatial filtr, nemusel by se trenovat pro kazdou hru zvlast. Tohle ti budu pripominat jeste hodne dlouho. Ten link si ukladam. Diky ;)
Mozna by stalo za to, abys nam teda vysvetlil, jak NGX dokaze teda doplnovat v modu InPainting chybejici mista v obrazcich (ktera jsou dost znacna), viz. treba strana 38 z whitepaperu?
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
Ale jasneeeee, urcite jde o spatial filter, zejo. Proste cela ta prostredni cast obliceje, vcetne oci, nosu a tvari byla doplnena ciste vektorovou interpolaci :D :D :D Ted je fuk, ze se snazis lhat (ne moc uspesne) nam vsem. Vis me fakt zacina udivovat, co si za cloveka, ze dokazes tak brutalne lhat sam sobe. To je mnohem horsi.
"P.S. A ty tvoje básnš o tom, že to běží na tensor cores, takže něco!!!11one, to s tím nemá co dělat."
DLSS bezi na Tensor Cores. To je fakt. Klasicke formy antialiasingu bezi na shader units. Taky fakt. Usetri se tak prace rasterizacni pipeline, ktera se da pak vyuzit na dalsi snimky, protoze se prace presune z shader units na Tensor Cores? Ano.
Me je jasne, ze se snazis DLSS zdiskreditovat a bagatelizovat, protoze pak urcite budes rikat "ale tech 200% vykonu GTX1080/1080Ti, to se napocita, vzdyt je to s DLSS". Myslim, ze to vidi kazdy. Jenze k tve smule, 4k DLSS nabizi kvalitnejsi obraz nez 4k TAA a 4k DLSS 2x nabizi dokonce obraz v kvalite nerozpoznatelne od 64xSS. Tak proc by se kvalitnejsi vystup nemel pocitat? ;)
@anozh
"1. Maudit: raytracing podporuje 21 her při vydání Turingu, realita: her je 11 a zdaleka ne při vydání
2. Maudit: Turing bude o 80-200% výkonnější než Pascal, realita: 35-45%
3. Maudit: Raytracing zrychlí hry, protože RT jádra odlehčí shaderům, realita: RT hry běží na 2080Ti 40 fps ve FHD "
ad 1) Nvidia uvedla podporu RTX u 21 her. Az pozdeji to pak upresnili a rozdelili na hry podporujici raytracing, DLSS a raytracing+DLSS. Btw, od te doby tech her pry pribylo - tusim 9 her s podporou DLSS a 1-2 hry s raytracingem. Ale to muze byt jen nejaky dohad, jako fakt to nepredkladam, to pro jistotu rikam dopredu. Zname se zejo ;) Moc dobre vime, ze ti slova jako "mozna", "pry", "mohlo by" nic nerikaji a vykladas si je jako "urcite", "je to fakt", a "na 100% bude".
ad 2) Turing je na 200% vykonu Pascalu. Ze si jaksi zamlcel a snazis se bagatelizovat DLSS jako neco, co se nepocita, jen ukazuje tvoje selektivni vnimani reality. Zaklad jsem tusim rikal 50%, ne 80%, ale to je fuk. Kazdopadne nejake vysledky, ukazujici 50-60% narust jsou uz k mani, takze klidne muzes zacit s tvymi klasickymi vymluvami, viz.:
https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled
ad 3) Ty snad mas nekde nejake finalni vysledky raytracingu? Zatim nikdo nepredvedl nic jineho, nez early alpha verze bez optimalizaci :) A co treba vzit jako priklad Enlisted, bezici na Vulkanu ve 4k s raytracingem pri ~120 fps? https://www.youtube.com/watch?v=ZnQRzLZ5nEE
Ale to se ti samozrejme nehodi co? :)
Taky koukam, ze jsi porad urazenej, od ty doby, co jsem ti na prikladech ukazal tvuj neurotismus a snazis se sem ted davat nejaky linky o fanatismu :D Cute, ale neni to originalni. Navic to ten tvuj neurotismus jen prohloubi. Mel by sis na to davat pozor :)
edit: Z toho prikladu mi vypadla prvni veta, kde se rika, ze ta vetsi sit je soucasti DLSS 2x:
"In addition to the DLSS capability described above, which is the standard DLSS mode, we provide a second mode, called DLSS 2X. In this case, DLSS input is rendered at the final target resolution and then combined by a larger DLSS network "
@Maudit:
Tie „similar capabilities“ sa podľa mňa dajú rôzne vyložiť, ale to čo si k tomu písal dáva zmysel. Nevšimol som si, že ide o temporal dnn. Čo sa týka vrstiev a teda vstupná, skryté a výstupná vrstva, tie sa nepoužívajú iba pri učení? Využívajú sa aj pri predikcii? Zatiaľ sa učím iba základy machine learningu. K deep learningu som sa ešte nedostal, tak ma to zaujíma.
Nechcem pridávať na nervozite v tomto vlákne, tak budem písať iba o technickej stránke DLSS ako ju chápem ja z toho čo je napísane vo white papers k architektúre Turing. Rád by som bol keby sme sa bavili iba o tom. Podľa mňa NVIDIA robí nasledovné (ak sa v niečom mýlim, tak ma prosím opravte):
1) Vyrenderujú X obrázkov vo vysokej kvalite, ktoré sa stanú cielmi, aké má dosiahnuť deep learning algoritmus. Hovoria o tisíckach obrázkov, ktoré sa na tento účel použijú. Tieto obrazky sa zrejme nie real-time (možno na nejakom superpočítači áno) a sú vyrenderované so 64 násobným supersamplingom. Ten chápem tak, že jeden pixel je rozdelený na 8*8 subpixelov, ktoré sa následne použijú na získanie výslednej farby pixelu.
2) Potom vyrenderujú tie isté obrázky ale bez supersamplingu. Tie budú slúžiť ako vstup pre tento algoritmus.
3) Začnú trénovať DLSS algoritmus tak, že ako vstup mu dajú obrázky vyrenderované bez supersamplingu a on na ich základe sa snaží vygenerovať obrázok v kvalite, ktorá je čo najvernejšia k nim prislúchajúcim obrázkom so 64xSS. Výstup algoritmu sa porovná so skutočným 64xSS obrázkom a ak nie sú rovnaké, upravia sa váhy algoritmu tak, aby sa znížila vypočítaná rozdielnosť medzi posledným výstupom algoritmu a cielovým obrázkom. Keďže hovoria, že využívajú "raw pixels", tak počítam s tým, že pri učení zoberú farebné zložky každého pixelu, urobia lineárnu kombináciu týchto zložiek použitím ich váh a na základe výsledku vyhodnotia, ako veľmi sa líšia od cielového obrázku. Na základe vypočítanej odchýlky sa vypočítajú nové váhy tak, aby sa cost funkcia (ktorá je použitá na meranie odchýlok) priblížila k svojmu minimu. V ďalšom kroku sa zopakuje to isté s novými váhami. Táto moja predstava je v rozpore s tým čo píše Maudit ohľadom toho, že by algoritmus mal učiť klasifikovať objekty na obrázku a na základe nich upravovať výsledok. Sú aj takéto klasifikačné postupy, ale v materiáloch od NV sa píše toto:
"In this case, the goal would be to combine rendered images, based on looking at raw pixels, to produce a high-quality result—a different objective but using similar capabilities."
Takže pozerajú sa na raw pixels a nepíšu, že by hľadali objekty v týchto obrázkoch. Skôr sa snažia napodobiť čo najvernejšie tie obrázky, ktoré sú vyrenderované s vysokým supersamplingom.
4) Výstupom algoritmu sú potom naučené váhy jednotlivých farebných zložiek, ktoré sa potom použijú na rekonštrukciu obrázku vo vyššom rozlíšení.
5) Takto pripravená skupina váh sa potom môže využiť dvomi spôsobmi
a) DLSS - vyrenderuje sa obrázok v nižšom rozlíšení a váhy sa použijú na rekonštrukciu obrázku vo vyššom rozlíšení (napríklad sa vyrenderuje v 2K a dopočíta sa obraz pre 4K). Keďže sa nerobí iba klasický rovnaký filter na obrázku ako pri iných formách post-procesingových AA, tak by mal výsledný obrázok obsahovať menej artefaktov a menej blur-u. Dopočítané pixely vo vyššom rozlíšení sa proste vypočítajú ako lineárna kombinácia tých pixelov z ich okolia, ktoré poznáme a k nim prislúchajúcich váh (tým pádom by táto lineárna kombinácia nebola fixná, čo by malo zlepšiť výsledok).
b) DLSS 2X - obrázok sa vyrenderuje v nastavenom rozlíšení (a teda nie v menšom ako pri 1xDLSS). Z neho sa potom zrekonštruuje obrázok, ktorý by mal zodpovedať rovnakému obrázku ale vyrenderovanému so 64 násobným supersamplingom. To dnes nie je v žiadnom prípade možné robiť v reálnom čase.
Mne z toho vychádza, že DLSS je inteligentný upscaler, ktorý sa snaží čo najvernejšie zrekonštruovať obrázok vo vyššom rozlíšení, ktorý sa má zobraziť ako výsledok. Otázne je, či sa obidva horeuvedené módy budú používať vždy, alebo sa použije iba štandardný DLSS a DLSS 2X bude iba niekde.
@mareknr
Je potreba ten odstavec uvest celej, aby bylo videt, k cemu se ty "similar capabilities" vztahujou:
"Deep learning has now achieved super-human ability to recognize dogs, cats, birds etc., from looking at the raw pixels in an image. In this case, the goal would be to combine rendered images, based on looking at raw pixels, to produce a high-quality result—a different objective but using similar capabilities."
Ty "similar capabilities" jsou presne to rozpoznavani - dokonce to tam i uvadeji. Jen misto psu rozpoznavaji hrany, objekty, vzory, atd.. A jeste jedna podstatna vec - je to temporal dnn, takze ta sit si pamatuje i informace z predchozich snimku.
ad 5) To je skoro spravne, ale neprovadi se tam zadne dopocitavani. DNN maji takzvany input layer a output layer a mezi nimi jsou hidden layers.
DLSS bude mit rekneme 2k input a 4k ouput layer, DLSS 2x bude mit 4k input a 4k output layer. Vysledna data se ctou uz primo z output layeru.
" In this case, DLSS input is rendered at the final target resolution and then combined by a larger DLSS network".
Neboli presne jak rika Huang v keynote, co jsem postnul, ta DNN se nauci pochopit, co je ve scene a uz primo vi, jaky pixel ma jit na dane misto.
„It can then generate pixels in has never seen before, pixels that make sense to go there."
Pouzivaji se pri uceni a i k inferenci. Uceni pomoci backpropagation nastavuje vahu spojeni neuronu mezi vrstvami v rezimu kazdy s kazdym mezi dvema vrstvami. Ta naucena vaha kazdeho spojeni se pak pouziva k lepsimu vyhodnoceni vstupu.
Samotny proces uceni bere vstupy a prozene je siti, zpatky se pak vraci informace o tom, jak dobre/spatne se vystup trefil.
"Backpropagation is a method used in artificial neural networks to calculate a gradient that is needed in the calculation of the weights to be used in the network.[1] It is commonly used to train deep neural networks,[2] a term referring to neural networks with more than one hidden layer.[3]"
https://en.wikipedia.org/wiki/Backpropagation
Maudite
1. Mluvil jsi čistě o RT, nemíchej do toho žádné RTX, https://www.cnews.cz/nvidia-turing-geforce-rtx-odhaleni#comment-192673
lhal jsi, nebo jsi skočil NV na špek, to je celkem fuk, prostě jsi trouba co žere marketing a nepoužívá mozek :D
2. "Turing je na 200% vykonu Pascalu" :D :D :D Magooor. :D
Neříkal jsi žádný základ 50%, tvrdil jsi 80%, aspoň tu nelži, když je to lehce dohledatelné :D
3. Raytracing: To, že RT bude mít brutální hit na výkon ve hrách je snad zřejmé z vyjádření tvůrců na jaké fps míří. BF5 míří na 60FPS FHD, ale sníží úroveň RT, takže na kvalitu z ukázky můžeme zapomenout. Metro se pokusí o 60 fps ve FHD. Vše na kartě za 30+ litrů. Ale Maudit sní dál, že RT zvýší výkon ve hrách. :D :D Si z tebe snad cvrknu to textilu. :D
Nejlepší je, jak neustále argumentuješ zdroji z marketingu výrobce. :D Prostě ovce.