Při klikání na tento článek jsem čekal i nějaký nástřel prvních procáků a vono nic. Tak jako co to je ? Ale co se vzrušuju, AMD rok před uvedením svých produktů vždy začíná s masírkou jak to bude skvělé, 2,5x lepší než něco a 3,489x lepší než tamto, s úžasnými parametry. Takže nezájem, nekoupím si to dokud neuvidím finální reálný produkt a porovnání s reálným produktem konkurence.
Intel svoj ambiciozny 10nm pochoval a miesto neho pracuje na menej pokrocilom 10nm procese ktory nebude tak daleko ako mal byt...takze 10nm TSMC=10nm Intel podla mna...je to tazke odhadnut, pretoze 10nm Intel este nema (nepocitam tych par kusov ako vzorky s 2Ghz, to bolo srandovne PR) a preto si myslim ze 7nm urcite nebude horsi ako 10nm Intel proces...prinajhorsom bude rovnaky
Velmi, velmi zajímavý koncept. Něco podobné už řeší ARM s pomalými/rychlými jádry, asi to bude budoucnost. Navíc to klidně umožní přidání specializovaných jednoúčelových jader předpokládám.
Druhá věc je cena 7 nm procesu, na to už mnozí upozorňovali při velmi optimistických předpovědích ohledně GPU. To může být velmi omezující u budoucích produktů na tomto procesu.
Už se perou, už se perou …
Fascinuje mne jak jsou oba dva tábory (Amd proti Intelu) nesmiřitelný.
Uvědomte si však, že všechny ty firmy na zákazníka "kašlou", oni mají závazky pouze vůči svým akcionářům. A aby jich dosáhli tak mohou pouze tak, že zákazníka maximálně odrbají.
Samozřejmě čím větší zákazník (HP, DELL, Lenovo apod.) tím lepší podmínky. Nicméně co se týče "koncáků", tzn. nás, co odebírají jednotky kusů ročně, žádná ze značek šetřit nebude.
To že AMD má nyní, možná, příznivější cenu nepřikládejte tomu, že by byla sociálně uvědomělá, ale potřebují tržní podíl, tak ho vymění za trochu nižší cenu. Jakmile by však věděli, že mají srovnatelný produkt, "napálí" cenu stejnou jako Intel.
Proč? Protože všichni chodíme do práce za peníze a každý potřebuje peníze na výplaty a splátky za výrobu atd.
Ja neviem žeby niekto hovoril že intel je pomalši ako AMD čo viem tak každy nadava na ceny intelu. Ver že keby cena bola rovnaka napriklad ZEN 1700 8jadier 16 vlakien otvoreny nasobič stoji 200€, keby aj i9 9900K 8jadier 16 vlakien a otvoreni nasobič stal rovnako 200€, malo zakaznikov by sa rozhodlo pre AMD :D
"Estimated increase in instructions per cycle (IPC) is based on AMD internal testing for "Zen 2" across microbenchmarks, measured at 4.53 IPC for DKERN +RSA compared to prior "Zen 1" generation CPU (measured at 3.5 IPC for DKERN + RSA) using combined floating point and integer benchmarks. "
To vypada na to fullspeed AVX, ne?
Crho ved v tom članku maš všetko, treba čitať medzi riadkami. AMD slubilo 64 jadrovi CPU a nevedelo sa či ostane na 8 pre čip alebo pôjde na 12 či az 16 jadier na čip. V članu maš že pod pliešok bude schovavať až 9 kusky kremika to znamena že 8 jadier ostane i u Zen 2. Druha vec je že zvyši vykon na čip o papierovich 25% s toho 12% sa počita na zlepšenie architektury a zvyšne % su od zvyšenia taktov.
Prve vzorky boli vyrobene už v Juny Zen 2 ladi sa vyrobny proces a ovladače. Čaka sa na linku kedy bude volna pre masovu vyrobu. Problem je v tom že na tu linku čaka dalšich 10 firiem :) v zime sa ma spustiť masova vyroba 5nm tam prejdu velky hrači a uvolni sa miesto pre malich hračov ako je AMD Nvidia IBM Qualcom....
Myslieť si že CPU su vyrobene mesiac pred vidanim je vtipne, napriklad AMD ma už funkčne vzorky GPU i Zen3 čo ma prisť na trh v 2020.
Jo, jeden z těch 8jádrových čipů je samozřejmě monolitický kus křemíku. Ale předtím to byl taky monolit. CCX byla jenom stavební jednotka na úrovni návrhu, podobně jako třeba u Bulldozeru až Excavatoru byl základ dvoujádrovej modul a u Jaguaru čtyřjádrový blok. Ale čip to byl jeden a propojení takových bloků v jednom křemíku by mělo být mnohem méně náročné/problematické, než když mají každý svůj kus a propojení musí jít ven externím rozhraním a přes substrát.
Souhlas... a i přesto je pro spoustu fanatiků hlavní argument cena - a z té přece jasně plyne, že ten zlý je Intel, a jediné hodné je AMD. Přitom, pokud by karty byly rozdány obráceně, bude předražené zrovna tak AMD a Intel bude dotahovat chybějící podíl na trhu cenou. Podívejte se na Apple, jestli je Intel kvůli cenám zlo, pak Apple je megazlo. A kolik si vychoval věrných oveček, co zaplatí desetinásobky výrobních nákladů...
To neni jedina vada clanku. Ten bias je mnohem horsi:
- AMD uvede architekturu, kterou jeste nikdo poradne neotestoval, s mensimi dilcimi zmenami, ale tady samorejme nekriticky v nadpisu "velka zlepseni architektury"
- Nvidia uvede nove grafiky se zcela novymi schopnostmi, ktere v consumer segmentu nikdy v pouzitelnem meritku nebyly, stejne jako Zen nebyly otestivane, a Olsan samozrejme vypustil hned nekolik clanku, jak to urcite nebude fungovat a zcela vyfabulovana vysvetleni
- Nvidia tvrdi, ze poruchovost RTX 2080 Ti nijak nevybocuje z normalu, tady se vydava varovani pred nakupem Founders Edice
LOL. Autor ma lidi vazne za blbce ????
Pozor na to "microbenchmarks". To jsou takové části programů, kde právě většinou naměříte často velký nárůst, protože to měří jenom nějaký konkrétní aspekt, třeba jako to 256bitové SIMD, ale neprojevují se tam obvyklé překážky ve zvyšování výkonu, typické v reálných programech (jako čekání na data, paměť, škálování etc).
Takže to může být trošku jako syntetické testy.
Ježkovy zraky...
Jenom to 256bitové AVX2 určitě znamená hodně velkou změnu (k lepšímu samozřejmě),t takže nevidím problém.
A to s Nvidií si holt fabuluješ no... fungování DLSS jsem na rozdíl od tebe odhadl docela přesně, na rozdíl od fantazií některejch lidí.
Nechceš si založit nějakou vlastní stránku, kde budeš tu alternativní pravdu publikovat, ať tady nezapadne v diskusích? :)
Problem je v tom že realne v plnej zaťaži i9 9900K spotrebuje 230W a pri nastaveni všetkych jadier na 5GHz to lezie cez 300W. Lenže na krabičke ma intel napisane 95W. Teraz každemu zakaznikovi treba vysvetlovať prečo mu nestači vzduchom chcladeni chladič za 20€ ale potrebuje vodnika, alebo prečo mu k tomu CPU nestači 400W zdroj ale 700W+
Je pravda že po undervoltingu a na 3,6GHz je i9 9900K uspornejšia, ale kazdemu je nad slnko jasne že na tejto frekvencii tento CPU nikdy nepôjde.
http://www.tsmc.com/english/dedicatedFoundry/technology/5nm.htm
Veď to nieje nič tajne ak nevieš po anglicky tak si to prelož v translatore, tie informacie su dostupne verejosti. Linky 7nm bežia od maja na plny vykon. 5nm sa ladi a pripravuje do plnej prevacky na buduci rok.
Nejsem to ja, kdo pouziva alternativni fakta.
"Jan Olšan 17.9.2018 at 15:13"
"Co vidíš, je prostě efekt toho, že DLSS pracuje jako spatial filtr, jen s jedním obrázkem. Protože nefunguje temporálně (s více snímky)"
https://www.cnews.cz/nvidia-dlss-deep-learning-supersampling-upscaling-princip-fungovani/#comment-194887
Dodnes (a uz jsem o to zadal nekolikrat) jsi nedolozil zadny zdroj, kde by tohle bylo napsane. Existuje ale cela rada zdroju, vcetne samotne prezentaci architektury Turing Jensenem Huangem, kde se jasne mluvi o temporalni DNN.
"Network has to remember part of the past."
"Network has to be temporaly stable."
https://youtu.be/Mrixi27G9yM?t=52m35s
Stejne jako tvoje tvrzeni o jakemsi "spatial filtru" je "alternativni pravda". Renomovani revieweri, kteri meli pristup primo k review guide, mluvi jasne o rozpoznavani objektu ve scene, stejne jako Huang:
"For each DLSS game, NVIDIA receives early builds from game developers and trains that neural network to recognize common forms and shapes of the models, textures, and terrain to build a 'ground truth' database that is distributed through Game Ready driver updates."
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Founders_Edition/38.html
Cely tvuj clanek o DLSS je vymysl. Ja jsem fakta a zdroje dodal. Ty jen placas. At si kazdej udela obrazek sam. Je mi jasny, ze te tu vsechny zdejsi AMD paka budou placat po zadech, ale jak ukazala ta nedavna predvolebni studie o nazorovem rozlozeni ve spojenych statech, ta ticha vetsina si bude myslet svoje.
Jinak teda pro přesnost - to 256bitové SIMD je opravdu velká a důležitá změna. Ale na druhou stranu musím dodat, že se netýká obecně všech programů.
Když nějaký program AVX/AVX2 nepoužívá, tak se neprojeví, nebo maximálně jen hodně nepřímo (pokud třeba OS/knihovny/kompilátor používají AVX memcpy a podobně).
Ty změny, které byly prezentované pro frontend, zase tak velké nejsou, to by mohlo být u Intelu v rámci "ticku", nebo by "tick" mohl mít klidně i větší. Viz to Cannon Lake nedávno: https://www.cnews.cz/intel-core-i3-8121u-test-recenze-reddit-vykon-ipc-architektura-10nm-cannon-lake
Takže je otevřená možnost, že na první pohled Zen 2 nebude vypadat moc změněně proti Zenu 1 a ve velkém množství programů třeba nebude mít velký nárůst IPC (třeba jen nevím, ~5 %). A velká zlepšení se objeví jenom v tom HPC, enkódování, multimédiích, renderingu s AVX2 (Blender, C-Ray, ale ne už Cinebench). Pro mě osobně je SIMD dost důležité, takže já osobně bych to pořád považoval za velkou architektonickou změnu (256bit. jednotky jsou už rozhodně "tock"), ale spoustě lidí by to asi přišlo jako málo.
Rozšíření SIMD na 128bitů bylo mimochodem hlavní přínos K10 proti K8. I když tam se dá říct, že dopad v reálu byl vyšší, protože SSE/SSE2 bylo používanější a je obecně aplikovatelnější než AVX/AVX2. A taky K10 přece jen mělo slušně zlepšené IPC i mimo SIMD kód, iirc.
Vtip je v tom, že zákazníkovi běžný chladič stačí, protože ten procesor se mu přizpůsobí. Stejně jako se přizpůsobí tomu výkonnému vodnímu chlazení a pak předvádí tu spotřebu.
Když ty dva konkurenční procáky dáte na 2 GHz, vyhraje na spotřebu Intel, když je dáte na 4 GHz, vyhraje opět Intel. A když je dáte na 5 GHz, vyhraje opět Intel, protože konkurence to nedá. A o tom je přesně to srovnání efektivity. Je smutné, že samo AMD to chápe, ale její fanoušci to nepochopí, ani když jim to samo AMD naservíruje a pořád melou o monstrózní spotřebě Intelu.
Koukám na ten tvůj odkaz zvrchu, zespoda, zboku, zezadu i přes google translátor, pak jsem se ještě několikrát podíval na počítač i na mobil, jestli jsem v pořádku a nebo jestli mi Fallout4 neukradl třeba rok života, nebo tak něco. Nic takového se nestalo a stále jsme v roce 2018 a v tom odkazu vidím spuštění rizikové výroby až v druhé polovině roku 2019.
Už jsem ti dřív říkal, že tomu nerozumíš. Bereš vágní reklamštinu z prezentace, která netvrdila to, co si myslíš/chceš, a z toho uděláš nějakou optimistickou extrapolaci. Ale whitepaper Nvidie tyhle tvoje spekulace vyvrátil. (Že to ignoruješ a preferuješ to svoji spekulaci dál, to je tvoje chyba.)
Jenze 256bit SIMD je neco, co uz tu davno je, dokonce v 512bit sirce u Intel CPU, narozdil od RTX/DLSS, coz je uplne nova a dost prevratna technologie. AMD se jen staci dotahnou konkurenci, ale je sotva na polovine. Presto rozdil ve stylu informovani je naprosto propastny. A mimochodem akcelerace BVH na Turingu pujde pouzit pro spoustu jinych veci, nez jen raytracing. Samozrejme to nejakou dobu bude trvat, nez se dane veci objevi ve hrach.
"Vy jste přesně jeden z těch vylízanců"..jste pobavil holecek..koukam, ze kdyz Vam nekdo skoci do fabulaci, tak se Vam to nelibi. Co kdyby jste zkusil pouzit taky neco jineho, nez jeden nic nerikajici graf...pardon..to by jste ale technicky musel aspo trosku necemu rozument.. jinak by jste nemohl psat takove blaboly typu
"Když ty dva konkurenční procáky dáte na 2 GHz, vyhraje na spotřebu Intel, když je dáte na 4 GHz, vyhraje opět Intel."
Ale jinak pokracujte v krasojizde, aspon je se cemu zasmat..
Kde se ve whitepaperu pise neco o spatial filtru? Kde se tam pise neco o tom, ze to neni temporal DNN? DOKAZ CO RIKAS!
Naopak, jasne se tam pise, ze stejne jako TAA, DLSS kombinuje obraz z vice snimku, ale inteligentneji - cast mezi hvezdickami:
"Finally, Figure 24 illustrates one of the challenging cases for multi frame image enhancement. In this case, a semi-transparent screen floats in front of a background that is moving differently. TAA tends to blindly follow the motion vectors of the moving object, blurring the detail on the screen. DLSS is able to recognize that changes in the scene are more complex and *combines the inputs in a more intelligent way that avoids the blurring issue*."
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf (strana 35 dole)
Opet siris alternativni fakta. Whitepaper nic nevyvratil. Whitepaper naopak potvrzuje moje tvrzeni, stejne jako tvrzeni Jensena Huanga (sefa Nvidie) a mnoha reputable webu (narozdil od cnews.cz, ktery neustale potapis).
Oni tam jasne pisou, ze DLSS kombinuje nekolik predchozich snimku, a podle tebe jde o "tajemne narazky"? Muze nekdo byt vubec ubozejsi? Je to tam napsane zcela natvrdo. Schopnost zjistovat zmeny ve scene - "changes in the scene" - je co jako? Letadlo? Bagr? Orangutan? Ne, je to jasne temporalni sit. Huang o temporalni siti mluvi primo v keynote (viz. link nahore presne na tu cast). Kde jinde jeste, nez primo z ust sefa, zakladatele a majitele Nvidie, by to melo zaznit? Delas ze sebe kaspara.
Koukam, ze reality distortion field jede stejne jako u dalsich AMD fans na plno.
A opakuju, KDE JE NAPSANE, ZE SE NEJEDNA O TEMPORAL DNN? KDE JE NAPSANE, ZE JE TO SPATIAL FILTR? Porad nic? To je tak ubohy ;)
Ne, bavime se tu o zcela odlisne forme informovani, zpusobene tvym neskutecnym pozitivnim biasem vuci AMD, zaroven negativnim vuci Nvidii a Intelu. O daleko vetsich a vyznamejsich zmenach konkurence informujes negativne, o malych (ale nikdo nepopira pozitivnich) zmenach AMD informujes stylem az ujete adorace.
O tom se tu bavime. Uroven ddworldu.
"Jan Olšan 7.11.2018 at 23:39
„Oni tam jasne pisou, ze DLSS kombinuje nekolik predchozich snimku“
Ne. Kde?"
>>
"multi frame image enhancement"
"DLSS is able to recognize that changes in the scene are more complex and combines the inputs in a more intelligent way that avoids the blurring issue"
Tvoje tvrzeni naopak bylo, ze DLSS NENI TEMPORALNI, ZE JE TO SPATIAL FILTR. Kde to je napsane? Cim hodlas to tvoje tvrzeni podlozit? Dukazni bremeno lezi na predkladateli. Ja ke svym tvrzenim davam citace a odkazy na zdroje. Ty tu jen placas do vody a vyhybas se odpovedi.
Mam to chapat tak, ze zadna omluva ctenarum za zcela vymysleny clanek a tvrzeni od tebe, jakoze cloveka, ktery se tak rad ohani slovy jako "alternativni fakta" a "uhybanim i okecavanim", neprijde?
Nahypovaný Maudit dostává další facku koukám...
https://bit.ly/2T3Dffx
Ale podle toho co předvádí dál je evidentně splachovací...
Mno já si myslím že má s Tebou Jan Olšan neskutečnou trpělivost Maudite :-)
Napsal to naprosto přesně... jedeš ve stylu jedna paní povídala.. Něco si přečteš ne celé... přikrášlíš si to a pak to tlačíš hlava ne hlava...
A hlavně kdokoli s Tebou byť jen trošku nesouhlasí, tak je AMD fanatik... :-D Jak jsem psal nálepkování je snadné ale přichází ve chvíli kdy selže inteligence a dotyční si myslí, že tím vlastně vše vyřeší...
Zopakuji na české scéně Ti zbyl jen 1 WEB, který je na úrovni DDW. To nebude asi tím, že by se všichni spikli a byli AMD fanatici nemyslíš??? PCT je stejná mince jen druhá strana DDW (abych PCT úplně nekřivdil, tak je všichni redaktoři tam takoví jsou)... No a pak tu máš EHW, SHW kteří jsou neutrální. Diit je sice nakloněn AMD, ale zdaleka ne tak jak jsou vyhranění první jmenovaní... Vždy mě rozesměje jak Ty a Tobě podobní se mě snaží umlčet tím, že jsem AMD fanatik :-D
Závěrem s rozumnými lidmi se dá rozumně komunikovat, ale jinak stále platí to pořekadlo že nejhorší je srážka s blbcem...
Na Intel se ten kód v AVX/AVX2 obvykle psal, ladil/profiloval a asi se na tom moc nezmění, takže i z tohoto důvodu pravděpodobně bude mít lepší přínosy z AVX/AVX2 Intel. Když něco programátor napíše neoptimálně pro Intel, tak při ladění na to přijde a změní to/opraví. Pokud tam nějaká nuance nebude sedět AMD (které třeba má jiné latence/propustnost u některých instrukcí nebo jiné bottlenecky), tak na to nepřijde.
Zjednodušeně řečeno, ten kód se obvykle samovolně "vytrénuje" na to, aby to sedělo Intelu (a pak záleží na tom, jestli taková podoba kódu sedí i AMD). Respektive, při tom psaní se to takhle přizpůsobí tehdy používané architektuře. Klidně se může stát, že o generaci dvě později ji Intel změní a pak už to pro novější CPU optimální být nemusí. IIRC například v Sandy Bridge se snížil výkon shuffle instrukcí, takže je klidně možné, že třeba některý asemblér počítající s vlastnostmi Nehalemu by pro Sandy Bridge byl ideální v jiné podobě.
Maudite
Dle Tveho lhani a povykovani to uz tu melo dano byt vsichni sme meli cumet preci...
Tu nejde o nVidii Tu jde o Tebe tos jeste nepochopil :-) Ostatne jako dalsi veci nechapes :-)
Ale to je v poradku Ty uz jsi takovy :-) Musime Te takoveho brat :-) Jen Te musime krotit v tech Tvych nesmyslech :-)
Co se tyce nVidie tak jsem rad ze s prvnimi pokusy a krucky k RT prisla.
Jo pan to tam nevidi? Zajimave. Dal jsem tam cislo strany i kde presne to na te strane je:
"Maudit 7.11.2018 at 22:11"
„Finally, Figure 24 illustrates one of the challenging cases for multi frame image enhancement. In this case, a semi-transparent screen floats in front of a background that is moving differently. TAA tends to blindly follow the motion vectors of the moving object, blurring the detail on the screen. DLSS is able to recognize that changes in the scene are more complex and *combines the inputs in a more intelligent way that avoids the blurring issue*.“
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf (strana 35 dole)
A je to bez te pomlcky mezi "multi" a "frame". Vyhledavani krasne funguje. Delame blbyho? Nevidim neslysim? :D
A kdyby to nestacilo:
"DLSS leverages a deep neural network to extract multidimensional features of the rendered scene and intelligently combine details from multiple frames to construct a high-quality final image."
https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/
Je vazne legracni, ze tu cast, ktera celou tu tvoji "konstrukci" totalne neguje, se ti jaksi zahadne nepovedlo najit :D
Za dalsi, od kdy absence neceho dokazuje opak? Zase tu zkousis logicke klamy typu: "protoze nelze dokazat, ze Buh neexistuje, tak musi jasne existovat"? To je non sequitur. Takova prasarnicka od naseho kristalove cistyho Oslana? O to horsi pro tebe je, ze de facto nejvyssi zastupce Nvidie o rozpoznavani objektu mluvi. A neni nic divneho, ze ta DNN neni ve whitepaperu vice popsana. Velmi pravdepodobne by totiz sama vydala na cely samostatny whitepaper. A zaroven je to konkurencni vyhoda. Neni tam ani jeji priblizna konfigurace.
Ta informace o rozpoznavani detailu ale k dispozici je, jak z keynote sefa Nvidie, tak v dalsich prezentacich. DLSS je convolutional autoencoder. Viz treba zde: https://youtu.be/QLMDX56-GSU?t=338
Autoencodery ve zpracovani obrazu se uci rozpoznavat objekty ve zdroji.
"Some architectures use stacked sparse autoencoder layers for image recognition. The first autoencoder might learn to encode easy features like corners, the second to analyze the first layer's output and then encode less local features like the tip of a nose, the third might encode a whole nose, etc., until the final autoencoder encodes the whole image into a code that matches (for example) the concept of 'cat'."
https://en.wikipedia.org/wiki/Autoencoder
Doslova - prvni layer autoencoderu se nauci rozponat hranu, dalsi spicku nosu, dalsi cely nos .. az na konci pozna, ze je na obraze kocka.
Takze abych to shrnul:
Ja jsem dodal odkazy na vyjadreni nekolika lidi primo z Nvidie, odkaz na jejich whitepaper, coz oboji potvrzuje, ze je ta DNN temporalni. Ono taky jak jinak chces sledovat "zmeny v obraze" - "DLSS is able to recognize that changes in the scene are more complex" - bez znalosti predchoziho stavu? ;) Dal jsem sem i odkaz s jasnym vysvetlenim, ze autoencoder pri rozpoznavani obrazu identifikuje detaily. Linknul jsem i vysvetleni z TechPowerUpu o tom samem, ktere je jasne popira, co tvrdis ty.
Ty zatim nic, stale cekam, kde je napsano cokoliv o tom, ze DLSS je spatial filtr a vyslovne napsano, ze tvrzeni Huanga na keynote o temporal DNN je nepravdive.
Novinarska etika se asi nekam vytratila. Porad nam tu budes okecavat tvoje totalni novinarske selhani. Tvoje reci o vykrucovani, uhybani a alternativnich faktech asi rad aplikujes jen na ostani, na tebe ne, vid? Double standard, hezky ..
Chytáš se slovíček jak kdysi divák/posluchač za komunistů :) ... Kdyby to byl temporální filter a pracoval s objekty ve scéně, tak to tam bude řečené natvrdo, a ne v jinotajích mezi řádky a tajemných narážkách. Tohle není hermetická mystika. Když to člověk poctivě přečte celý a zanalyzuje, tak to prostě popisuje spatial filtr pracující na úrovni pixelů. Jestli tam někdo čte něco jinýho, tak je porucha na jeho přijímači.
A já ti říkám už snad podesátý, že to chápeš špatně. Tyhle řeči o rozpoznávání objektů jsou abstraktní hodně za vlasy přitažená omáčka, reálně to ta neuronální síť nedělá, prostě jen vezme pixely, upraví je podle svých natrénovaných vah. Tam, kde jsou hrany, je natrénovaná je přiostřit vyšším konstrastem, například. Učí se interpolovat nějaké obecně typické "vzory" textur tak, aby se trošku podobaly, ale to je hrozně těžké, protože ztracenou informaci nelze vrátit*. Toť realita za tím slavným "rozpoznávání objektů." Holt marketing zveličuje no, a ovce to spásá :)
(*proč? Protože když snížíte rozlišení nějakých vzorů na textuře, tak mnoho různých původních vzorů vypadá nakonec po downscalingu podobně, a pro neuronovou síť je obtížné v takovém případě rozhodnout, který originál za tím blurem v nižším rozlišení je - tudíž vám dá nějakou třeba přiostřenou aproximaci, která je spíš průměr různých možných vzorů, než ten správný vzor. V tomhle případě je problém o něco méně těžký, protože se pracuje s menší množinou textur ze hry než kdyby to byly úplně jakákoliv obrazová data, ale pořád jich bude dost na to, aby tenhle efekt byl. Ta Neuronová síť nemůže v sobě zakódovat všechnu informaci, která je potřeba k zrekonstruování detailů z původního rozlišení.)
Takže z wihtepaperu:
"Next, we start training the DLSS network to match the 64xSS output frames, by going through each input, asking DLSS to produce an output, measuring the difference between its output and the 64xSS target, and adjusting the weights in the network based on the differences, through a process called back propagation."
Všimni si, že se mluví o snímcích, nic o geometrii/objektech ve scéně.
"In this case, the goal would be to combine rendered images, based on looking at raw pixels, to produce a high-quality result—a different objective but using similar capabilities"
DLSS pracuje s jedním jediným framem. A pracuje na bázi pixelů. Temporální opravdu není. V tom whitepaperu není nic co by potvrzovalo ty tvoje povídačky, schválně jsem se znova podíval a zase tím ztrácel čas (už snad po pátý, protože je tu někdo totální magor a já si mám tendenci nedůvěřovat). Už mě fakt nebaví, že pořád musím odpovídat na pindy fanatika (většího jsem tu asi nezažil), kterej buď vůbec neví, která bije, nebo to vědět nechce.
Ten tvůj "multi-frame image enhancement" tam ve whitepaperu pomocí ctrl-f nikde nevidím.