No, celkom "triezvy" výkon, žiadna bomba ale myslím ani sklamanie...
...v testoch nVidie to vyšlo na ako to tak počítam 43% náskok (bez započítania Epic Infiltrator) 2080ky oproti GTX1080ke, nesporne si vybrali tie "správne" hry kde je ten nárast čo najvačší, ergo po odpočítaní tak 5 až 10% vo väčšom merítku hier sa dostávame na +/- 35% náskok čo nás dostáva na úroveň GTX1080Ti resp. nech do 5% náskoku v prospech RTX2080.
V 4k samozrejme ale úprimne, pri RTX2080ka to už je proste čistá 4k karta resp. na nejaké 165Hz 2560x1440 hranie - nič menej nepripadá v úvahu...
btw. a podľa tejto logiky by sa myslím mohla RTX2070 vyrovnať GTX1080 že ano...
Ja to pridam radsi I sem, protoze ocividne ani Jan Olsan netusi, co je DLSS a jak funguje. Rozhodne to neni upscaling. DLSS usetri spoustu vykonu ne tim, ze by se renderovalo v mensim rozliseni a pak upscalovalo, ale tim, ze samplovani, ktere by se normalne delalo na CUDA cores a dalsich castech GPU, se presunulo na TensorCores. Proto se GPU tak ulehci a proto jsou ty karty o tolik rychlejsi. Tak si to v clanku prosim opravte a doporucuju si poradne poslechnout ty pasaze z keynote, ktere tady repostnu:
"To je tak hezky, jak Aznoh zmatene mumla, kdyz zjistil, ze DLSS je supersampling, coz je presny opak upscalingu. LOL. A prej ze pracuje se SS? Tak podle projevu bych toho cloveka nepustil ani k soustruhu, natoz k cemukoliv technickymu.
Mimochodem, to rika Huang si ocividne nepochopil. Bohuzel ani Jan Olsan ne, coz me trochu prekvapuje. On mluvi o tom, ze muze vylepsit obrazek s nizsim rozlisenim tim, ze neuralni sit vytrenuje na obrazcich s vyssim rozlisenim. Ale to vubec nemluvi o upscalingu. Naopak, je to prave supersampling. Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.
Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu – vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL).
O tom trenovani na superresolution obrazcich mluvi tady. A ten vyraz „lower resolution“ znamena samozrejme „lower than superresolution“ (radsi predchazim dalsim stupidnim dotazum a komentum). Jasne tam rika, jak tu dnn trenuji v datacentrech.
https://youtu.be/IG2wVjQUr3c?t=2h18m
Muzes [Aznohu] byt dal za blbce a tvrdit, ze to je upscaling (nic proti tomu, je to sranda), ale neni to upscaling. Ty antialiased obrazky jsou renderovane nativne ve 4k, ale vyhlazovane jsou skoro jako kdybys na ne pouzil realne supersamply.
Tady dokonce mluvi Huang o tom, co jsem zminil nahore – ze ten anialiasing je pouzity k doplneni informaci chybejicich z raytracingu (diku cemuz muzou dramaticky omezit pocet potrebnych paprsku):
„[…] or sometimes the image is not even complete with raytracing […]“
https://youtu.be/IG2wVjQUr3c?t=2h22m28s
Pro dnesek koncim. Za takovyhle vzdelavani si normalne necham platit. Tak dneska pro vas zdarma."
Pokud jsem prijal rovnici Vega = fail, tak proste musim byt spravedlivy a prijmout ted stejnou rovnici Turing = fail.
Kdyz porovnam pomer vykon/cena, tak narust vykonu pri stejne cene je +5%.
To je jako totalni vysmech, to at si NVidia necha od cesty.
Sorry ale jako na DLSS jsem asi tak stejne zvedavej jako na RT, respektive u toho RT aspon vim, ze ikdyz ted je to o nicem, tak za tri roky to muze bejt paradni, protoze treba uz prvni generace 7nm to treba uz vykonove utahne. Naproti DLSS je dalsi ochcavka o nicem.
Když si řeknu, že 2080 má 15% více CUDA a o 27% rychlejší propustnost paměti, tak mi to příjde jako super výsledek. Ale vyšší cena je prostě znát. Podle mě to udělali proto, aby stále mohli prodávat 10xx řadu za stejný peníz a mohli tak vyprodat sklady za stále stejný zisk.
Ale zase chápu cenu 2080Ti. Přeci jen ten čip je skoro dvojnásobné velikosti a to musí jít na výrobě znát.
Každopádně jsem zvědavý, co udělá AMD. Vegu určitě podle mě nezlevní. Na výrobu je až moc drahá. Myslím si, že jí zruší kompletně, zvlášť teď, ,když budou potřebovat HBM na 7nm Vegu. Myslím si, že právě 580 půjde o tu stovku níže. Jsem zvědavý no. :)
Maly souhrn ke grafum Nvidie:
- DLSS (Super Sampling = mene kvalitni obraz) musi byt implementovano vyvojari her! Jinak nefunguje! Podobna situace jako s FP16 u AMD VEGA = vice vykonu ale bez implementace vyvojari her nefunkcni.
- EPIC neni hra ani benchmark
- Nektere tyto hry jeste ani nevysly
- Vega ve Wonfsteinovi je plne srovnatelna s RTX2080 FE(OC) za 799 USD
- Porovnavani s 1080 FE se zakladnim chladicem bez OC za 499 USD
- Testovano v HDR kde je 1080 znevyhodnena 10% kvuli pametem. Anavic potrebujete HDR monitor pro pouzivani.
- Cely graf je v 4k coz da 1080 tak maximalne na 30 FPS, tudiz 60 FPS da 2080 jen ve 4 hrach a to jen s DLSS
Pěkné BF1 RT demo https://www.tweaktown.com/news/62907/battlefield-gameplay-video-nvidia-rtx-1080p-60fps/index.html
BF1 raytracing je to jediné, co mě na RT zaujalo. Ta ukázka z Tomb Raidera byla meh, vypadalo to, že s RTX off vypnuli úplně dynamaické stíny těch dětí se svíčkou či čím, aby byl rozdíl větší. BF1 RT vypadá pěkně, pokud vezmeme v potaz, že na implementaci měli extrémně málo času a že raytracing je ve hrách na začátku, je to slibné.
Jen mrzí prezentace opět jen ve FullHD, přitom mistr Maudit se zapřísahal, že RTX naopak hry zrychlí. :D
Vsem, kterym se nezda, ze jsou dnesni grafiky predrazeny, specialne Komplik :)) ... v roce 2007 jsem kupoval ATI HD 3870 za nejakych 7500,-kc. V ty dobe to byl High end, nejvyssi model ATI. Nejrychlejsi karta na thu byla GF 8800 Ultra, cca o 25% jeste rychlejsi.
Ted si to srovnejte s dnesnima cenama, pro jednoduchost, pokud by to byl ekvivalent nove vydane GF 2080..ktera stoji kolik... 22000,-k... coz je temer 3x tolik.
Cili dnesni nejrychlejsi manstramova karta typu 1060 je cenove na urovni highendu z roku 2007...
Nechápu jednu věc, proč socky z Diitu v čele s generálem Tynýtem a jeho pravou rukou Tombinem, kteří si maximálně koupí AMD toaletní papír, což je velmi kvalitní výrobek, který nemá konkurenci. Neušpiní, brousí, sám se zničí, tady otravují normální lidi, kteří mají na to aby si koupili normální výrobky a technologické špičky jiného výrobce.
Moc nerozumím tomu DLSS. Jako, že v NVIDII natrénuje AI nějakou hru, vybleje z toho pár giga nějakejch dat pro tu hru, a ja pak budu hrát v menším rozlišení a tensor core, mi podle těch dat budou rekonstruovat low res render do nějakejch 4K?
Ze začárku jsem to chápal tak, že misto klasickejch jader budou vyhlazovat tensor cores , podle nějakejch natrénovanejch postupů. To mi přišlocelkem logický a šikovný. Ale ten upscale mi přijde nějakej přitaženej za vlasy.
Maudit> Samozrejme sa mýliš. Huang jasne pri prezentovaní DLSS hovorí, že sa trénuje na "super-super high-res obrázkoch" (chápem ako viac než 4k), ale potom, že stačí keď dodáme vytrénovanému systému obrázok s nižším rozlíšením (vyslovene hovorí že napr 1440p) a on nám vyprodukuje "krásny obrázok v 4k".
Pri časti o deme Infiltrator spomínal len že je to "krásna kvalita v 4k", takže v tomto kontexte by som si ten DLSS dovolil nazvať inteligentným upscalingom, hoci sa ti to nemusí páčiť. ;-) Ako to bude v praxi vyzerať, uvidíme neskôr, ale na prezentovaných obrázkoch je jasne vidieť blur na textúrach v porovnaní s 4k TAA, takže za mňa: upscaling ako vyšitý, so stratou detailov ako k tomu patrí, ale ... aspoň hrany sú ostré.
BTW: Neviem prečo ti za taký komentár plný bludov dá niekto "+1". Ak ti niekto za takýto výkon platí tak dobre pre teba, zle pre neho.
Každý si nájde porovnanie podľa toho ako chce, aby mu výsledky sedeli. :-) Podľa mňa sú obe porovnania v poriadku. Jednak s GTX 1080tkou, pretože je to jej priamy nástupca a aj podľa cenovej hladiny, kľudne s GTX 1080 Ti, keďže je tam nasadená. Skôr si ale myslím, že cena Pascal kariet klesne po vydaní 2000kovej rady.
Maudite krásně se ukazuje jak jsi totálně zmatený, ale hlavně hloupý. Poučuješ tu o supersamplingu, jehož princip každý zná. Jediné co ti schází je rozum, kdybys ho měl tak by ti došlo, že ta kilometrová báchorka co jsi tu vyplodil je naprostý blábol. Opravdu ti není divné, že s DLSS má 2080 vyšší výkon než bez? :D (hint, hint)
Mě se opravdu líbí jak si tu fanaticky vymýšlíš věci, všechno si to píšu, časem z toho udělám pěkný příspěvek. :D
Vega skončí v propadlišti dějin jako velký fail, alespoň tedy co se desktopové Vega10 týče. AMD tyhle čipy doprodá spíše jako profi karty s pěknou marží a budeme doufat, že nástupce bude alespoň trochu solidně konkurovat NV.
Co se mobilních verzí týče, tak tak tam si Vegy vedou poměrně slušně. Jak Vega integrovaná v Raven Ridge , tak ještě nevydaná Vega Mobile s HBM. Alespoň v těchto produktech nejde takový propadák jako je desktopová Vega 10. Bohužel, ta nejzajímavější vychytávka Vegy ( Primitive Shader + NGG fast path) není funkční (a podle mě ani nikdy nebude) takže zůstává je schopnost provádět RPM a o něco vyšší základní takty oproti Polarisu.......
Je otázkou jestli Navi v tomto kontextu něco může změnit, páč pořád půjde v základu o letité GCN, takže tam bych moc naděje neupínal a moc budu doufat, že "next gen" GPU vrátí zase RTG zase zpátky do hry.
chuch-in, to chce klid AMD ovečko, dodnes nemá Vega ovladače, které by využili všechen její hardware, nvidia tak má dva roky náskok na to vydat ovladače na kterých budou zapnuté všechny hardwareové prvky... až to bude tak výkon bude možná i trojnásobný. Crha napsal trojnásobný? Vážně? To chce klid, schválně přeháním aby jsi byl psychicky připraven.
DLSS neni upscaling, ale super-sampling.
"Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games."
https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games
Mozstvi AMD fans, kteri jsou ochotni se ztrapnit, jen aby mohli sami sebe obelhat o tom, ze se z Vegy nestal low-end, je az zarazejici. Cekal jsem cokoliv, ale tohle je vetsi sranda, nez jsem si dokazal vubec predstavit ;)
"pokud vezmeme v potaz, že na implementaci měli extrémně málo času"
To je prave vyhoda raytracingu - je jednoduchy na implementaci. Vsechny ty efekty, jako svetlo, stiny, odrazy atd. vychazeji primo ze zakladniho raytracingu. Nemusi se implementovat slozite techniky jako v pripade rasterizace.
Tady preci nejde o to, ze by RT nebyla bomba, ale ze to bude umet BF1 je parada, ale tuhle serii nehraju a nez se to dostane do her, tak tu bude 7nm generace karet.
Dalsi mozna jeste dulezitejsi vec, ze prechod svetlo stin je samo o sobe mnohem hezci na HDR monitoru i v soucasnych hrach, tudiz RT + HDR bude jiste famozni. Ale mam HDR zobrazovadlo? Nemam. A kolik hracu ho ma?
A treti vec, ze to daji jen na fullHD, taky k nicemu, kdyz se lidi posouvaji na QHD nebo UHD.
Takze nejak nechapu tu super vyhodu ted hned. Jenom marketingova masaz. Ze udelala NVidia Quadra pro vyvojare, aby mohli zacit pracovat s RT, to NVidii jiste tleskam, ale ze po mne NVidia chce priplatek nejakych 4.000-5.000 za fycuru, kterou nevyuziju, tak to jako teda ne. To me nastvali.
Maudit – ale ty to máš všechno postavené jenom na domněnce, že když to má v názvu SS, tak to musí být supersampling jako ve smyslu FSAA. Ale to přece vůbec nemusí bejt pravda. "Vzdělávání" musí být založený na něčem víc než na domněnce, respektive v tomhle případě ještě hůř, na chtění, aby něco bylo tak, jak sis to vysnil.
A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.
Ty odlesky ve vode vyapdaji pekne narozdil od blysticich se tanku. To dodava ty hre trochu atmosku navic. Ale vyapda na to poradneho zrouta vykonu, aspon mne pripadalo, ze se jim to v ty ukazce obcas sekalo.
RT fajn jako tech demo, co bude mozny. Realne spis ale spis s pristi a porpistima generacemi karet,
HD3870 byla vyrabena 55 nm procesem. A zlata era levnych karet bohuzel skoncila s prechodem ze 40 nm na 28 nm.
HD6970 na 40 nm stala 369 USD ale nastupce HD7970 na 28 nm stala uz 550 USD. U Nvidie byl prechod na 28 nm prakticky stejny skok.
Takze hlavni pricinou je cena vyrobniho procesu, ktera je porad vyssi a vyssi. Pred 28 nm nebyly ty rozdily v cene procesu tak velike, nebyly takove skoky.
Jestli je to opravdu upscaling, jak si myslím, že je /jak to vypadá, že je, tak je to vcelku jednoduché.
Nvidia má u sebe na serverech nějaké sady obrazových dat z her, na kterých natrénuje algoritmus pro upscaling (trénuje neuronovou síť s požadavkem, aby z nekvalitní verze udělala obrázek s co nejmenším rozdílem třeba v psnr proti kvalitní verzi), který je na principu neuronové sítě. To v principu není nic zvláštního nebo nového, stejně byl vytvořen a funguje třeba filtr NNEDI3 pro aviysynth (který je i v MadVR pro upscaling videa).
K uživateli na počítač se distribuuje jenom vytrénovaná síť, což budou řádově jenom megabajty data. Ten algoritmus/neuronová síť se pak natáhnou do grafické karty při hraní a aplikují se jako filtr na každý snímek.
Natrénované to může být buď obecně na genericky na nějaké sbírce her, ale je tu i možnost, aby Nvidia udělala trénink zvlášť pro jednotlivé hry, třeba významné áčkové tituly. Pak by to u nich mělo mít o něco lepší kvalitu, s trochou štěstí.
Neuronové sítě jsou takové brute-force black-box řešení na podobné problémy a upscaling jim jde relativně dobře, viz to NNEDI3. Takže to bude lepší, než kdyby se škálovalo nějakou běžnou obyčejnou metodou (lanczos, bicubic). Ale rovnocenné s nativním vykreslováním na tom rozlišení to být nemůže z podstaty věci.
No, tak sme si rovný a rovnejší nie + na mňa si netrúfnu čo ti poviem :D
To že 2080=1080Ti som písal už posledné 2-3mesiace, tak mi to vyšlo no - menší rozdiel sa mi videl chabý, väčší - napr. spomínaných 50% PRIEMERNE zase príliš optimistický.
..."se na mě nevím proč vrhne smečka fanatiků" aj by som si tie diskusie prečítal ale hneť 3 diskusie ohľadom nVidie behom 5 dní tu majú 100-101-236 komentov a kto komu čo povedal, no až tak sa vážne nenudím aj keď sú 2 ráno :D
AZNOHU, 45% je blíž 50% než 0-30% které předpovídalí zlé AMD jazyky.
NVIDIA jede a tohle je další facka přes celou hubu pro všechny AMD ovce!
45% je prostě 45%, to je prostě polovina, plus mínus! VE 4K!!!!
Včera AMD ovce psali jak nemůžou hrát na 4K protože málo FPS a teď dostali po čuni! Můžou hrát ve 4K!!!!! Looolllllllllllllllll
SPANILÁ ZLATÁ JÍZDA NVIDIE POKRAČUJE !!! Takhle se to dělá! Hrubý výkon, k tomu ray korantejn (tracing) a jedéééémmmmm.... A né jak pokakaná uškrcená podvoltovaná Vega s 16GB HBM pamětí k ničemu! Nvidii stačí 8GB GDDR6.... lol AMD pojď.... do rakve
Aznohh 23.8.2018 at 1:38 "Jak 35%? Hnízdo tvrdí 50% " Jak se odvazujes pochybovat o slovech vrchniho tydiita? Jasne rika 33-59%, prumerne 47%! Duse hrisna!
ale nenech se omezovat, dle HWcanucks te ceka seredny prekvapeni, tak at to ma grady!
https://uploads.disquscdn.com/images/6232c4d5b5056e06ab6d0b2da729abb11e1fa0b32bc853e7d8db14b6909d5af5.png
Hele, předpokládám od Speedyho lehkou ironii, ale ty jsi teda taky poměrně naivni.. nebo fanatik bez odstupu.
- DLSS - např. na tomto videu ty rozmazané mrakodrapy kvalitně nevypadají https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=8762
(ale nedělám osobně o zatím DLSS závěry, počkám na testy)
- těch dalších x her s 60+ fps nejsou nijak závratně náročné tituly a mnohé umí na 60fps i 1080ka, jo kdyby tam byl Deus Ex: MD nebo Crysis 3, to by bylo jiné kafe
- 4k hry na 100+ fps - víme o nich něco? nebo to byly hw nenáročné tituly typu Overwatch?
Huang tam popisuje ale cely ten NGX framework (je to za nim na slajdu), ne jen DLSS. Spojujes si nesouvisejici veci. On popisuje vsechny moznosti, ktere ten NGX framework ma, doslova rika, ze muze vylepsit:
1) "lower resolution image" - upscaling
2) "lower quality image" - DLSS
3) "sometimes an image not even complete" - raytracing
https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h22m28s
Na domence? :) Huang pomerne jasne popisuje tri ruzne schopnosti NGX.
"Maudit 23.8.2018 at 12:52
Huang tam popisuje ale cely ten NGX framework (je to za nim na slajdu), ne jen DLSS. Spojujes si nesouvisejici veci. On popisuje vsechny moznosti, ktere ten NGX framework ma, doslova rika, ze muze vylepsit:
1) „lower resolution image“ – upscaling
2) „lower quality image“ – DLSS
3) „sometimes an image not even complete“ – raytracing
https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h22m28s
"
tady jasně ukázal jak je tombmimino úplně mimo.
Tady ti posílám z excelu růst kupní síly peněz ~10% ročně.
2007 7500
2008 8250
2009 9075
2010 9982,5
2011 10980,75
2012 12078,825
2013 13286,70
2014 14615,37
2015 16076,91
2016 17684,60
2017 19453,06
2018 21398,37
2019 23538,21
2020 25892,03
Takže letos by za stejně výkonej high-end zaplatil 21.398 na to že je osmej měsíc to krásně sedí na 22.840,-Kč, takže nVidia je ještě o 840kč levnější než ta tvoje AMD tenkrát.... no looooooooooooolllllllllllllllllllllll
No nějak mi nesedí to udělat z 1 pixelu 4 , par megovej neural snapshot podle mne nemá šanci to dopočítat bez nějakýho odpovídajícího katalogu. Něco jinyho je prostě nějakej generickej deinterlacer, kterej ty pixle taky nevykoumá jen to adaptivně dopočítá podle nějakýho statistickýho naučení z různejch variant různě širokýho okolí.
Když použiju mip textur odpovídající 1080 ve 4K , tak je to prostě znát. ALe uvidíme ve výsledku co to opravdu bude a jak to bude fungovat.
Je to zabava Matko ;) Sledovat, kolik redaktoru a diskuteru na tomhle ukazuje, ze jsou vlastne jen copycats, ktere berou texty z bodu A a tupe je prepisuji do bodu B, aniz by chapali, jak dana technologie funguje, to by mi vydrzelo asi na dlouho ;) Skoda, ze neni vic casu. Stach i Soucek (Aznoh) uz ocividne breci nad prezentovanyma benchmarkama, protoze zadna pohroma ve starych hrach se nekona + v novych hrat RT a DLSS .. to musi bejt hodne horka pilule pro ne na sploknuti.
Nevím kdo co předpovídá, já souhlasím s Maťkem. Testy jsou vybrané Nvidií, takže reálné je odečíst pár procent, já psal že nárůst bude 35-40%, což je myslím střízlivý odhad. AMD dělá v testech to stejné, není to nic proti NV. Navíc je třeba si uvědomit, že ta 2080FE je už přetaktovaná. Mě ten nárůst stačí, ale kdybych vydělával jen průměrnou mzdu, tak bych si nákup 2080Ti asi rozmyslel.
Maudit odhadoval 80%, krásně se ukázalo co to je za fanatika. :D
No ono je to pro vetsinu lidi prave ta cena / vykon aneb "pred dvema lety jsem si mohl ze sveho platu dovolit X GK, ktere udelaly praci Y. Pokud bych si kupoval stejny pocet GK nyni, o kolik vice prace GK zvladnou? Nebo, pri stejne praci, o kolik mana zaplatim po dvou letech?". Samozrejme nekdo potrebuje nejnovejsi technologie, na kterych pak vyviji sam, ale to je pak pripad "Potrebuji funkce A a B, ktere GK mi to poskytuje?". Jinymi slovy, pokud jako hrac zaplatim N% sveho platu predtim i ted, mel by tam byt narust vykonu, jinak je to regrese. Pokud srovnavam neumerne ceny, tak bych pak mel i stejnym zpusobem pocitat vykon, tedy ziskat koeficient z podilu cen a tim pak nasobit podil vykonu - srovnavat jablka s jablky.
Hej. Ale kedy nárast výkonu presne zodpovedal nárastu ceny? Aj v iných odvetviach sa to tak robí. Za každý nadštandard či nízke zlepšenie sa doplácajú riadne sumy. Či už sa to týka topánok, bicyklov alebo komponentov PC. Je to jedno. NV vydala prvé GPU s použitelným RT a s podporou využívania výsledkov oboru strojového učenia, tak si za to necháva zaplatiť. Neverím tomu, že by sa také AMD v jej pozícii chovalo inak.
Jeste k tomuhle:
"A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy úloha co přidává čas navíc pro každý zpracovávaný frame, přesto je ale výkon vyšší. Z toho vyplývá že evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení."
Zase ta tvoje omezena logika. To uz vypada na schvalnost - bias AMD fanouska - ale rad se budu plest. Pro pocitani DLSS se vyuzivaji Tensor Cores. Jinymi slovy vykon se setri tim, ze co driv musela pocitac CUDA jadra a zbytek cipu, se ted z vetsi casti vyresi na Tensor Cores, ktere jsou na cipu navic ke CUDA cores. To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores.
Mozna by neskodilo, kdyby sis to dal dohromady s vyjadrenim inzenyra Nvidie o strategii pro Turing na forech 3DCenter (ktere bylo zda se uz odtraneno, puvodni link zde: https://www.forum-3dcenter.org/vbulletin/search.php?searchid=13024487 ), ktery rikal vicemene:
- jeste jsme neukazali vsechny inovace a technologie Turingu
- hrube zvysovani vykonu nema budoucnost, musime na to chytreji (=> offloadovani prace na specializovana jadra - Tensor Cores, RT Cores)
"To je stejny princip jako s RT, kde se vypocty opet presunuly na specializovane (a na danou vec mnohem efektivnejsi) RT cores."
V kontextu toho, že zatím všechna RT dema ukazují jen ve FHD, je to velmi vtipné. :D
Honza na to jde naopak nejjednodušší a nejlogičtější cestou, zatímco Maudit čistě vaří z vody.
Podivej, to je slozity.
Ja cekal na Polaris, pak se ukazalo, ze to nema mnou ocekavany vykon. Tak jsem cekal na Vegu, zblblej fanouskama AMD. Ta neprichazela, tak jsem sel do Pascalu.
Ted zase cekam na Turinga a kdyz konecne vysel, tak se ukazalo, ze stejne jako proklamovana herni Vega je skvela vypocetni karta, ale k nicemu na hry, tak Turing umi raytracing, ale jinak na hry zadnej pokrok.
Ted si prijdu jako blbec, tu hanim OPRAVNENE Vegu a opevovana NVidia mi udela v podstate to same? Ty me tak vytocili, ze si minimalne pockam na Navi, kdyby se to AMD preci jenom povedlo a az potom se rozhodnu, jestli zase na 7nm NVidia nebo AMD.
Vždyť to Huang říká úplně přesně ve videu, ještě jde vidět že mu to neleze moc přes jazyk, že nechce narovinu přiznat, že to DLSS je upscalované z nižšího rozlišení, ale nakonec to řekne, že z 1440p udělá 4K. A to přesně zde: https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=8405
Nechápu, že tu Maudit několik dnů mele kraviny pořád dokola. Nebo takhle.. já to chápu, prostě fanboy, kterej žije absolutně mimo realitu, jen v jeho vlhkých snech. Prakticky všechno co tu Maudit napsal za posledních několik dní a co si navymýšlel se ukázalo, že byl jen jeho výmysl. :D
Se tu trhám smíchy, proto tyhle diskuse miluju, jak se v nich ti největší fanboys (ať už Nvidie nebo AMD) sami znemožní. :D :D :D
No vas AMD nohsledy fakt ne ;) Frustrace je videt na snaze o damage control ze strany AMD fanousku - "raytracing neni o nicem", "DLSS je upscaling" LOL Takovy energie tady v postech :D :D :D :D :D
Nedivim se. AMD jeste ani poradne nerovnala vykon, natoz features jako tile-based rendeding nebo ted novejsi Tensor Cores, a uz tu mame dve nove prevratne technologie, a to dokonce v consumer segmentu, s dost velkou podporou vyvojaru (ve srovnani s mnozstvim podpory pri uvedeni jinych technologii), a to jeste od tech nejvetsich - v BF5, UE4, Metru, Tomb Raideru, ..
Co s tim, co s tim, vid? :D
Obyčenou metodou myslím klasické převzorkování, které má různé artefakty (blur, aliasing, ringing), ale zachovává taky takový celkem přirozený vzhled, nic moc nezkresluje nebo nedeformuje. Takovéhle převzorkování není dneska moc náročné, ale hlavně taky pro něj možná GPU mají i nějaký speciální blok kvůli přehrávání videa.
Cokoliv používající "AI" (tj. ty neuronové sítě) je proti tomu výpočetně o hodně náročnější (počítám, že když se využijí ty tensor jádra, tak by to mohlo být blízké tomu hardwrovému obyčejnému škálování) než běžné převrzorkování. Jako bonus ale je, že takovýhle uspcaler je o dost kreativnější - může ten obraz přiostřovat, odstraňovat ty artefakty z přeškálování a tak podobně. To ale může být i slabina, filtry "vylepšující" obraz se kolikrát zvrhnou a naopak někde věci kazí, zvlášť když je to interpolátor, který se snaží "uhodnout" pixely, které ve vstupu nejsou...
Můžete třeba zkusit tohle, to je taky IIRC takový zvětšovač obrázků na bázi předtrénované neuronové sítě: http://waifu2x.udp.jp/
(Ale samozřejmě natrénovaný pro jiné věci, takže se to bude chovat úplně jinak, než ten filtr Nvidie). Můžete to skusit srovnat s tím, jak vypadá obrázek zvětšený 2X běžnou metodou. Z tohohle wifu2x vyleze něco ostřejšího, vyčištěného, ale také jsou v tom ty menší detaily někdy dost podeformované. Ta neuronová síť prostě dokáže udělat mnohem víc, než jen to obyčejné přeškálování.
NNEDI3 v MadVR iirc až takové psí kusy nedělá, ale třeba u obrázku s trávou se taky může projevit ten sklon k deformování.
Tohle jsi mixoval ty? https://www.youtube.com/watch?v=x3LlCdPMulA
nic proti, na základce ze třiceti děcek bylo 18 cigánských, a nemám problém jít tady po cejlu v noci, ale ten tvůj mix mi trhá uši.
:D právě si vyhrál zaltů cenů dementa roku!
tombomino 23.8.2018 at 22:12:
"Ja myslel, ze kdyz dovazis neco ze zahranici, tak se prepocitava cena dle kurzu plus nejaky koeficient za dph atd.
Co to ma spolecneho s tou tabulkou nechapu. Chces tim snad rict ‚ ze sila dolaru‘ od te doby 3x klesla?"
tombomino 23.8.2018 at 22:08:
"Oprava: jsem se uklikl, dolar stal cca 21kc. Takze vicemene stejne jako dneska.
Cili zaver je uplne stejny. Karty zdrazili, at uz ma na tom podil cokolov"
VÁŠ ŘÁD MÁTE ULOŽEN V ČESTNÉM ALBU PANA CRHY:
https://img29.rajce.idnes.cz/d2901/15/15316/15316299_d908397add4d30b3605a23efc60530cc/images/crha-dementroku.jpg
Ja tu novu radu 2000 nevidim tak ružovo, hlavne ked vidim ceni 2080 okolo 900€, bola by to bomba keby tolko stala 2080Ti lenže ta soji okolo 1300€. Ruku na srdce narast v hrach nebude žiaden zazrak ked porovnam v hrach 1070 oproti 1080Ti je to v priemere len 28% aj ked vypočetny potencial je vačši lenze hry su hry. Aj ked teraz to je velke hipe a marketing, ale ked pride na hry tak GTX1080Ti za 500€ nebude až tak velmi stracať na RTX2080Ti za 1300€...
http://gpu.userbenchmark.com/Compare/Nvidia-GTX-1070-vs-Nvidia-GTX-1080-Ti/3609vs3918
Lool Maudite, tady myslím brečíš jedině ty, který jsi čekal nesmyslné 80% zvýšení výkonu oproti Pascalu. :D :D https://www.cnews.cz/unik-nvidia-geforce-gtx-1180-turing-referencni-pcb-virtuallink/#comment-191441
:D
Takovou, ehm, cest nemohu prijmout!
https://diit.cz/clanek/geforce-rtx-2080-vykon
:D
Jak nezminil? Vzdyt jsem to psal kolikrat.
Mame doma dva PC: GTX1070 na jednom ale nechavam prostor klukovi, protoze stejne hraju nektere starsi hry, ktere si dluzim dohrat, treba ted Gothic 3. Takze mi staci GTX570 na druhym PC. Tu potrebuju upgradovat, ale klidne to muzu delat dal tak jako doted, ze kdyz mladej neni doma, tak si muzu dat neco novejsiho a jinak si dal budu hrat ty starsi veci na ktery ta grafika staci.
Presne tak jak pises. Nvidia v minulosti mela ceny vzdy dost odpovidajici velikosti a vyrobnimu procesu. Tabulkuuz jsem tu daval. A otazkou je jak zakaznici prijmou, ze velkou cast cipu tvori tranzistory ktere jsou nove a doposud neexistovaly v hernich kartach.
A je fakt k pobaveni, ze kdyz se jim to hodi, tak vytahnou pomer cena/vykon, alejak pises, je naprosto bezne, ze nekteri vyrobci si nechaji zaplatit. Viz treba Bugatti taky nejezdi 20x rychleji nez nejaka Octavia, ze?
Ale tady nejde o to, ze narust vykonu neodpovida narustu ceny. Tohle je karta, co prisla po dvou letech (!) A vysledek je ten, ze ma prakticky stejny vykon za stejnou cenu jako ona karta 2 roky stara (vykon bez RTX). Clovek jaksi ocekava, ze technologickym vyvojem dostane časem za stejnou cenu více vykonu, nebo stejny vykon generace minule za nizsi cenu. A to se tady evidentne nedeje. Takze moje GPU, stara 4 roky zpet, stala necelych 10k, stale zustava na svem miste. Protoze aktuálně neni kam upgradovat.
Maudit> Toto už ani nie je demagógia, každý si môže pozrieť čo na tom videu Huang hovorí o DLSS: https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be&t=2h18m43s
O NGX hovorí ako o budúcnosti, tam hovoril o tých troch možnostiach čo si napísal, ale v časti špecificky o DLSS hovoril to, čo som napísal vyššie.
Možná by Maudite neškodilo, kdybyste tu přestal pleskat nesmysly už jednou provždy a možná raději začal používat tu kouli, co máte na krku. Hlava se ji říká. Ty vaše teorie se super samplingem už ani směšné nejsou. Možná si pusťte ten Keynote ještě tak 2x, 3x a třeba pochopíte..
@Jan Olšan, pěkné vysvětlení, žel tohle je na Maudita asi stále moc odborné..Docela Vás obdivuji, jakou trollorezistenci mate ;D
Helet to je tvuj problem, ze si tvoje reality distortion field spojuje spolu nesouvisejici casti ;) Huang v tomhle konkretnim miste popisuje proces trenovani te DNN. Vzdyt to ma I za zady na tom slajdu ..
Mozna ti to nikdo nerekl, ale neuralni site se nejdriv trenuji (v tomhle pripade v jejich superpocitaci, viz. ten obrazek) a pak se vyhodnocuji (to uz probehne na tvem GPU, u tebe doma) ;)
Ja ta narust vykonu mam. 1080fe za 21400, 2080 za 22000. Za 600 mam rekneme strizlive 30% navic bez pouziti novych technologii s nimi treba 60-100% navic - dlss, k tomu jako bonus rt... jasne muzu mit dneska stejny hruby vykon za trosku nizsi cenu (cca 2000 korun) ale ten new tech, me to laka a rad si priplatim.
citace redmarxu: " vubec me nenapadlo, ze budu s Pascalem nucen Turing preskocit" tohle jsi napsal ty. Takže začínám nabývat dojmů že lžeš, protože pokud má někdo jinej v tvé rodině gtx1070 tak kvůli pascalu ty nemusíš turinga přeskakovat. Pro tebe s nepascalem je turing jasná volba. Teda na hraní gothic3 ne, to máš pravdu, to ti bude stačit i Navi v roce 2021.
No prave, na Gothic3 to nepotrebuju a jednohubky typu Far Cry 4 a 5 si muzu zahrat na druhem PC.
Turinga jsem chtel puvodne kvuli zamyslenemu ELEX a Kingdome Come, ktere jsou na dlouhe hrani a na soucasne grafice uz je nedam. Takze ano, nikdy jsem nerikal nic jineho, Turing byl v planu, ale kdyz vidim, jaka je cena a jak mi to nic neprinese, tak si fakt koupim radsi za par korun tu bazarovou RX580, ty dve hry co bych chtel hrat na to mdam taky a pockam si na drazsi grafiku az na 7nm generaci.
A jsme u toho znovu. K cemu nadherna grafika, kdyz hra sama o sobe je nuda plna mikrotransakci...a to jsem clovek, ktery na grafice lpi hodne. Krasny priklad je s VR, 1070 ready, 1080 a vys jeste lepe...ale kde mame VR za normalni ceny, kde jsou ty mixed reality bryle? Kde jsou ty HDR monitory, kvalitni 144+Hz IPS panely...? RT je super a je dobre, ze se technologie uz zkousi v realu, ale dnes je to nepouzitelne a jen to laka ovce zallatit mnohem vic, nez je skutecna cena. HBM pameti, za ktere je zesmesnovana Vega - opravnene, tak to same by ted melo platit na Kozenakuv navysovak ceny v podobe RT a DLSS...
@Alich: Aká je skutočná cena za karty obsahujúce RT a Tensor cores? Keďže ide o prvé GPU s týmito technológiami, tak ma úvodné ceny neprekvapujú. Tiež píšeš, že sú tieto technológie nepoužitelné, pričom boli jasne ukázané v prezentáciách čoskoro vydávaných hier. To mi od nepoužitelnosti príde hodne ďaleko. Toto nie sú primitive shaders, ktoré doteraz u Vegy nefungujú. NV okrem podpory v HW totiž pre svoje technológie zaistila aj SW výbavu a použitie. By som skôr povedal, že je to dobrý príklad toho, ako uvádzať technológie do praxe. Nie tak, aby sa roky čakalo kým "dozrejú" do doby, kedy pôvodné karty, ktoré ich mali využívať sú už zastaralé.
Redmarxi tak já už ti vůbec nerozumím, na jednu stranu seš naštvanej že Turinga přeskakuješ a říkáš že to je fail a na druhou stranu ti to vlastně vyhovuje protože ušetříš a později si pořídíš nadupanou vyladěnou 7nm kartu. Víš co, přestaň pár dní psát komenty, vychladni, pusť si třeba Terra Tech nebo Road Redemption a usekávej tam hlavy motorkářům. Až tady budou testy a první vlna nadrženců bude ukojena dodáním karet, pak se rozhoduj. Ano pro ty co mají teď Pascala není důvod přezbrojovat. A taky to nikdo v nVidii netvrdí. Šlápli do hovna a teď čekají jestli to hovno přinese štěstí a nebo bude jen smrdět.
Ale jen AMD ovce ti rvou do palice nesmysly o tom že nVidia nutí své ovečky při každém vydání kupovat nové karty. není to pravda, stačí ob jedno nebo ob dvě generace a v pohodě si zahraješ. To jen AMD fanATici tě oblbi kecama jak bude Polaris super karta...která zdupe gtx1070 na prach....vlastně né né super karta bude Vega...která zdupe gtx1080 na prach.... jé promiň...super karta bude Navi... která zdupe rtx2080Ti na prach...
za 17, ale pššt to se tady nesmí říkat, protože by ovce záviděli. Já nevím čemu se furt divíte, před Vánocmi 2016 byla prostě za 22.000, klidně si to nejděte na heureéce, takže když si dneska půjdu koupit další řadu rtx2080 tak stojí zase 22.000 tak kde je to zdražení, už mi odpověztéééééééééééééééééééé
KDE JE TO ZDRAŽENÍ??????????? KDEEEEEEEEEEEEEEEEEEEE?????????????????????????????? ubožáci od AMD, rozumíte čeky? Kde je to zdražení????????????? KDEEEEEEEEEEEEEEEEEEEEEEE????????
za 22.000 +45% výkonu........ po dvou letech..........
AMD má Fury +44% Vega a teď.... teď nic... takže jestli bude Navi +44% tak olala tu máme v roce 2020 výkon rtx2070-2080 a to se vyplatí.... s dvouletým zpožděním..................... looooooooooooooollllllllllllllllllllllll
Gigabyte GV-RXVEGA64GAMING OC-8GD: únor 2018 - 24.258,-kč, březen 2018 24.311,-Kč, červen 2018 20.743,-Kč, červenec 2018 18.912,-Kč a nao teď 17.882,-Kč, ale při vydání stála 25.000,-Kč. To že nemáš žádnou paměť dokládá jak hloupá ovce seš.
https://graficke-karty.heureka.cz/gigabyte-gv-rxvega64gaming-oc-8gd/#
To není žádné slovíčkaření. Matematika je exaktní věda. To, že neznáš učivo prvního stupně ZŠ mnohé napovídá...
Ty jsi takové dvojče DDemagoga. Jin a jang, jeden vyznává červenou a jeden zelenou. Ten taky vezme graf, kde je 47% a udělá z toho mávnutím kouzelnýho proutku 200%. :D :D
Se tu trhám smíchy, jak ve chvíli kdy i tvůj věrný sluha Hnízdo mluví o 50%, tak přijdeš na scénu ty a začneš tu z rukávu tahat hausnumera. :D :D
@Aznoh
Narozdil od tveho vseobecne omezeno chapani, normalni lidi jeste grafy cist umi, navic korektni grafy (ktere zacinaji na nule), a vidi, ze GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%). Nemusim si nic cucat, v tom slajdu to vsechno je uz ted :D
Ja vim, ze si vydeptanej z faktu, ze AMD nema vykon (nemela ani pred tim, ale ted se rozdil jeste zvetsuje), nema raytracing a nema ani akceleraci AI. Ale to je realita. Denial te jenom vystresuje, zvedne ti krevni tlak, budes nesoustredenej a v depresi. Je jednodussi se s tim srovnat a budes mit klid ;) :D
Bohuzel, ale toto je nasledek nekonkurence. Takto doplacime za RTX. Pokud by konkurence byla, tak by nam Nvidia pravdepodobne vydala nove karty s vyrazne vice klasickyma tranzistorama (pravdepodobne uplne bez RT), patricne vyssim vykonem a za ceny predchozi generace. A mozna by RTX vydali jako samostatnou radu vedle nove standardni herni. Kdo vi?
Pokud nekoho skutecne nezajima RTX, tak at koupi 1080Ti.
"GTX1080 je zaklad v 1.0 (100%) a RTX 2080 dosahuje az na 2.0 (200%)" Výborně, takže nárůst je kolik procent?
VS: Předtím jsi psal "Je tam nekolik her kolem 200% narustu".
Já tě tu matematiku nakonec doučím Maudite, tvoji rodiče na tebe budou pyšní. :D :D
Ano, jsem AMDčkář, jsem DD, jsem Belka, jsem Tynyt, jsem Babiš, věř tomu, pokud ti to ulehčí život a lépe se sžiješ s tím, že se nenechávám opít rohlíkem a nechovám se jak ovce. :D :D
Mne se libi, ze NV vydala karty s RT. Beru to jako prvni generaci, od ktere toho nejde moc cekat, byt mne zatim ukazky vyjma snad reflexe ve vode, moc nepresvedcily. Pokud narust vykonu karet bude cca 40+% oproti predchozi pro stejny level, tak mi to prijde taky ok. CO mi ale prijde dost blby je, ze podle mne ceny porostou a bude trvat dlouho pokud vubec) nez spadnou aspon na uroven dnesni aktualni generace 1xxx.
tombomino: Bohuzel jak pisi, Nvidia si uctuje hlavne podle plochy cipu a vyrobniho procesu (cim mensi tim drazsi). A u techto karet ktere maji hodne velke % pro RT a AI, tak je narust klasickych jednotek daleko mensi nez celkovy narust plochy. Takze ted jen doufejme, ze tyto jednotky budou patricne vyuzite.
sidey, ty nic jiného neděláš ... nonstop ... plácání, kecání, žvanení, blbolení, sem tam nějaký pičung, pak zase žvástání atd atd ... a ještě se urážíš ... synkuu, nech toho, nic z těchto karet si nekoupíš, jen slintáš a pliváš a chodíš se utěšovat za Stachem ... zeptej se mámy, co si o těch tvých "moudrech" myslí ...
Jasne, takze technika pojmenovana Deep Learning Super-Sampling, bude delat presny opak super-samplingu (upscaling), to dava smysl :D Vubec by to v takovem pripade nepojmenovali Deep Learning Upscaling, to neee! Navic naproti vsemu, co Huang v prezentaci rika. Vy jste dobri strelci. To bude legrace 20. zari, az bude vsechno venku :D
Ja vim, narust vykonu RTX 2080 na uroven 200% GTX 1080 musi byt pro vas AMD fans strasidelny, kdyz Vega mela extremni problem vubec se dotahnout na level GTX 1080. Ale hele treba AMD za dva tri roky tenhle perf level dotahne (a vubec se nemusite trapit ted tim, ze Nvidia v te dobe uz bude mnohem dal). :D
Tak konecne jsi to pochopil. Trvalo to jen dva dny LOL
I kdyz sem ti to teda musel polopaticky vysvetlit nahore:
"Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku."
Ale je to tam. Tak a ted mi schvalne rekni - kdyz pouziju superresolution obrazek jako ground thruth, treba 4k obrazek, jak rika Huang, co bude vychozi obrazek, treba v tech 1440p? To bude lower resolution image. A co se uci ta neuronova sit? Zrekonstruovat tu ground truth, ten 4k obrazek.
Uci se doplnit chybejici data. A co s tim pak muzes udelat? Zvetsit rozliseni (ale bez AA), nebo ponechat stejne rozliseni a pouzit ty extra samply na super-sampling. Proto se tomu rika Deep Learning Super-sampling. Opet popsano uz nahore :) Ocividne to spousta lidi pochopila, protoze to vysvetleni ted ctu uz I na jinych webech a forech. Jen AMD fans jak ty s tim maji problem. Jako jasne, AMD fans maji obecne nizsi rozlisovaci schopnosti, proto jsou schopni koupit jejich grafiky a CPU. Ale I to uz prestava vysvetlovat ten level tuposti ted :) Bud se prekonavate (ve spatnem slova smyslu) nebo to proste delate na schval - mozna I nevedomky v ramci pudu mentalni sebezachovy. At uz je to jak chce, je sranda to sledovat.
Jsi vtipny Maudite. Ja na rozdil od tebe SS pouzivam, raytracingovy engine jsem zkousel programovat v Pascalu pred nejakyma 25 rokama a o deep learningu toho vi vic nez ty snad i Crha. ???? Jediny kdo se tu dnes neco naucil jsi ty a to zaklady matematiky a prace s procenty. ????????
Obvineni z Amd fanoustvi je uz takova klasika, kdyz fanatikovi dojdou vsechny argumenty a nevi si rady jak dal. Nudna klasika ala Maudit a Hnida. ????
200% (dvěstěprocentní) nárůst by byl nárůst o 200 %. Výkon karty by pak byl 300 % předchůdce. To tady není.
Tady je 100% nárůst (s tím DLSS), po čemž je výkon 200 % předchůdce. Protože předchůdce je 100 %, k tomu +100 %, výsledek dvě stě.
Nárůst o 45 % teda znamená, že karta má 145 % výkonu předchůdce.
Kdyby tam byl 0% nárůst, tak je výkon 100 % předchůdce.
(To pro vyjasnění těch procent).