Mam za to ze vykon docela jasne padl na zaver, jen tak mezi reci. 2070 je rychlejsi nez titanxp a nebyl tim mysleny raytracing, tam je to nasobne vice. To celkem odpovida odhadum, kdy se mluvilo o cca 50% vykonu navic. Dava to smysl.
Jinak ceny. Treba alza zacina predprodej od 32600 za 2080ti. Nevahal jsem.
Zase blbe pochopeno. Raytracing nebude zpusobovat sum, protoze pro kazdy pixel bude pouzity alespon jeden paprsek. I v te prezentaci to bylo zmineno. Pes je zakopany jinde - treba difuze je schopnost materialu odrazet paprsky svetla ruznymi smery, tzn. ten jeden paprsek z obrazovkoveho bodu, kdyz dopadne na trojuhelnik, by se mel zmnohonasobit a mel by se prozkoukam se facto skoro kazdy mozny obraz. Ta redukce paprsku bude probihat prave na tehle urovni, protoze tam se nejvice usetri (pocet paprsku by jinak rostl exponencialne s kazdym odrazem). Nebudou se tedy dopocitavat chybejici pixely, ale pomoci AI se bude zvysovat kvalita informace, ziskane se zmensenym poctem odrazu (opet zmineno v keynote). K tomu jeste dany filtr zahrnuje informaci z prechozich snimku - proto to slovo temporal - a je v tomhle ohledu stabilni (temporally stable). Opravte si to.
No, mohli fuknúť aspoň nejaké herné testy - takto je to také o ničom. Karty budú iste veľmi výkonné, dovolím si povedať že aj najslabšia RTX2070 prechčije Vegu 64 ale tak aspoň nejaké testy by bodli.
A no ceny... 5-7-10 stoviek USD sú hrozné ceny a to nehovorím o teda sakra vysokých cenách Founders kariet... Nedovolím si povedať prečo je to tak, ale tak GDDR6 aj výroba niečo stojí ale mám pocit že dosť zapracovalo aj to že tie karty nebudú mať široko-ďaleko žiadnu konkurenciu a to pekne dlho.
btw. neodpustím si rýpnutie - karty nemajú HBM, freesync a ani nebola ohlásená 107% podpora DX12 - pre niektorých sú to už teraz zbytočné karty aj keby bola 2080Ti 40% nad Titanom Xp pri rovnakej spotrebe :D
Mám z toho dost smíšené pocity.
Pozitivně mě překvapil počet her, které budou RT v nejbližší době používat (kromě těch z ukázek tam promítli seznam dalších cca. 20 her, které to mají mít implementované), takže Nvidia si opravdu dobře zajistila, že nevydává nic "dopředu" a ona technologie opravdu k něčemu téměř okamžitě bude.
Stejně tak je výborná zpráva NVLink. Doufám, že opravdu bude fungovat tak, že se to bude hlásit jako jediná karta s 2x tolik VRAM i CUDA, tzn. bez nutnosti SLI profilů pro každou hru a přinese to nárůst výkonu blížící se dvojnásobku jedné karty.
Co beru jako pochopitelné, že nemohlo dojít k většímu nárůstu počtu CUDA cores, protože když tolik prostoru zaberou RT jádra a Tensor Cores, tak už i tak jsou ty čipy obrovské. Byli nejspíš rádi, když tam při 12nm procesu vůbec nacpali to, co nacpali.
Jenže kvůli tomu pak výkon v naprosté většině her (no i v těch s RT, protože ten je jen jako doplňující prvek) zřejmě nenaroste nijak hvězdně, ani zdaleka né jako to bylo u Pascalu, kde navíc extrémně vzrostly frekvence, což tady taky není, bohužel.
Tzn. - pokud tam není nějaký zázračný nárůst u IPC architektury - tak na standardní renderovací grafiku to bude zřejmě jen takový refresh Pascalu, při těch cenách minimálně na začátku prakticky bez zlepšení poměru cena/výkon.
Většina pokroku spočívá v RT a AI (TC), jenže i při relativně široké implementaci v nových hrách půjde zatím jen o doplněk...
Přepálená cena se tak nějak čekala delší dobu, jenže jsem čekal, že za ní alespoň doručí 16GB GDDR6 VRAM v 2080 a 22/24GB v Titanu/2080Ti. Pokud by tam tolik VRAM bylo, tak asi řeknu, že cena je docela akceptovatelná a něčím podložená.
Jenže při stejné VRAM jako u Pascalu jsou ty ceny podle mě plivnutí do tváře zákazníkům, jemněji to říci nejde. Od jara 2016 se toho na herním poli změnilo hodně a hry žerou VRAM čím dál víc. S 8GB je to možná "ještě pořád dost", ale není to dost na "futureproof" kartu a (téměř) vlajkovou loď s cenovkou 700-800 dolarů.
Chápu, že ceny GDDR vyletěly a především na přelomu 2017/18 a GDDR6 levná vůbec nebude. Jenže při těchto cenovkách karet to není žádná výmluva, to se tam mělo vejít.
Ale holt tu máme v hi-endu monopol, co se dá dělat. Čistě střílím, ale řekl bych je cena 2070 vyšší tak 100 dolarů, 2080 o 150, a 2080Ti o 200 dolarů, než by mohla být v případě tvrdé konkurence AMD v hi-endu.
Jo a reknu vam, ze ve svetle Turingu nevypada Vega zase tak spatne,
Je to podobne, nemam zajem o predrazenou Vegu, kdyz mi soucasne hry jedou na Pascalu lepe a nemam zahjem o predrazeny Turing, kdyz to stejne budouci RT hry nezvladne naplno a dneska jsou mi nejake RT Cores na hovno! Sorry, ale musel jsem to rict na plnou hubu, NVidia proste prestrelila a ja jim na to neskocim.
Z mojho pohladu tie ceny nie su zle. 2070 RTX bude stat okolo 550 eur za nereferencnu verziu a v starych hrach ocakavam velmi podobny vykon ako ma teraz 1080 GTX, ktora tiez stoji okolo 550 eur. A v novych hrach bude 2070 RTX rychlejsia, lebo ma Tensor jadra a RT jadra. Takze je to lepsia karta za rovnaku cenu. High end je drahsi, ale nema konkurenciu.
Komu su drahe, moze cakat na nove karty, ktore pridu mozno o rok.
Čistě kontrolní otázka pro znalce:
Kdo napsal tohle?
"Turing je celkem fail..
Realny vykon nikdo nerekl, pry to nema byt zadna hitparada..
Ceny sou silene, kdyz HUang ohlasil ceny cely sal byl stiha a sam HUang radsi velmi rychle jeviste oupstil, protoze by se mozna dostavilo i buceni..
Cela prezentace jeden velky FAIL..
Asi nejhorsi uvedeni nove generace u Nvidie za poslednich 10 let."
:D:D :D
Zajímavé jak RT všichni žerou bez jakýchkoliv pochyb :D já si teda rád počkám na reálné srovnání, dopad na výkon atd.. Zatím mi to v této první generaci přijde jako takový gimmick, něco jako hairworks. To kdyby mi někdo ve Witcheru 3 vypnul, tak si toho asi ani nevšimnu. Ale chápu, že někdo je na grafiku asi víc vysazenější.
Jinak RT má ve hrách určitě budoucnost, za každou novou technologii jsem rád. 2080Ti pro mě jasná koupě nehledě na RT, výkon bude cca dle očekávání, konkurence neexistuje. Vyšší ceny jsem čekal a varoval před pokřiveným tržním prostředím už mnohokrát, doufám, že příští generace zdraží ještě víc, pak si snad konečně mnozí uvědomí jak je konkurence potřeba.
btw: ten founders chladič a OC se vendorům líbit nebude, Nvidia jim ukradne značnou část obratu, Huang jde pomalu ale jistě za svým, nakonec to dotáhne na přímý prodej, na vendory se vykašle a z NV se stane předražený Apple :P
No možná mi to uteklo ale já zaregistroval jenom to srovnání v RT, nic o výkonu v standardní grafice, proto jsem to tam tak napsal. Uvidíme, no, přece jenom by to asi potřebovalo docela významný architektonická zlepšení když se podívám na ty počty jednotek u RTX 2070 a u TXp.
Hold uznávání standardů není nic pro Nvidii. Než by přišla s plnou podporou DX12, Vulkanu, Freesync tak si vymyslí opět něco unikátního co podpoří masivním marketingem, jako třeba předražené GSync, či z historie Physx. Nicméně nutno uznat, že tento druh marketingu a vývoje jim vychází.
Jinak ceny jsou prostě dány situací na trhu. Na skladech je stále spousta GTX karet a tak není žádný zájem dávat více výkonu za stejné ceny.
Každopádně, já jsem se rozhodl, že Turing přeskočím. Přes známého mám možnost koupit novou 1080Ti MSI Armor za 18,5 tisíc, tak jdu do toho.
Navíc mám použití pro svou aktuální 1070Ti (synovi se rozbila má stará GTX 770 a bude mít narozeniny :) ).
Čekal jsem co bude dnes představeno a při těch cenách si říkám, že se na příští cca 2 roky bez Ray Tracingu obejdu a počkám na Pascalu na 7nm generaci.
A budu se modlit, aby do té doby AMD přislo s něčím pořádným v hi-endu, případně Intel vletěl s nějakou (nejlépe dumpingovou) bombou rovnou do hi-endu. Jinak by taky RTX 3080 mohla stát 1000 dolarů a RTX 3080Ti 1500 dolarů....
Tak dnes o vsechny narocne efekty se staraji cuda cores, nove to budou delat rt a tensor cores a cuda se ulehci. Nejnarocnejsi vveci jsou dnes svetla a stiny, to obstara raytracing. Vykon se tak zvedne jinou alokaci zateze. Nicmene i slusny posun rasterizacniho vykonuntam je. Viz demonze zacatku. 4k 60fps caple vsyncem, ktere na 1080ti bezi neco pres 30
Tak vega64 je na tom stejne jako 1080, takze pokud bude 2070 rychlejsi nez 1080, tak je to jasny.
Nvidia umi narozdil od AMD tezit ze sve pozice na trhu..a zatim ji to technologicky fakt slape.
Jinak co jsem videl komentare ve forech..tak zatim ty nove karty zabiji dost cena..krome fandu jako je Jirka samozrejme ;)
Redmarxi co to placas. Mas tam 20 her co podporuji RT, z toho aspon 4 lze oznacit za 3A+. Vizualni efekt globalniho nasviceni je naprosto zrejmy, v dnesnim nedokonalem nahrazkovem shader provedeni je to nejdrazsi efekt, spolu s gradientnimi stiny ktere taky nahradi RT, a pod RT to bezi ve vice jak dvojansobnych fps. Po dlouhych letech je tu neco co skutecne funguje a je to videt, funguje to uz ted a implementovali to i studia, ktery rozhodne nemaji finance Bethesdy. I amd s pohledem stranou zamumlala podporu, protoze to je budoucnost.
Co jako chces vic? Asynchronni shadery? :D
Je opravdu otazka vykonu novych karet ve starych klasickych hrach. Navic podle parametru TU104 a TU102 muze byt jejich vykon oproti GP102 naprosto rozdilny. Dovedu si predstavit, ze napriklad RTX2080 bude vykonem nastejno s GTX1080Ti ve starych hrach, ale cena protoze RTX.
U vykonu bez RTX taky bude hodne zalezet na engine hry, zda je pro vykon lepsi vice SP a nizsi frekvence (1080Ti) nebo zda bude vyhodnejsi mene SP a vyssi frekvence (2080).
najlepšie je ako blábolil o tom Ako Vega je vlastne konkurenciu pre budúcu generáciu nVidia kariet - tak tu ju má, nech si porovnanie Vega 56/64 s RTX2070-2080Ti užije !
...ale samozrejme nebol by to AMDD keby znova neotočil a najnovšie už situáciu zachraňuje 7nm VEGA 20 - len neviem ako môže konkurovať karta ktorá výjde tak za 6-9mesiacov a ktorá bude na napr. RTX 2080Ti pozerať pekne zdola.
A schvalne, kdo napsal tohle:
"V tuto chvíli není na trhu žádná grafická karta, která by na [RT] měla výkon." - a co nove uvedene grafiky?
"Dosavadní ukázky jsou silně nepřesvědčivé. Pokud už se najde taková, kde RT verze vypadá opravdu lépe, pak je to spíš tím, že klasická vypadá špatně a může nastat oprávněné podezření, jestli nebyla očesaná záměrně" - ale to vis ze jo, vsichni jsou zli a podvadej, jen AMD je svetice (az na poor volta, fixer, niceni konkurencnich karet, …). ach ty dvoji standarty
"Nepodporují to konzole, takže pro většinu vývojářů půjde na nejvýš o ozdobu navíc, ne základ, jehož přípravě a optimalizacím by se při vývoji hry věnovalo podstatné množství času." - konzolove hry tvori jen maly zlokem z PC her, staci se podivat na katalog Steamu ;)
"Pokud nebudou mít konkrétní motivaci RT využívat (což je u technologie, která se zatím jeví jako velký žrout výkonu s minimálním vlivem na kvalitu obrazu)" - zrout vykonu? vzdyt se to pocita na samostatnych RT jednotkach. a realne odlesky, stiny, ao, barvy, ssc, atd. to je "minimalni vliv na kvalitu obrazu"?
Ta schvalne, kterej neurotik, co mu z prave uvedenych grafik cuka koutek, je za tohle zodpovedny? Mas tri pokusy :D
Za me dobry cenovy fail, at je vykon jakyuzchce. A bude jeste hur, kdyz ovecky beci a poslusne kupuji. Vyjimkou jsou jen profici, kteri asi nad cenou spis zaplacou. jak to Kozenak tlaci nahoru. Ja jsem jednou v zivote udelal GPU radost v podobe 1080Ti, dobry, ale znovu uz bych podobnou blbost neudelal, na to. co ta katta dokaze byla i zde ta cena priserna. Asi si tak nejak porad myslim, ze 3D akcelerace jde i levne a kvalitne... Kde je ta doba 3Dfx...
GTX2050 a GTX2060 jak uz plyne z oznaceni zadne RT cores mit nebudou, takze pro vetsinu hracu mimo realitu.
Ve vysledku budou muset studia stejne delat i podporu pro grafiky bez RT a aby to bezelo na 60FPS, protoze kdyz ne, tak se jim na hry lidi vykaslou.
Se mi vcera v noci zdalo o hovnech a nevedel jsem proc, odpoved prisla rychle. :-)
Ono, takto bych to řekl - výkonostní posun by byl naprosto dostatečný, pokud by RTX 2080 stála stejně, jako GTX 1080 a RTX 2080Ti jako GTX 1080Ti. Jenže ani náhodou nestojí, navíc v paměti je posun jen u propustnosti = poměr cena / výkon se vůbec nezlepšuje (minimálně tedy při uváděcích cenách) a to je prostě špatně.
Ray Tracing je budoucnost, je to úžasná technologie. Jenže pro člověka, který si teď chce koupit kartu na další, řekněmes 2-4 roky, tak je to jen doplněk, který mu v pár hrách dá bonusový výkon a efekty, ale není to zatím to hlavní....
RT lúče nedopadajú na pixely. Oni sa z pixelov vysielajú a hľadajú objekt s ktorým sa pretnú a následne rozmnožia a odrazia. Na základe všetkých odrazov (ich počet je rekurzívne určený danou hĺbkou do ktorej sa môže ísť) sa potom vypočíta výsledná farba pixelu. Okrem toho čo píše Maudit sa vďaka AI nielenže bude zvyšovať kvalita informácií získaných z daných lúčov, ale bude možné renderovať obraz v nižšom rozlíšení a AI z neho vytvorí obraz vo vyššom rozlíšení s čo najvernejšou kvalitou. Huang to ukazoval a výsledok vyzeral parádne.
Na pixely nic nedopada. Z obrazovky se paprsky prave vysilaji. To mimo jine znamena, ze prostorove/objektove bude obraz naprosto presny a maximalne ostry a v plnem rozliseni. 4k bude skutecne 4k, ne nejaky prevzorkovany upscalovany shit. AI bude jen vylepsovat informaci o barve pixelu. Jak rikam, opravte si to.
A klinec tomu dávajú vyhlásenia typu, že AMD ani nemusi reagovať lebo vlastne nie je na čo. Hehe. Od tých istých ludí, čo obviňovali NV, že nepodporuje DX12 (čo ani nie je pravda) a že tým brzdí pokrok. Z tejto logiky aj AMD brzdí pokrok, nie? A keď už ludia ako Stach kritizujú prezentáciu NV, ktorá sa previnila asi iba tým, že bola viac technikcy zameraná ako obvykle, by sa mali zamyslieť prečo nekritizovali AMD pri jej lapsusoch s poor Volta, Fixerom či rošliapavaním grafickej karty od NV. Proste ak má niekto čo ukázať, nepotrebuje pri tom ponižovať konkurenčné výrobky či zosmiešňovať konkurenciu.
Akorat Marku, mas snad venku hry, kde muzes porovnavat rozdily mezi rasterizaci a RT?
Zatim nemas, takze nemuzes ani tvrdit, ze ten rozdil nebude pozorovany 'lupou'.
Ja jsem vzdycky kazdymu treba rikal, ze nema cenu hrat hry, kdyz vypadaji jako pred 5 lety..a sam jsem dosel do stadia, kdy je pro mne zabavnost hry uz vyssi meritko nez vizualni stranka, kdyz ma nejaky rozumny level. Hykani nad kazdym stinem atd.mne jednoduse preslo a nema to nic spolecnyho s nalezitosti k te nebo one znacce. Vetsina mainstreamovych her mi prijde nudnych, jako pres kopirak, zvlast pak 'battlefieldy' ktere nemaji ani single player. Radeji si zahraji nejakou blbost na mobilu, ktere ma casto bavi vic nez AAA titul za miliardu..
Jako RT super, jsem rad, ze s tim nekdo vysel ven, protoze to je nejspis cesta o budouctna a nejak se zacit musi. Ale hykat nad tim, kdyz je to ve stadiu 'demo efektu'..sorry :)
A to jsem se tu snazil rici... Ty karty jsou desne napalene... Kozenak to zene do vysek, obchody na te hore jeste stavi mrakodrapy. Pritom na kvalitni hrani s peknou grafikou staci nejake custom APU v podobe PS4 Pro / Scorpio... optimalizace... Dokud lide budou vyhazovat penize lopatama, tak tu vzdy budou nejaci Huangove, co jim budou davat do rukou lopaty.
@Hnizdo: no 20 jich asi nebude, páč Nvidia to předtím s tou podporou RTX trochu zjednodušila ( holt marketing )
https://www.overclock3d.net/news/software/nvidia_clarifies_-_rtx_in_games_doesn_t_mean_ray_tracing/1
Docela by mě zajímalo co je na daném textu tak pobuřující/nepravdivé?
Jediný proč by nástup RT neměl být stejný porod jako nástup Teselace nebo nedej bože blahé paměti T&L ?
Skoro žádný HW nemá podporu,těch pár karet které ano osloví nevelký i díky šíleným cenám málokoho,herní studia se asi přetrhnou aby si měly práci navíc pro nula nula nic potencionálních kupců.Až bude podpora za pár let ve střední třídě GPU a především v herních konzolích tak bude mít smysl o RT vůbec uvažovat jako důvod ke koupi GPU.Jenže v té době kdejaká karta za 200$ zastaralou 2070/2080 vyklepne...
Zatím nVidia a hlavně někteří její příznivci přesně padnou do ,,Mnoho povyku pro nic,,
O pristich vanocich navi muzou byt od obou konkurencnich firem na trhu grafiky na 7nm, ktere mohou diky zmenseni procesu mit implementovano treba dvojnasobne vic RT jednotek. Tudiz soucasna generace Turing muze byt klidne od NVidie revolucni, ale pouzitelne to bude az na te pristi.
Souhlasim teda, ze ceny jsou naprosot prestrelene. Jestli si mam koupit kvuli novym hram grafiku za 20.000 Kc nebo dokonce jeste o neco vic, tak musi bejt stoprocentni na dalsi ctyri roky a to se o Turingu v tuto chvili rozhodne rici neda.
Nedáva to žiaden zmysel. Pri RTX on možno, inak to je nemožné
TitanXp - 3840 CUDA na 1600Mhz
GTX 2070 FE- 2304 CUDA na 1710Mhz
Zatiaľ všetko nasvedčuje, že Turing je mierne vylepšená Volta s hlavným ťahákom RT jednotkami. Ako vieme, výkon Titana V nie je žiadne terno v pomere s CUDA = žiadne veľké IPC zmeny.
Nato aby GTX 2070 vôbec dorovnala výkon TitanuXP by muselo prísť zlepšenie IPC o desiatky %.
přesně tak hnízďáků, to bečení AMD trolů je neskutečné. Klidně ať si čekají na AMD Navi kartu o výkonu intel HD530, já si koupím Ampéra a o té doby si zahraju všechny Dx11 hry na psacalu. V době ampéra bude RT už normální a ve většině her a nějaká Navi to nezmění. Je to prostě milník ve světě grafiky a ostatní můžou nVidii jen dohánět a závidět a psát nenávistné komentáře.
Ak myslíš to od skavena, tak to nebol fake. Pozri si prezentáciu ešte raz od času 2:40.
https://www.youtube.com/watch?v=IG2wVjQUr3c&feature=youtu.be
RTX vypočíta osvetlenie reálnejšie. Ale samozrejme závisí to potom aj od polohy svetelného zdroja. Ak by bol viac do strany, tak rohy neboli tak tmavé. Keďže ale svietil z hora a priamo, tak to dopadlo tak ako sme videli. Pri rasterizácii (RTX off) sa ako barličky poiužívajú neviditeľné svetelné zdroje, ktoré ovplyvňujú osvetlenie v miestnosti. Budovanie niečoho takého by sa pri RTX nemuselo robiť. Ak by niekto argumentoval tým, že reálne by bola miestnosť viac osvietená, tak to je potom vecou implementácie RTX. To čo sme videli nie je ukážka absolútnych vlastností a jediného možného výstupu.
Dovolim si tvrdit, ze to bude poznat na 100%. Vse bude nablejskane, vsude bude vode, vsechno se bude vsude odrazet. Proste nerealna marketingova maximalizace efektu. Vzpomenme par let zpet, kdy zacaly vznikat hry s odrazama, stinama, vode vsude.
A udelat to stejne bez RTX by byl imho maximalni narez na hw.
Dale by me ale zajimalo, zda ostatni karty budou zobrazovat hru klasicky a nebo v RT ale vyrazne omezenem. Protoze na prezentaci porovnavali vykon RTX OPS proti Pascalu a tak je otazka, zda karty bez RT cores taky zvladnou RTX ale jen velmi pomalu a nebo vubec. Neco jako matematicky kooprocesor, zde RTX procesor.
Ja nijak nezatracujem hratelnosť a zábavnosť. Pokiaľ má byť hra dobrá, musí mať aj tieto 2 aspekty. Teraz sa ale bavíme iba o vizuále. A o tom RT je, ako iný spôsob renderovania. Nie je to o hýkaní nad každým tieňom, ale rozdiel v kvalite bol v herných ukážkach na prezentácii jasný. Dobrá grafika výrazne ovplyvňuje to, ako vnímaš prostredie hry a celkovú jej atmosféru. Ano, ide o subjektívne dojmy. Niečo ako bol svojho času GPU PhysX. Samozrejme je treba si počkať, kým tieto hry s RTX vídu a porovnať to priamo doma. Možno na prezentácii preháňali. Ja neviem. Ale dúfam, že to bude zodpovedať realite. Každopádne ukážky na prezentácii mali ďaleko iba od "demo efektov".
?
Zdroj? Protože Eevee zvládne bez problému vyrenderovat scénu jen o něco málo hůře vypadající než ray tracing renderovací enginy https://www.youtube.com/watch?v=HntAab0Z7tg https://www.youtube.com/watch?v=hgS3BTkBct0
A čas potřebný k vyrenderování stejné scény je 20-30x menší než u ray tracingového enginu.
Ten povyk ale jde spis od AMD fans, jako jsi ty, protoze jim raytracing ocividne slapl na kuri oko. Uz vidim, jak bude Stach rikat, jak je "Vega vic vybavena, nez Geforce", kdyz Vega nema zadnou akceleraci pro AI ani RT :D
A co ten komentar o konzolich? To je ten clovek tak dementni, ze si nevidi rozdil ve velikosti hernich katalogu pro PC a konzole? :D Co napsal je naprosta lez, ale stejne se najdou idioti, kteri mu to sezerou :D
2:42:10-20 máš to tam, jedno okno ti opravdu místnost neosvětlí. navíc tam vysvětloval, že v jednom rohu je světla víc a v druhém míň. Pusť si to ale v temné místnosti nebo až večer, teď přes den to splývá. ten rozdíl je vidět a docela zásadně. Nikoliv že scéna s RTX je černá jak bota a nic nevidíš.
Jeste je tu jedna zajimava vec - na DirectX Raytracingu spolupracovala Nvidia s Microsoftem (tzn. Nvidia ho do standardu protlacila, stejne tak jako do Vulkanu, dle prezentace). AMD se toho neucastnila.
Ani bych se nedivil, kdyby pristi konzole od MS byla na Nvidia grafikach (CPU cast treba AMD??).
Jo i ne Marku. Uricte jsem pro, at se grafika rozviji treba smerem RT.
Mne osobne to ale uz nebere. Dam ti priklat WOT..kdysi nadseny fanda, hraval jsem nekolik hodin denne v prumeru a to i na integraci od Intelu! Diky nekoncicimu mrveni herniho zazitku, nepomohl ani novy herni engine, ktery grafiku posunul na novy level, zabava ze hry, ale pro mne uz mizerna. Nehraji.
Hodne se pletes Redmarxi. V te prezentaci Nvidia predstavila 21 her, ktere buoud RT podporovat de facto od realne dostupnosti Turingu. Co je ale MNOHEM dulezitejsi je, ze ty hry, ktere RT budou podporovat, jsou postavene na velkych a uspesnych enginech, ktere pouziva spousta dalsich her. Diky tomu se RT rozsiri velmi rychle.
No ale hlavne ten vykon - pokud bude hra vuyzivat RT, tak ty nejnarocnejsi efekty, jako je osvetleni, stiny, prohlednosti, ambient occlusion, atd. bou pocitani mnohem efektivneji nez pred tim (na RT cores) a to s fotorealistickou kvalitou (pujde o skutecny odlesk, stin, atd. a ne o zadnou nahrazku). A to strasne moc ulehi praci klasickym CUDA cores. Narust vykonu u her, ktere boud RT vyuzivat, byt prave ocekaval dost dramaticky. Vsak I Jensen Huang to na prezentaci na konci rekl - RTX 2070 bude o dost rychlejsi nez Titan Xp.
Podle me ten vykon schvalne taji, aby vytvorili dalsi hype vlnu a pak se na ni hezky projeli.
1080 byla vydaná za $599, FE za $699, tzn. o $100 levněji, než 2080 ($699/799). Ano, po vydání 1080Ti byla následně slevněná ještě o $100 na $499, na kterých aktuálně začíná 2070.
1080Ti byla vydaná za $699 a to včetně FE! Ano, přišla až 10 měsíců po 1080, ale stejně když srovnám s $999/$1199 - to byla cena Maxwellovského, resp. Pascalového Titanu X... Zdražení o $300-500 je monstrózní.
980Ti byla vydaná za $649
1070 byla vydaná za $379 a FE za $449, po vydání 1080Ti byla slevněna na $349, 2070 je evedená za $499, FE za $599 - tzn. ještě větší zdražení jak u 2080!
Jinak ty ceny v korunách nemá smysl takto porovnávat. Při vydání 1080 stál dolar cca 25Kč, navíc cena v českých e-shopech záleží i na dalších faktorech.
Presne, o zadny upscaling se nejedna :) Ono uz I to jmeno - denoise - mohlo Aznoha trknout. A pak taky fakt, ze jsou hry, ktere nepodporuji RT, ale pouzivaji DLSS, a hry co podporuji RT ale ne DLSS, to mu taky mohlo dojit, ze to neni RT :D
Nekteri lide jsou fakt natvrdli (nebo omezeni, nebo to delaji schvalne, to si vyberte kazdy sam :D ). Detaily viz tabulka podpory tech dvou technologii na anadtechu:
https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing
To "o neco malo hure" je dost klicove. Jak o neco malo? Fake global illumination, fake reflections, fake soft shadows - to proste neni ani pri nejmensim "jen o neco malo". A rychlost raytracingu na CPU bych teda s RTX grafikama nesrovnaval. Ze je CPU raytracing mnohonasobne pomalejsi nez rasterizace, neni nic prekvapiveho. Uplne stejne muze ale ten rasterizacni vypocet v Eevee byt 20-30x pomalejsi, nez na dedikovanych RT cores.
Jenomze tam nejde o to, ze je to 'prace navic', ale o to, ze to nekdo musi zaplatit. Vyvojova studia nejsou padle na hlavu a investuji penize tam, kde to ma pro ne nejaky prineseny bonus. RT zatim efekt pro ne na trhu krome reklamy zadny mit nebude, protoze podil karet s RT podporou bude i nasledujici 2 roky mizerny.. Tudiz bud jim to sponzoruje Nvidia a nebo to delaji pro to, aby si mohli dat marketingove 'RT supported' na obal hry.
Tohle je ciste pragmaticky postoj.
Ono je to pro bezne lidi jednoduche pocitani - Turing prinesl o nekolik levelu vyssi obrazovou kvalitu a o level vyssi vykon. AMD karty nemaji ani zdaleka takovy vykon, ale jeste hur pro ne, I kdyby nejakou nahodou vykon dohnaly, nebudou mit ani zdaleka takovou obrazovou kvalitu.
Zajimalo by me, jak to recenzenti budou merit. Uz to nebude jen o porovnani fps versus fps, protoze grafiky jednoho vyrobce (Nvidia) budou navic renderovat v kvalite nedosazitelne pro druheho vyrobce (AMD). Proste na AMD grafikach ty hry budou vypadat o dost hnusneji, I kdyby na krasne mely stejne fps.
No a tady ma prave zafungovat HDR. V momente, kdy vejdes do te mistnosti z venku, tak ma byt svet za oknem normalni a v mistnosti de facto tma (jako na RT on) ale po case, az se oci adaptuji, se ma obraz za oknem zmenit z normalniho na prejasneny a mistnost z tmave na o neco svetlejsi. To demo nemelo tenhle HDR prechod implementovany. V kazdem pripade ta scena nikdy nema vypadat tak, jak s RT off (tam jsou pouzita fake svetla na dosvetleni).
RT ma ale I prakticke efekty, zvlast pro hrace strilecek - v klasicke rasterizacni screen-space reflections se odrazi jen to, co je na obrazovce. S RT se ale odrazi I to, co je za rohem. Tak si predstav, ze mas dva hrace - jeden bez RT a druhy s RT - a stoji v zahnute chodbe, kde jsou okna. Hrac s RT muze videt toho druheho v odlesku v okne a zareagovat, zatimco hrac bez RT ne. To si myslim, ze minimalne pro hrace Battlefieldu a PUBG bude mega motivace upgradovat na RTX grafiky.
Výkon je práve otázny. Dnes om natrafil na tento článok a nie je zrovna optimistický:
https://www.dsogaming.com/news/nvidia-geforce-rtx-2080ti-unable-to-run-shadow-of-the-tomb-raider-with-60fps-at-1080p-with-rtx-on/
Každopádne sa zrejme bude výkon s RTX ešte v hre ladiť. Som zvedavý na výsledok, keď bude oficiálne vonku.
Proboha, já tu píšu oficiální ceny při vydání, viz např.: https://www.cnews.cz/nvidia-uvadi-geforce-gtx-1080-ti-silnejsi-nez-titan-za-699-dolaru-starsi-gpu-zlevnila/
To můžu taky říct, že aktálně je na alza 2080Ti za 32,5-37 tisíc Kč, tzn. po odečtení DPH a přepočtu na dolary je to cca $1200-1350! Ale to je kravina, jen alza napálila cenu.
Btw - jsem si jistý, že loni v březnu začínala 1080Ti v českých eshopech na cca 22 tisících = při tehdejším kurzu 25,5Kč za dolar to vychází na $720. A během měsíce (ještě před těžební mánií) už tam byly FE modely i za 20,5-21 tisíc jak začal padat dolar proti Kč.
Jasne ze je. Fraze "Ani bych se nedivil, kdyby" rozhodne nevydava nic za fakt. Ale totalni neucast AMD na cemkoliv RT a naopak zvysena spoluprace Nvidie a MS je az podezrela. Jestli je navic pravda, ze vyvoj RT trval 10 let, tak bych neocekaval, ze vubec AMD jakykoliv RT bude realne podporovat (ted nemluvim o DXR fallbacku, ktery bude neuveritelne narocny, protoze se bude pocitat obecnymi jednotkami).
Je to možné. Okrem toho je tu aj pozitívnejšia informácia:
https://www.dsogaming.com/news/nvidia-geforce-rtx-2080ti-can-run-the-unreal-engine-4-infiltrator-tech-demo-with-78fps-in-4k/
@Mareknr .. samozrejme fake neni. Maudit si tradicne vymysli a nebo rovnou lze.
Tady je original clanek, i s videem. Jinak RT je pouzita ke generovani stinu. Neni to jeste finalni verze hry, nicmene fps opravdu padaji az ke 30fps pro 1080p, jak jde na videu pekne videt.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Nvidia-RTX-2080-Ti-Performance-in-Shadow-of-the-Tomb-Raider-1263244/
Začať sa nejako musí. Predpokladám, že na 7nm už príde RT aj do mainstreamu. AMD do toho vlaku skočí určite tiež a naplno. NV si to teraz môže dovoliť aj na vyššom procese, ale neskôr aktualizujú aj mainstream. AMD by si asi ťažko mohlo teraz dovoliť predávať 754mm2 čip. Vidím to tak kvôli tomu, že RT je súčasťou DirectX.
https://www.techradar.com/reviews/nvidia-geforce-rtx-2080-ti
TombRaider 4k RT @60Hz
Although we haven’t had the chance to benchmark the card thoroughly, we did get to play multiple PC games at 4K and in excess of 60 frames per second (fps) with the RTX 2080 Ti at Nvidia’s GeForce Gaming Celebration event at Gamescom 2018.
Unfortunately, due to multiple non-disclosure agreements we signed, we can only tell you that Shadow of the Tomb Raider looks stunning with ray tracing turned on. Thanks to Nvidia’s RTX technology, shadows do indeed look more realistic – with different intensities everywhere depicted in a stony ruin in the rainforest. We also just gawked at the walls, looking them shimmer as light reflected and refracted off of them.
Advertisement
In terms of frame rate, Shadow of the Tomb Raider ran at a mostly consistent 50-57 fps, which is impressive giving the game is running on a single GPU and in such an early state – on top of all the new ray tracing techniques.
We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings.
Pane Olsan, kde jste vzal, ze 3 miliardy na vyvoj Volty je ekonomicka blbost? Kdyz vezmu provozni naklady na jeden kvartal 600 milionu, tak za 5 kvartalu to tam je. Samozrejme aby me nekdo nechytal za slovo, tak vse urcite neslo do Volty, ale taky ji nedelali 15 mesicu, ale podstatne dele. Takze to cislo je urcite mozne.
Ja vim, ze tvuj mozek v ramci pudu sebezachovy ty informace filtruje a samozrejme, ze si to racionalizujes jako lzi a janevimcojeste. Opet opakuju - nikdo nic jinyho necekal ani od tebe, ani od ostatnich takovych mamlasu. Vsak na obou ceskych AMD webech je to uplne stejny - potoky slz. Zvlast ten Stach, ten jestli vcera/dneska neco nerozmlatil, tak to by byl zazrak ;)
@mareknr Tak uz je na strance dsogaming update.
"UPDATE:
The developers of Shadow of the Tomb Raider have responded to the lower than expected performance of the game on the GeForce RTX 2080Ti when using RTX. According to them, the current build of the game features an early work in progress version of NVIDIA’s tech, and the final version will run better."
Takze presne, oni to testovali s nejakou early dev verzi a jeste zjevne blbe, kdyz to TechRadaru vyslo o dost lip. Do vydani casu dost.
Speedy: oslovování 5. pád, učivo prvního stupně ZŠ
https://www.mojecestina.cz/article/2016031101-nejcastejsi-chyby-ve-sklonovani-podstatnych-jmen-oslovovani-jinym-nez-5-padem
Maudit> Je možné, že všetkým ostatným bolo jasné, že pod pojmom "kompletne raytraced bez jakychkoliv kompromisu" si mal na mysli scénu bez akejkoľvek geometrie/partiklov, alebo komplet bez svetelných zdrojov (black screen). :-D
BTW: Bez znalosti detailov, čo ten papierový údaj 10 Grays/s znamená sa nedajú robiť také závery ako robíš. Pokojne môže byť myslené aj 10 Giga_kalkulácií priesečníkov paprsku s trojuholníkom za sekundu. Pretože množstvo geometrie hrá dosť podstatnú úlohu... Podľa mňa máš veľmi skreslený a zjednodušený pohľad na raytracing.
Maudit> Zas len trollíš, nevieme či techradar testoval inú verziu ako dosgaming. Navyše, techradar nič neukázal a vlastne ani nič presne nenapísal. Nepochybujem o tom, že je možná optimalizácia (možno aj na úkor kvality) aby to bežalo rýchlejšie, každopádne si počkám na recenzie finálnych produktov. ;-)
Takze ja tam pomerne jasne zminuju pocet pixelu na 4k obrazovce a tim vydelim onech 10 Gigarays/s a ipkopifko si nejak nepochopitelne dosadi, ze to melo obsahovat i odrazy? LOL Cil byl jasny a uz I nekolikrat popsany, ale pro pomalejsi - stezejni problem raytracingu neni prvni level bez odrazu, ale prave nasledne odrazy, ktere pocet paprsku s kazdym dalsim odrazem exponencialne zvetsuji. Zakladni obraz bude vzdycky vykresleny naprosto presne a bez kompromisu v podobe nejakeho upscalingu, atd. .. ;)
Prave ze trolleni jde ted od AMD fans. Do vydani zbyva jeste mesic, tzn. jeste mesic na ladeni her i ovladacu. Je naprosto predcasne delat nejake zavery z dema, ktere melo za ukol hlavne ukazat posun v kvalite, ne vykon. Zvlast kdyz sami vyvojari pote upresnili, ze se rozhodne nejedna o finalni optimalizovanou verzi hry ;)
To je fakt usmevny jak tvrdosijne porad ocekavas propady v FPS. Trochu by to chtelo ubrat na tom biasu (jakoze porad jsi novinar). Takze po milionty - s RT se ty nejnarocnejsi efekty pocitaji na dedikovanych RT cores (ktere jsou na vypocty tech efektu optimalizovane, na rozdil od general-purpose CUDA jader). Tim se CUDA jadrum ulehci a vykon by teoreticky mohl jit I nahoru. To ale pravde uvidime za mesic (I kdyz nejake informace uz mam) :)
Jen pro informaci ale uvedu, ze kdyz ma scena deset smerovych svetel, musi se vyrenderovat pohled z kazdeho svetla, tzn. se scena vykresluje 10x navic k tomu zakladnimu pruchodu. S raytracingem se vykresluje jen jednou - to znamena jen jeden pruchod geometrii, jen jedna rasterizace objektu atd. .. zbytek si odvod sam :)
Jan Olsan: Ale on klidne muzemit pravdu, opravdu bude zalezet na zpusobu implementace a moznostech konfigurace RTX v kazde hre.
Pokud pouziji specializovany HW ktery ubere praci standardnimu HW, tak to muze mit pozitivni vliv na vykon. Ale pokud se to prezene a ten specializovany HW to bude pocitat na miliony paprsku, kazdy s dvaceti odrazy, tak to pak zpusobu snizeni vykonu jako celku, protoze se bude cekat na ty kvanta vypoctu. Toto bych opravdu hodnotil az jak se ukaze praxe a jak to ktery vyvojak implementuje.
Presne. Ocekavam, ze ve hrach nebude jen nastaveni RT On/Off, ale zaroven nastaveni kvality - tzn. jestli se pri odrazu spocita hodne nebo malo odrazenych paprsku. Protoze je mnozstvi Gigarays fixni, bude pak zalezet, jaky pomer mezi kvalitou raytracingu a cilovymi fps si uzivatel zvoli. Grafika muze dat 60 fps s maximalni RT kvalitou a treba 120 fps, kdyz snizis RT kvalitu na minimum.
Ono to bude tezke ohodnotit i pro recenzenty, protoze jak jsem psal uz nahore, nebude mozne porovnavat jen hrube fps, kdyz Geforce budou produkovat mnohem kvalitnejsi a realnejsi vystup, nez Radeony.
Ten TR tam běžel za zavřenými dveřmi s RTX, to je ten lagující ve FHD a pak tam běžel veřejně s vypnutým RTX, to je ten kolem 60FPS 4K. Je to v článku Anandatech. :P
Věřím, že to snad do vydání trochu poladí, ale jak se to tu Maudit s Hnízdem snaží žehlit, to je vtipné. Fanboy level 100 achieved! :D
Anandtech úplně nesouhlasím s tím co tu dal Hnízdo https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing
No pokud by si Hnízdo ten jeho článek přečetl pečlivě, tak by zjistil, že se v něm nikde nepíše, že ten Tomb Raider testovali s RT ve 4K. :D
Ale to by napřed musel Hnízdo sundal zelené brejličky, naučit se ignorovat reklamštinu a na prezentaci bez reálných dat se umět dívat trochu víc skepticky.
Helet ja nejsem zodpovednej za vasi omezenou mozkovou kapacitu. Nektery veci uz pod urcitou uroven nejdou zjednodusit ;) Takze jestli nechapete, ze prvni uroven paprsku trackovanejch z obrazovky vykresli kompletni gemetrii sceny (s maximalni intezitou barvy pixelu daneho objektu, protoze se nepocita svetlo), tak to mate blby :D :D :D
Azznohu, ifka neresit, momentalne zazivaji zivotni deziluzi a tezky butthurt. Jen totalni blbci a fanAtici jeste v temnem zoufalstvi veri, ze se nvidia pochlubi Rt technologii v tomb raiderovi, kde to pobezi na 35fps ve fullhd a ve 4k vubec na karte za 35kkc.
Predobjednano Ti Trio, uz se tesim.
To je vtipny (ale klasika u AMD fans) jak si Aznoh tu realitu priohnul. Anandtech vubec nepise o nizkem fps, jen to tom, ze se tam semtam ukazaly framedrops. Ale framedrops neni to same, co nizky framerate. Framedrops znamena, ze jeden frame se oproti ostatnim opozdil a to casto byva spis zalezitost veci jako pomalejsiho nacitani modelu na komplexni scene (to se vetsinou pre-loaduje, ale to jeste nemusi byt implementovate), treba kdyz vylezes z jeskyne ven do sveta a najednou se ti zacnou nacitat stromy, hory, atd. a renderovat, treba navic jeste s environmentalnimi efekty. Vetsinou se do mapy davaji zone boundaries, ktere kdyz prekrocis, sputi nacitani dalsi zony. Diky tomu v momente, kdy do ni realne vlezes, uz mas v pameti vsechny textury a modely. Bez toho se vsechno zacne nacitat onthefly a pak z toho jsou framedropy. Anandtech redaktor poctive uvadi framedrops, nedela zadne zavery. Dokonce ve shrnuti na konci pise, ze je to predcasne, ze je jeste mesic do realne dostupnosti ;) Takze presne to, co jsem rikal ja :D Sad, butthurt, crying? oh well. AMD ti treba koupi medvidka!
Maudit> Mohlo by ti byť jasné, že čo sa zobrazí keď sa nepočíta svetlo bude závisieť na konkrétnej implementácii/rendereri. ;-)
Zaujímavé je tiež, že podľa teba "kompletne raytraced bez jakychkoliv kompromisu" znamená bez svetla. Pozri sa čo tu produkuješ a použi svoju neobmedzenú mozgovú kapacitu na zamyslenie sa...
Asi si nečítal moje komentáre vyššie, ale bolo by dosť zaujímavé vedieť, čo presne znamená 10 Gigarays/s, lebo je tu veľa špekulácií. ;-)
Ok, přibilo zde pár komentářu mezitím. Takže za:
A) Hnízdo opět lže, protože já jsem tu nikde netvrdil, že finální TR pojede 35fps fhd, naopak píšu tu zcela jasně, že to do vydání poladí. Hnízdova 150x lež - žádné překvapení.
B) Anand hrál to stejné co je zachyceno na videu a to na jednom ze dvou PC za stěnou, kde běžel TR FHD s RT a FPS padalo na 30. Takže žádné jen "framedrops" jak se snaží nabulíkovat totální fanboy Maudit, ale prostě a jednoduše nízké FPS v určitých scénách (vybraných k prezentaci Nvidií). Vše zachyceno na videu. Zelení snílci si ale najdou nějakou výmluvu proč tomu tak není. :D
C) 15 let kupuji jen Nvidii, zpravidla nejsilnější model. Klasika těchto fanboyů je, pokud s nimi v čemkoliv nesouhlasíte, okamžitě vás označí za AMDčkáře. Je jedno, že o AMD nepíšu ani slovo, je jedno že AMD drbu úplně stejně jako NV, prostě jste černá ovce a nezapadáte do zeleného stáda. To, že mám Nvidii a i tak ji drbu je pro tyhle fanatiky naprosto nepochopitelné, ti prostě jdou ve stádě, nechají se opít rohlíkem z reklamštiny a vydávají za fakta něco, co jsou jen jejich domněnky. Ztracené duše. Ale upřímně jsou tou černou ovcí už i rád, s těmahle fanatikama se nedá normálně diskutovat a tak mě baví je dráždit.
Já si kupuju 2080Ti, ale ne kvůli RT, to je jen pěkný gimmick, který najde uplatnění až v dalších generacích. Kupuju tu kartu kvůli výkonu navíc, který bude přesně dle mých předchozích očekáváních cca 25-40%
"Aby bylo uplne jasno – 4k, tzn. 3840 × 2160 je celkem 8 294 400 pixelu. Pri 10 Gigarays / sekundu by novy RTX cip dokazal udelat 1205 fps (301 fps pro 8k). Zakladni obraz tak muze byt kompletne raytraced bez jakychkoliv kompromisu."
;) ubrecenost AMD fans, kdyz je jejich firmicka tak brutalne pozadu, opravdu nema mezi :D
@aznoh
"Anand hrál to stejné co je zachyceno na videu a to na jednom ze dvou PC za stěnou, kde běžel TR FHD s RT a FPS padalo na 30."
Kde Anandtech pise neco (cokoliv) o 30 fps??? DEJ SEM PRESNOU CAST V TOM CLANKU! Nikde. Pro jistotu pridavam link pro ostatni. Jedine co pisi je, ze si semtam vsiml framedropu.
https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing
Ten zbytek je legracni, jak vzdy. Stylem mi pripominas Soucka. Jsem si prakticky jistej, ze jses Soucek. A tomu by se zhroutil svet, kdyby se dotknul byt jen obalu od grafiky Nvidie :D Samozrejme ze jsi AMD fanboy, vsechno, co tu pises, to ukazuje. Ten fakt, ze si vubec vymyslis o jakychsi 30fps v Anandtech clanku, ktere tam VUBEC NIKDE nejsou zminene, ukazuje na zapsklyho malyho pindoura, bez spetky sebevedomi. Gratuluju ;)
Ano jsem Souček, ať už je to kdokoliv, Belka a DD a taky Babiš. Vše jedna osoba. Maudite pusť si to video TR, tam je FPS, víme?? Já nepsal že Anand píše o 30 fps, opět chybná interpretace psaného textu, jak je u vás fanatiků zvykem. Viz další článek a diskuse. :D
Vím, že teď brečíš, že 2080 není těch tvých 50% nad 1080Ti, doknce ani 40, ani 30, ani 20, ani 10, ale to přejde, víme? :D
Možná je to zklamání dobré vzít pozitivně a zbavit se toho fanboyství jednou pro vždy a brát grafiky jako spotřebák, jako každý dospělý člověk s trochou toho IQ. :D
Helet a to ti neprijde divny, ze Anandtech pise "capped at 60fps with the graphics settings locked" a to tebou zminovany video jde treba az k 70fps? Jak jako si muzes bejt jistej, jestli je to vubec stejnej stroj nebo jestli si s tim nekdo nepohral? Navic I ti typci na pcgameshardware.de jasne napsali, ze to je early alpha verze.
Tounouci se proste stebla chyta ;)
A super sampling mimo jine odstranuje co? Noise. Protoze kdyz udelas jen 1 sample per pixel, muze ti ten sample vyjit tam, kde je subpixel barva zelena, zatimco v celem pixelu by byla barva modrozelena. Ve vedlejsim pixelu ale nahodou sample trefi tu modrou cast vzoru a mas modrou barvu - ve vysledku modrozeleny sum. Kdyz ale udelas vic samplu, tak ti v obou pixelech vyjde modrozelena barva, ktera bude krasne nezasumnena.
Opravuje me, jo? :D Takze:
Aznohh 22.8.2018 at 12:50
"Vždyť to vůbec neběží nativně ve 4K, Huang to tam jasně říká, že to je dopočítané z nižšího rozlišení pomocí DLSS."
Maudit 22.8.2018 at 13:23
"Tos to blbe pochopil. LOL"
dom324 22.8.2018 at 16:19
"DLSS je AI trénovaná na vylepšení kvality obrazu – hlavně teda odstranění aliasingu."
Kde tam mluvi o upscalingu? Ja teda ctu "vylepseni obrazu" a "odstraneni antialiasingu". A jestli je DLSS o upscalovani raytracovaneho obrazu, tak proc jsou v tom seznamu hry, ktere maji RT podporu, ale ne DLSS? :D
Asi by to chtelo si neco precist o supersamplingu, Aznohu, at se tu dal neztrapnujes. Supersampling je presnej opak upscalingu. V supersamplingu neco renderujes ve vetsim rozliseni nebo vice pruchody (neboli delas vice samplu pro jeden bod) a pak to pouzijes na presnejsi obraz v nizsim rozliseni. (to je mimochodem presne to, co se deje v raytracingu, kdy z jednoho zasazeneho bodu se trackuje vice odrazenych paprsku - vice samplu)
https://en.wikipedia.org/wiki/Supersampling
Upscaling je naopak technika, jak z mensiho rozliseni udelas vetsi ;)
https://en.wikipedia.org/wiki/Video_scaler
Delas ze sebe blbce, takze klidne pokracuj :D
lol ty budeš asi fakt blbej Maudite... :D
proč OPĚT mluvíš o raytracingu??: "A jestli je DLSS o upscalovani raytracovaneho obrazu"
Já ti už poněkolikáté píšu, že DLSS a raytracing jsou dvě naprosto odlišné věci a o RT jsem nikde nic nepsal.
Prostě to Epic demo bylo do 4K rozlišení upscalováno přes DLSS, je to vidět i z nových grafů Nvidie, že s DLSS je výkon ve 4K vyšši https://cdn.videocardz.com/1/2018/08/NV-GeForce-RTX-2080-Performance.jpg
To, že do toho teď navíc mícháš supersampling, který já narozdíl od tebe a tvé plečky denně používám je další tvůj krok mimo. :D
Proc do toho micham supersampling? Protoze DLSS je, svete div se *drum rooooooll* Deep Learning Super-Sampling (DLSS). Me tohle fakt bavi, ukazovat co jses doopravdy zac ;) A svete div se #2, Deep Learning Super-Sampling dela presne to, co ja I dom324 rikame, viz. primo ze stranek Nvidia:
"Powered by Turing’s Tensor Cores, which perform lightning-fast deep neural network processing, GeForce RTX GPUs also support Deep Learning Super-Sampling (DLSS), a technology that applies deep learning and AI to rendering techniques, resulting in crisp, smooth edges on rendered objects in games."
https://nvidianews.nvidia.com/news/nvidia-rtx-platform-brings-real-time-ray-tracing-and-ai-to-barrage-of-blockbuster-games
Hurá, konečně Maudit pochopil aspoň tu první část a to, že není vůbec řeč o raytracingu. Gratuluji.
Bohužel Maudit zatím nepochopil druhou věc - a to, že když jednou existuje SS (který narozdíl ode mě Maudit na své plečce nepoužívá, takže zná jen teorii), tak to neznamená, že DLSS bude fungovat na stejném principu. Doporučuju si pustit tu NV prezentaci, kde Huang poměrně přesně říká jak DLSS bude fungovat a to transformaci nižšího rozlišení na vyšší rozlišení za pomocí deep learningu https://youtu.be/IG2wVjQUr3c?t=8780
Tomu odpovídají i ty nové grafy Nvidie, kdy s DLSS je výkon vyšší. Pokud ani tohle Maudite nepochopíš a jsi stále zaseklý v denial fázi, tak už ti to asi nevysvětlí ani pánbůh. :D
Chápej, že já rozumím tomu že to je možná alpha verze a že to budou ladit. O tom vůbec nedebatuju. Já tu zpochybňuju vaše zmatená a nekonzistentní tvrzení, že to je fejk, za hodinu píšeš že to je alfa verze, za další hodinu zase něco jinýho atd... :D
To je prostě děsná sranda ten váš damage control. Co si třeba připustit, že RT v TR je momentálně trochu rozbitej a doufat, že se to podaří vyladit. :D
Pochybuju, že DLSS bude mít nějaký značný vliv na noise - a hlavně neznám moc her, kde by se noise vyskytoval vyjma efektů typu kamera v Outlast.
DLSS má spíše nahradit současné metody AA. Na Super Sampling mít nebude, ale bude mnohem lepší než post processingové FXAA a TXAA.
Z prezentace jsem to pochopil tak, že vzali trénovali na obrázku s rozlišením x, kterému pak snížili rozlišení na y.
Hadam, ze jsi nevidel uvedeni Quadro RTX, kde se presne o tomhle mluvilo? Kde Huang ukazoval, o kolik rychleji ted profi studia budou moct renderovat a jak celou server farmu zmensi do dvou racku? Protoze si fakt nic z prstu necucam. Byl o tom clanek I tady. Hledat ho nebudu, to mas za domaci ukol.
Kdo tady mluví o rychlosti na CPU?
Stejná scéna, v Cycles 6 minut, Eevee 10 sekund, renderováno tuším na 1080 Ti.
A na to, že by RT cores zvládly plně ray tracingovou scénu 20-30x rychleji než Eevee můžeš zapomenout, to je snad ten nejvlhčí sen :D Vždyť to je odhad jak z říše snů, větší stupiditu nikdo neslyšel.
Eevee zvládá render skoro (zas tak blízko k tomu není, ale dá se na to dívat) real time, což je na (nedodělaný) profi renderovací engine super. A vy tvrdíte, že RT cores zvládnou plně ray tracingovou scénu (bavíme se o profi scéně, žádná hra) ještě 20-30x rychleji :D Co se dozvíme příště? Animák od Disneyho vyrenderovaný za 15 sekund?
Vrať se na zem, některé tvé odhady jsou úplně mimo.
A ke kvalitě obrazu - pokud dvě fotky vypadají úplně stejně, ale jedna je vyfocená a druhá vyrenderovaná, znamená to že jedna je hezčí? Ne. Když fake osvětlení vyprodukuje stejnou scénu jako s ray tracingem, je jedno že to osvětlení je fake, protože vypadají stejně.
Eevee samozřejmě nedosahuje kvality Cycles nabo Maya, ale daleko přesahuje úroveň grafiky kterou mají hry s RTX https://www.youtube.com/watch?v=BiWmB8mwP70
Určitě bych netvrdil že RTX představuje kvalitu, které by pomocí rasterizace nešlo dosáhnout.
To je tak hezky, jak Aznoh zmatene mumla, kdyz zjistil, ze DLSS je supersampling, coz je presny opak upscalingu. LOL. A prej ze pracuje se SS? Tak podle projevu bych toho cloveka nepustil ani k soustruhu, natoz k cemukoliv technickymu :D
Mimochodem, to rika Huang si ocividne nepochopil. Bohuzel ani Jan Olsan ne, coz me trochu prekvapuje. On mluvi o tom, ze muze vylepsit obrazek s nizsim rozlisenim tim, ze neuralni sit vytrenuje na obrazcich s vyssim rozlisenim. Ale to vubec nemluvi o upscalingu. Naopak, je to prave supersampling. Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku.
Supersampling totiz funguje tak, ze vyrenderujes obraz v mnohem vetsim rozliseni (delas vic samplu na jeden pixel z puvodniho mensiho rozliseni) a ta data pak pouzijes pro vylepseni kvality toho hrubsiho pixelu v nizsim rozliseni. To je hruba sila. Oni dokazali naucit tu neuralni sit dosahnout podobne kvality jen na zaklade informaci o okoli (ta neuralni sit dokaze rozumnet objektum ve scene, takze identifikuje treba hranu toho kanonu - vsak se taky dnn pouzivaji k pocitacovemu videni) a jeste k tomu z vektoru pohybu objektu ve scene, protoze jde o temporalni neuronovou sit (dokaze zpracovat casove zavisle informace). Ta sama dnn se samozrejme da pouzit I ke zvyseni rozliseni (Huang to tam rika, treba vylepseni CT scanu), kdyz tu extra informaci (extra samply) nepouzijes k antialiasingu, ale primo na vykresleni dalsiho pixelu. Ale v kontextu supersample antialiasingu jsou ty extra samply pouzity k vyhlazovani (proto to tak pojmenovali LOL).
O tom trenovani na superresolution obrazcich mluvi tady. A ten vyraz "lower resolution" znamena samozrejme "lower than superresolution" (radsi predchazim dalsim stupidnim dotazum a komentum). Jasne tam rika, jak tu dnn trenuji v datacentrech.
https://youtu.be/IG2wVjQUr3c?t=2h18m
Muzes byt dal za blbce a tvrdit, ze to je upscaling (nic proti tomu, je to sranda), ale neni to upscaling. Ty antialiased obrazky jsou renderovane nativne ve 4k, ale vyhlazovane jsou skoro jako kdybys na ne pouzil realne supersamply.
Tady dokonce mluvi Huang o tom, co jsem zminil nahore - ze ten anialiasing je pouzity k doplneni informaci chybejicich z raytracingu (diku cemuz muzou dramaticky omezit pocet potrebnych paprsku):
"[...] or sometimes the image is not even complete with raytracing [...]"
https://youtu.be/IG2wVjQUr3c?t=2h22m28s
Pro dnesek koncim. Za takovyhle vzdelavani si normalne necham platit. Tak dneska pro vas zdarma ;)
Maudit - ale ty to máš všechno postavené jenom na domněnce, že když to má v názvu SS, tak to musí být supersampling jako ve smyslu FSAA. Ale to přece vůbec nemusí bejt pravda.
A právěže zatím všechno svědčí o opaku. Je to postprocessing, tedy čas navíc pro každý zprcovávaný frame, přesto je ale výkon vyšší -> takže evidentně před tím postfiltrem se někde šetří výkonem. Logicky to tedy musí být rendering na nižším rozlišení.
Maudit> Samozrejme sa mýliš. Huang jasne pri prezentovaní DLSS hovorí, že sa trénuje na "super-super high-res obrázkoch" (chápem ako viac než 4k), ale potom, že stačí keď dodáme vytrénovanému systému obrázok s nižším rozlíšením (vyslovene hovorí že napr 1440p) a on nám vyprodukuje "krásny obrázok v 4k".
Pri časti o deme Infiltrator spomínal len že je to "krásna kvalita v 4k", takže v tomto kontexte by som si ten DLSS dovolil nazvať inteligentným upscalingom, hoci sa ti to nemusí páčiť. ;-) Ako to bude v praxi vyzerať, uvidíme neskôr, ale na prezentovaných obrázkoch je jasne vidieť blur na textúrach v porovnaní s 4k TAA, takže za mňa: upscaling ako vyšitý, so stratou detailov ako k tomu patrí, ale ... aspoň hrany sú ostré.
BTW: Ak ti niekto za takýto výkon platí tak dobre pre teba, zle pre neho.
A když byl Vulkan stavěný na základě toho API od AMD, to jsi taky věřil, že to Nvidia nikdy nebude umět? :) Nebo Intel, samozřejmě.
Jinak teda obdivuju, kolik toho dokážeš vyčíst z těch omezenejch informací a vědět to úplně jistě.
BTW těch 10 let je samozřejmě takový marketingový zveličení. Vzpomeň si, že Nvidia tvrdila, že RD Volty stálo 3 miliardy dolarů. Což je samozřejmě naprostá blbost ekonomicky, jsou to posčítané náklady na vývoj všech předchůdců a tak podobně. Tady do bude stejné. Marketing se musí trochu filtrovat (i když je to marketing Nvidie), a ne "když ji miluješ není co řešit"
Nepotřebuju vědět nic, tři milirady by znamenalo, že to sežralo rozpočet na úplně všechno po celý tři roky zpátky, a to je samozřejmě kravina. Prostě sečetli náklady i na předchozí architektury, možná i spoustu dosavadních sw projektů, aby vylezlo úchvatné číslo.
Náklady Nvidie známe, protože jsou ve finančních zprávách, a tuším že je tam i zvlášť RD, takže tohle se dá říct docela s jistotou.
A nic jinýho než tu Voltu těch pět kvartálů platit nebudou? Ovladače pro hry, čipy Tegra, nějaký ostatní GPU do roadmapy...
A taky provozní náklady nejsou jen RD, ale taky marketing, platy, uklízení na záchodech a tak. Já myslím, že tady je vcelku evidentní, že je to trochu nadnesený.
Nikdo to ještě neměl možnost reálně testovat, to co píšeš jsou jenom domněnky/naděje. Ray tracing je notoricky známý jako věc s velkými nároky na výkon. Proto taky doposud nebyl ve hrách používán a přichází na něj řada až teď.
Máme dvě alternativy - buď to bude menší nebo větší žrout FPS, nebo to bude neutrální/s pozitivním vlivem. Všechno myslím mluví spíš pro tu první možnost, tak to je prostě pravděpodobnější varianta a je racionální pracovně se jí zatím držet, dokud nebudou nějaká opravdová fakta, která by to vyvrátila - což zatím nejsou.
Já bych to v těch komentech hodně silně toleroval. Kolikrát se to člověk snaží napsat rychle, to okýnko je mrňavý, písmenka taky.
Já třeba teoreticky znám pravidla pravopisu etc asi docela nadprůměrně (škola plus praxe), ale v praxi když nedávám pozor, tak na to prostě zapomínám nebo kolikrát se chytím, že na to natvrdo rezignuju (čárky ve vedlejších větách). A to mám ještě tu výsadu, že když to ve spěchu píšu rovnou z administrace, tak si to po sobě můžu opravit. Stejně to je větišnou dost katastrofa :)
Teď je možné, že v tom máme zmatené pojmy a obojí se nejmenuje DLSS. Ale je jisté, že Nvidia má tu techniku pro transformaci 'Nižší kvalita - > NN upscaling/"supersampling" -> vyšší kvalita' zdá se vytvořenou jak pro ray tracing, tak pro rasterizaci.
U rasterizace je to asi jednoduché, renderuje se na nižším rozlišení, projede se to neuronovou sítí vytrénovanou na upscaling (sada obrázku s nižším a vyšším rozlišením pro učení, kdy síť je naučená tak, aby interpolovala na to vyšší rozlišení podle těch tréningových kvalitních obrázků).
U ray tracingu to funguje jinak, tam je to ten denoising. Ray tracing se provede s redukovaným množstvím paprsků, což vede k tomu šumu, a pak se to prožene neouronovou sítí, která odšumuje (opět je naučená na dvou sadách obrázků - jeden se šumem, jeden s vysokou kvalitou, a cílem je, aby odstraňovala ten šum/chyby tak, aby výsledek byl pdobný těm kvalitním obrázkkům). Rozlišení na počet pixelů v tomhle případě asi může být i stejné.
To jsem z toho zatím vydumal.