Ano je to přesně naopak. NVidia a její uzavřené a "přínosné" technologie typu physx, gsync atd., bych tu radši nevzpomínal, jelikož neměli žádný přínos pro všechny hráče bez rozdílu a mohdy znepříjemňovaly život i samotným hráčům vlastnící NVidia GK. Použití RTX efektů (které jsou jen nepatrným a možná i snadno přehlédnutelným doplňkem ve hře typu Battlefield 5 atd.) jen např. na RTX 2080 Ti (která teď stojí šílených 35.000 Kč), jen na FullHD monitoru při 60FPS, je směšné a kdo by takto hrál? Kdo hodlá v dnešní době utratit tolik peněž za GK, tak jistě pak nebude hrát na Full HD monitoru? Jistě má i 4k monitor. A na RTX 2080, 2070 je to samozřejmě ještě horší. Takže kdo si koupí RTX grafiky jen kvůli Raytracing nebo DLSS, tak je blázen a jen platí NVidii její "zkoušku" s RTX technologií. A podotýkám na závěr, že mám v PC NVidii GK - GTX 1080 Ti :-).
Z pohledu soucasne situace AMD se toto dalo cekat. AMD nema zdroje jako NV, aby se snazila neco protlacit na trhu i presto, ze trh a pravdepodobne i technologie na to jeste nejsou moc pripraveny. Tohle zkousela drive a vicmene ji to nikdy nevyslo tak, jak by sama potrebovala.
Pro rozsireni RTX to samozrejme neni dobra zprava, ale dala se cekat s tim ze RTX v nasledujicihc min 2 letech bude okrajovou zalezitosti, ktera se ani neobejde bez podpory NV samotne. Stezejni bude podpora u novych konzoli za 2 roky, protoze, pokud tam RT nebude, tak jeji nastup jako technologie bude jeste pomalejsi, pokud se vubec v dohledne dobe uchyti.
Přirovnání DX12 versus Raytracing....? kdo s tím přišel první?no nevím....DX 12 vyšel z API Mantle (AMD) a je podle mě tedy více použitelný (využitelný) v dnešní době než některé raytracingové "efekty", které si stejně většina na úkor degradace výkonu nezapne. DX 12 (Vulkan atd.) přece umožní i slabším grafikám, pokud ho podporují, aby měli lepší výsledky ve hrách, u Raytracingu je to zatím naopak. Za to, že s tím přišla jako NVidia první, to jí nikdo přece nebere, to je v pořádku, ale mě vadí ta použitelnost (v této době skoro žádná) a jak to hlavně NVidia prezetuje,jak něco hotového co funguje bez problémů.
On se Ray Tracing bude zatím motat v "bludném kruhu", kdy aby si za něj byli zákazníci ochotní platit, tzn. hromadněji upgradovat z hi-endových Pascalů, nebo dokonce aby po tom byla poptávka v mainstream sektoru, tak by s ním musely být dobře fungující a optimalizované implementace v mnoha hrách, které výrazně nezasahují výkon a přináší viditelná zlepšení.
Jenže aby studia měla motivaci na RT implementacích ve velkém pracovat, musí být na trhu dost lidí s grafikami, které to zvládají, protože jinak to pro ně také nemá moc smysl.
Proto souhlasím, že je tu klíčová ona podpora Nvidie, která k tomu musí studia motivovat, aby se to mělo šanci prosadit plošně.
Co už je méně sympatické - Nvidia si nechá tuto podporu proplatit zákazníky zamražením poměru cena/výkon u grafik.
Klíčové ale asi stejně bude, v jaké podobě se RT podaří do her dostat v příštích 1-2 letech řekněmes, tzn. v prvních implementacích. Pokud v celkem dobré, může to nástup RT do mainstreamu akcelerovat, ale pokud to bude fail, tak to může zamrazit masivní rozšížení RT do her a mainstreamových grafik třeba na dalších 5 let.
To, že AMD nemá peníze na takovéto experimentování ani ta tak plošnou podporu herních studií, je opravdu záležitost těch financí a je blbost je kvůli tomu pomlouvat. Nemůžou si dovolit dávat stovky miliónů dolarů na extrémně nejisté projekty, potřebují hlavně mít použitelná "rasterizační" GPU jádra pro široké spektrum zákazníků, RT je aktuálně experimetální hi-end nadstavba.
To, že teď už určitě pracují na nějakých možnostech vlastní RT akcelerace v budoucích grafikách je jasné, protože pokud by se to Nvidii povedlo a řekněmes v horizontu 2-4 let se RT začalo prosazovat do mainstreamového hraní, tak by pro ně mohlo být fatální, kdyby ani za pár let žádné RT grafiky neměli, ale nemyslím že s tím neutně musí tak spěchat.
A taky si určitě tímto vyjádřením AMD uklidňuje akcionáře, kteří ze situace, kdy Nvidia má novou technologii můžou být nervózní. Takto jim AMD říká - nejsme úplně mimo, taky něco mít budeme. Co budou mít reálně a kdy se uvidí.
OOUUUUU ŠIT !!!!! KDE JE TOMBMIMINO A TYNÝT A DALŠÍ AMD FUN BOJOVÉ?
Tak tady to máte, "i just work it" : RAYTRACING ON IN BATTLEFIELD 5 , HITMAN 2 and FALLOUT 76 ! Nové ovladače 416.94 WHQL pro GeForce GeForce RTX přináší ray-tracing
Tak jsem zvědavý na testy FPS a porovnání oproti AMD RAYNIC. llloooooollllllllllllllll
Jeje, ty uz jsi videl nejakou hru s RTX. ze mas jeji benchmarky? Co se tyce physx a gsyncu a jejich prinos pro "vsechny hrace bez rozdilu" - to je jako podminka? Vis co to je konkurencni vyhoda? Myslis ze ma nvidia povinnost davat svoje knowhow konkurenci, pokud mozno zdarma? Ja si gsync2/HDR velice uzivam a s physx efekty jsem nikdy problemy nemel. Ale ano - stoji to penize, to je myslim asi ten zdroj veskereho hate od tech, co odmitaji platit a chteji mit vse zdarma. Prezitek bolsevismu, rekl bych. To se casem podda.
Dalsi DDovce.
Vždyť mi přece ani nevíme jak Raytracing funguje. Ještě jsme ho neviděli v praxi. Ještě nevyšla žádná hra, která to umožňuje. Je jasné, že kupovat si kartu dnes kvuli Raytracingu je blbost. Nicméně byť je cena RTX2080Ti šílená, je to pořád top. Každopádně když vyšla RX580, tak se hlásilo, že je to lepší než GTX1060, protože má podporu DX12, tudíž ve hrách podporůjících DX12 bude výkonnější. Jenže tehdy byly ty hry asi 3. Takže situace se opakuje. Tehdy nedávalo smysl si kupovat RX580 kvůli DX12, stejně jako nyní se nevyplatí kupovat RTX karty kvůli Raytracingu. To je celé. Jenže mistr DD to podává tak, že AMD je průkopník nových technologií a Nvidia to záměrně brzdí, protože s DX12 přišla až teď. No není to blbost? Stejně tak tvrdí, že intel brzdí vývoj aplikací na více jader kvůli tomu, že nedělal více než 4 jádrové CPU. Ale AMD už mělo dávno 8 jádrová CPU. Prostě se mi nelíbí, že se tu furt něco svádí na jednu či druhou firmu, a že to či ono nemá význam atd...Nemá to pro tebe význam? Tak to nekupuj. Každý se přece rozhodne sám. Jinak kdo dnes skládá PC a chce TOP, koupí 2080Ti. Kdo chtěl 1080Ti, tak si koupí za stejný love 2080. (nebo bazarovku 1080Ti) Jinak samozřejmě Nvidia to musí prezentovat tak, že to funguje. Viš proč? Protože to třeba funguje? Duhá věc je, že na to není SW. To je jako si koupit troubu a říct, že ona nepeče, protože do ní nemám pekáč :)
Nvidia si ale mohla vybrat lepsiho launch partnera a/nebo vydat RTX grafiky o par mesicu pozdeji. Opozdene vydani Windows 10 podzimniho updatu s podporou DXR, opozdene vydani Battlefildu V jako takoveho, tim padem i opozdene vydani RTX patche (nemluve o jejich battle royale modu) - to se moc nepovedlo. Navic DICE je posledni roky znamy totalne zabugovanymi releasy a ani tady neprekvapili. Vcera vydany RTX patch vetsine revieweru pada, ma necekane lagy a chova se celkove nestabilne.
Tak on ten "hate" vychází z kombinace nepodporování jakékoli jiné synchronizace na Nvidia kartách a extrémně vysokého příplatku za G-Sync v monitorech.
Kdyby to bylo buď tak, že "sice budem podporovat jen G-Sync, ale řekneme si za něj jen rozumný příplatek, např. $30-50 oproti stejnému FreeSync monitoru", nebo "můžete použít i jinou synchronizaci, ale ta naše je nejlepší a proto by vám mělo stát za to si těch cca $200 připlatit, ale nutit vás nebudem" - tak v obou těchto případech bych proti tomu neřekl ani slovo.
Ale chvíli, kdy Nvidia chce za možnost synchronizace obrovský příplatek a úmyslne blokuje alternativní možnosti synchronizace, tak to je opravdu nepěkné a vzhledem k její pozici je to jasné zneužívání dominantního postavení na trhu. Kdyby ho neměla, uričtě si toto nedovolí.
Už to vidím, ultra detaily: rtx2070 v 1080p-47FPS a ve 4K-19FPS. rtx2080 v 1080p-54FPS a ve 4K-22FPS. rtx2080Ti v 1080p-65FPS a ve 4K-29FPS.
No nádhera to není, ale vzhledem k tomu že to jsou první ovladače na světě, v první hře, tak celkem luxusní. Pro hráče FHD naprosto perfektní, 4K hráči zapláčou. Výkon mezi kozy ve 2,5K s 30FPS u rtx2070 také není k zahození. Co říkal crha? Měsíc před vánocma tady budou raytracingové hry! A jsou tady! Mesíc a ještě pár dní k tomu navíc! Jak to sakra ten Crha guru všech IT dělá, že ví všechny ty informace. A vůbec jak dopadla ta jeho umělá inteligence u nVidie?
Mrkneme ke konkurenci....aha tak nic.
Jeste tak mit normalni intelienci Hnizdile k tomu, aby jsi pochopil, co znamena "uchytit v dohledne dobe". Ale chapu, ze kdyz nemas a vypis par her ti muze pripadat, jako fakt, ze se dana technologie uchytila. Chapu, ze detaily typu, ze nejpise vsechny tyhle hry bude NV bud primo nebo neprimo podporovat, aby nejaky RT efekty dodelali, to je na tebe uz prilis. To je presne ten nefanaticky nefanouskovsky postoj, ktery ty bezne predhazujes jinym :D
Hnizdo: Nazvi si mě jak chceš :-), já říkám jen svůj názor. Jak jsi jistě ze závěru "možná" pochopil, tak vlastním kartu Nvidia a tudíž nezatracuji jakkýkoliv dobrý a výkonný produkt a je mi jedno jestli je to AMD či Nvidia. Mám rád otevřenost, prospěch a užitek vývoje technologií pro všechny bez rozdílu (což dělá AMD, NVidia bohužel ne). NVidiaovce podle toho co píšeš jsi bohužel ty. Ano nemám má tvrzení podložená konkrétními výsledky z konkrétních vydaných her, mám je z různých zdrojů a není to rozhodně DDWorld :-). Je to vyjádření vlastních tvůrců těch her, kde se má techologie RTX objevit. A asi to není úplně ono, jak slibovala ve svých prezentací sama NVidia, jinak by přece ty hry byly dávno na světě a všichni by žašli, jak jsou Raytracing efekty úžasný ?! :-) Ano, raytracing má budoucnost, ale né teď a rozhodně ne z takovým výkonem, co mají dnešní karty.
Nemůžu nic než souhlasit. Jenže takhle to tu nikdo neřekne. :)
Ono obecně to trpí efektem, že u těch highendovějších monitorů ten příplatek už není na první pohled tak markantní, ale když základní FHD 24 palců se není za ty roky schopná dostat pod 10k a to i s TN panelem, tak se ta technologie mezi lidi těžko dostává.
On je jen Tynyt smutnej, jak je AMD pozadu. Ani nejnovejsi Vega 20 pro profi segment neprisla s odpovedi na TensorCores. AMD jeste ani poradne nezvladlo tile-based rendering a SMP. Ted navic Nvidia prisla s dalsi zasadni veci, kterou AMD nema - raytracingem. A tenhle AMD jouda z clanku de facto rekl: "My jeste raytracing nedokazeme udelat, nezvladneme to ani po nekolik pristich let, konkurence nam utekla. Tak budeme rikat, ze nema raytracing smysl, dokud ho nebudou zvladat i Casio kalkulacky. Do ty doby to snad stihneme navrhnout a pridat se. A treba nam to i nekdo z naseho minipodilu na trhu uveri."
Já za raytracing Nvidii nezatracuju, jen mě nesedí, jak to prezentuje. Někdo s tím musel příjít, že je to zrovna NVidia je fajn. Pokrok se třeba zase o něco pohne dál. Jak již jsem psal, mám teď v PC bazarovou AORUS 1080 Ti (a to jsem i chvíli přemýšlel o RTX 2080) a to jen proto, že chci výkon pro svůj 4k monitor, předtím jsem měl Vegu 64 a bohužel ta to tak nezvládá, jako Pascal. Ale i za to hned AMD nezatracuji, s Vegou se vydala taky jinou cestou a "narvala" do ní pro hráče až zbytečné vychytávky, které jsou na úkor celkovému výkonu karty a tedy taky v této době k nevyužití. Slabší podpora nativního DX12 (Vulkanu) ve hrách je škoda, bohužel způsobená ze strany vývojářů her, ale má to do budoucna přínos pro většinu.
Priplatek je za gsync modul, ktery pocita scaling, adaptivni overdrive a v pripade gsync2 zonove podsviceni s lagem jednotek ms.
U 4k gsync2 monitoru je potreba hradlove pole altera od intelu, ktera se prodava v retailu za $2600. Nepochybuj o tom, ze kdyby to slo levneji, udela se to levneji.
Nevím Hnízdo, jestli nějaká optimalizace pomůže tomu, že na 2080ti ve fullHD máš 32 fps v minimu, to si raději zahraju ve 4k bez RT. Ale zatím je to jen jedna hra, jsem zvědavý na další
https://www.pcgamesn.com/nvidia-rtx-ray-tracing-battlefield-5
Odkud bereš prosím ty fps? Na https://www.pcgamesn.com/nvidia-rtx-ray-tracing-battlefield-5 jsou ty fps s RT na 2080ti o dost menší
ó po čtvrt roce.... ö vega pro roce a půl tak jste se dočkali.... ale dodnes to je kolik... dva a půl roku pořád nejsou zprovozeněny ty údajné hi-tech fíčury které zdupou nvidii na prach. Takže skluz tři měsíce u revoluční technolgie oproti skluzu třiceti měsíců konkurence. Fšak jo, počkejte si na Navi, počkejte si dalších pět let, AMD na tom just workituje! Jak dlouho už amd fanoušci čekají na pořádnou kartu? 10-12 let? looollllll zahrajete si vubec někdy nějakou hru? Třeba s fousama u kolen?
"rtx2080Ti v 1080p-65FPS a ve 4K-29FPS" to bylo u které z těch her? Průměr všech? Protože Fallout 76 má tak zastarou grafiku, že tam by měly být vysoký FPS automaticky. :D
A kombinace 2080Ti + 1080p + Ultra = 65fps, to mi zní přesně jako obavy, které kolovaly - že na dobré fps to pojede jen ve FullHD - což asi není rozlišení, které preferují vlastníci 2080Ti. Specielně protože vyšší rozlišení se stabilně vysokýma fps nejspíš grafiku zlepší o dost víc než ten RT v 1080p.
Samozřejmě je to první neoptimalizovaná verze, ale upřímně netuším z čeho jsi tak nadšený. :D
Podle výsledků v BF 5 tedy žádná sláva! Ve 2560x1440 RTX 2080Ti dává kolem 120FPS, ale se zapnutým RTX výkon klesne na méně než 50FPS v průměru, ale se znatelnými propady ke 30FPS v průběhu hraní, takže to prostě není plynulé. Ve 4K FPS stěží překračují 30FPS v mnoha případech s aktivním RTX se zásadními propady minimálních FPS. GK za 33 tisíc a více a o tom, že dokáže 60FPS ve FullHD v roce 2018? To za tu cenu asi nestojí, co myslíte? Kdo z Vás bude hrát s touto kartou ve FullHD? Kolik je ce hře cca % raytracing efektů oproti zbytku, tak 1-3%?
No nevím, ale pro mě žádná sláva, tohle je to slibované „i just work it“ ?!!! V multiplayeru Vám bude stačit 30 +- fps, to asi těžko....
myslis jako tech her, ktere terpve vyjdou? neco jako timemachine? ;)
o te kvalite soudis dle prvni implementace bez jakychkoliv optimalizaci a predchozich zkusenosti, kdy to hned realne funguje v hratelnych fps na alfa driverech a testovacim sestaveni windows/rtx?
to je pro mne neuveritelny uspech na strane nvidie, microsoftu i vyrobcu her. naopak to vypovida o pripravenosti a snadne modularite, jinak se s tim hrabou jeste rok.
Karty AMD maju RX implementovane roky tak ako DX12. To že po dlhych rokoch Nvidia konečne začala podporovať DX12 a po veeelmi dlhych rokoch konečne zaviedlo aj RX jadra. To že RX jadra AMD su multifunkčne a dokažu robiť aj niečo ine ako zaberaj 1/3 čipu zbitočne je navrh AMD ktory je tu už roky. Nvidia si vymyslela RX jadra samostatne čo je dobre keby RX sa viuživalo vo velkom, lenže ich RX jadra niesu kompatibilne tak že vyvojari musia nanovo optimalizovať na Nvidiu čo znamena že to bude trvať dlhe roky kym ta 1/3 čipu čo žerie elektrinu aj ked nič nerobi a draho ju zaplatime, bude na nejaky užitok.
BF V nepouziva pro raytracing DLSS post processing, narozdil od doporuceni Nvidie. Navic pro 4k scenu renderuji odrazy take ve 4k. Takze optimalizacnich moznosti je tam stale cela rada. Ale vzhledem k tomu, pod jakym jsou tlakem dorucit slibeny battle royale mod, asi nemuzeme v dohledne cekat vic RTX features, nez ty odlesky/odrazy.
J8 teda klidně pochybovat budu, protože u ne-HDR freeSync je to celkem jasný. To G-Sync HDR 2je dost okrajová záležitost, možná byli příliš ambiciózní. Ale cena toho FPGA v počtech, které kupuje Nvidia, určitě není 2600, bude to maximálně pár set USD. To, že se komponenta prodávaná obvykle ve velkých množstvích v malém počtu kusů prodává několikrát dráže není zvláštní. Ono už jenom proto, že při velké zakázce se prostě něco vysmlouvá přímo u výrobce, od čehož je taková nějaká položková cena u online retailera (marže navíc...) hodně vzdálená.
U obyčejných, třeba jen fullHD 144Hz monitorů, apod, tak určitě nebude cena G-Sync modulů o $150-200 nebo ještě o více nad cenou FreeSync modulu, který taky není zadarmo přece. Tady se neporovnává cena monitoru bez ničeho a s nečím, ale rozdíl Freesync/G-Sync, což jsou hodně podobné technologie a FreeSync taky není žádný šunt a funguje dobře.
A je šílené aby u běžných monitorů za cenu kolem 10-15, max. 20 tisíc Kč, tak ten rozdíl byl cca 5 tisíc...
O extrémech jako 4K a GSync HDR 2 nemluvím.
Tak podle tech testu nedava 2080Ti tech 60fps ani s nejvyssim nastavenim RT ve FullHD. Je treba jit na medium, jinak to spadne na 45fps..
1440p to dava na medium taky s 45fps s odrenyma usima, kdyz jim to pada pod 40..
4K je nepouzitelne pro PC hrace..
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Battlefield-5-Day-1-Patch-Direct-X-12-Nvidia-RTX-1269296/
Graficky pekne odlesky, ale vykonove se zadna slava se bohuzel nekona..
Podle DIIT mainstreamoví hráči hrajou na FULLHD, takže no problemo. Jsem nadšený, protože to není 15FPS jak by si AMD trolové přáli. Hranice plynulosti pro lidské oko je 24FPS a to v 1080p davají všecky RTX karty. LOOOLLLL proto jsem nadšený. Já nejsem ROZMAZLENEJ fracek, já si pamatám doby kdy vyšla nová hra a grafiky ji neuměli a všem se to sekalo i na medium. Třeba FarCry 1 a není to zas tak dávno, tak starej ještě nejsem. Takže pokud dneska nadává na 55FPS, že to je málo, tak je pro mě jen zhýčkané sprosté rozmazlené malé dětsko. nic víc.
Naopak Hnizdile, ja stale cekam na benchmarky VYDANYCH her a proto se vetsinou k tomu, jestli se bude dat s RT efekty hrat ve 1080p nebo 4k nevyjadruji. Tak cekam na to, jak ty efekty ve VYDANYCH hrach budou vypadat.
Chapu, ze te komentar rozlitil, zvlaste potom, co kolega predjima veci, aniz by je mel necim, krome slovnich vykadreni podlozene. Jinmi slovy presne to same, co delas ty :D
AMD přece taky podporuje vývojáře her, na podpoře přece není nic špatného. Jde přeci o to, že bez podpory (zapalacení) implementace Raytracing by to asi sami vývojáři do těch her nedávali, protože pro drtivou většinou herního trhu (mainstream PC, konzole) je to nepoužitelné a delší dobu ještě bude !
Tento príspevok si nemyslel vážne, že nie? Je to jasné, že Radeon Rays nie je to isté ako RTX, že? A že niečo ako Radeon Rays má aj NVIDIA už roky. T.j. softvérovú akceleráciu RT cez stream procesory. Nemyslíš si naozaj, že Vega GPU s 4096 streeam procesormi v tomto smere viac ako 4 Titan Volty s dokopy zhruba 21 000 stream procesormi, že nie?
FreeSync používá jako "modul" v podstatě standardní elektroniku pro LCD. Je možné že v těch high-endech je nějaká víc nabušenější než obvykle, ale principiálně FreeSync myslím nepřidává k ceně materiálu signifikantní přirážku. Celé to dělá nějaký čip, který tam v jiné podobě byl už předtím, výrobci té elektroniky jsou stejní, IIRC. A není tam lokální RAM jako u G-Syncu.
Tombimimino o čem to meleš? Rozmazlené malé dětska potřebují 40FPS na hraní? nebo 32FPS nebo kolik? Měl by jsi být rád, že konečně AMD dohnala nVidii a podává víc FPS, akorát to zapříčinla nVidie. Nezapomeň napsat že výkon nVidia karet stárnutím a novými ovladači klesá výkon a proto je AMD dohání. LOOOLLLLLL platí to co jsem tu napsal, jen malé zhýčkané dětsko brečí nad tím že 55FPS je pro jeho trapné malé ubohé očička málo. Všem tady těm dětičkám aptří nasrat do ruk, hezky na brigádu vydělat si na RTX2080Ti a hned bys viděl jak by omldívali blahem nad 24FPS. ROZMAZLENCI.
Tak holt někdo s tím musel přijít první. Jestli je to brzo nebo ne je celkem jedno. Je jasný, že se bude postupně pracovat na vylepšení technologií a taky na implementaci do her. Je to tak u všeho přece. Mě se spíš líbí, že iDDiot napíše, že AMD je průkopník technologií, protože přišel jako první s DX12 a Nvidia jen brzdí vývoj, protože Nvidia má plnou podporu DX12 až teď. Stejně tak to může být řečeno naopak o Raytracingu. Nvidia to má první a AMD zdržuje. Je to padlý na hlavu. Nikdo nic nezdržuje. Jen ta daná firma s tím přišla první. A ta druhá na to najede, až uzná za vhodné.
https://www.pcgamesn.com/nvidia-rtx-ray-tracing-battlefield-5
Tady je první test Tombo jsem zvědavý o kolik to dokážou zoptimalizovat, škoda že to neotestovali i na 2080 a 2070
V tomhle pripade neco mezi jednim nebo dvema rady, v zavislosti na scene/technice. V uvahu jsem bral deklarovany rozdil ve vykonu raytracingu mezi GTX 1080Ti a RTX 2080Ti a normalni vykonostni rozdil mezi Vegou 64 a GTX 1080 Ti.
Btw, porad jsi nedodal zadne dukazy pro ta tva alternativni fakta, na kterych si postavil cely ten clanek o DLSS:
„Jan Olšan 17.9.2018 at 15:13“
„Co vidíš, je prostě efekt toho, že DLSS pracuje jako spatial filtr, jen s jedním obrázkem. Protože nefunguje temporálně (s více snímky)“
https://www.cnews.cz/nvidia-dlss-deep-learning-supersampling-upscaling-princip-fungovani/#comment-194887
"Jan Olšan 8.11.2018 at 20:51"
"Tyhle řeči o rozpoznávání objektů jsou abstraktní hodně za vlasy přitažená omáčka, reálně to ta neuronální síť nedělá, prostě jen vezme pixely, upraví je podle svých natrénovaných vah."
https://www.cnews.cz/amd-procesory-cpu-architektura-zen-2-zlepseni-ipc-avx2-mcm-chiplet-epyc-rome-servery/#comment-198256
Pritom DLSS zcela jasne funguje jako temporalni sit, pracujici s vice snimky, jak dle vyjadreni primo sefa Nvidie zde:
„Network has to remember part of the past.“
„Network has to be temporaly stable.“
https://youtu.be/Mrixi27G9yM?t=52m35s
Tak dle Turing Whitepaperu zde:
„Finally, Figure 24 illustrates one of the challenging cases for multi frame image enhancement. In this case, a semi-transparent screen floats in front of a background that is moving differently. TAA tends to blindly follow the motion vectors of the moving object, blurring the detail on the screen. DLSS is able to recognize that changes in the scene are more complex and *combines the inputs in a more intelligent way that avoids the blurring issue*.“
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf (strana 35 dole)
A je to bez te pomlcky mezi „multi“ a „frame“. Vyhledavani krasne funguje.
A kdyby to nestacilo:
„DLSS leverages a deep neural network to extract multidimensional features of the rendered scene and intelligently combine details from multiple frames to construct a high-quality final image.“
https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/
Ta informace o rozpoznavani detailu k dispozici je taky, jak z keynote sefa Nvidie, tak v dalsich prezentacich. DLSS je convolutional autoencoder. Viz treba zde: https://youtu.be/QLMDX56-GSU?t=338
Autoencodery ve zpracovani obrazu se uci rozpoznavat objekty ve zdroji.
„Some architectures use stacked sparse autoencoder layers for image recognition. The first autoencoder might learn to encode easy features like corners, the second to analyze the first layer’s output and then encode less local features like the tip of a nose, the third might encode a whole nose, etc., until the final autoencoder encodes the whole image into a code that matches (for example) the concept of ‚cat‘.“
https://en.wikipedia.org/wiki/Autoencoder
Doslova – prvni layer autoencoderu se nauci rozponat hranu, dalsi na zaklade toho predchoziho spicku nosu, dalsi cely nos .. az na konci pozna, ze je na obraze kocka.
Takze abych to shrnul:
Ja jsem dodal odkazy na vyjadreni nekolika lidi primo z Nvidie, odkaz na jejich whitepaper, coz oboji potvrzuje, ze je ta DNN temporalni. Ono taky jak jinak chces sledovat „zmeny v obraze“ – „DLSS is able to recognize that changes in the scene are more complex“ – bez znalosti predchoziho stavu? Dal jsem sem i odkaz s jasnym vysvetlenim, ze autoencoder pri rozpoznavani obrazu identifikuje detaily. Linknul jsem i vysvetleni z TechPowerUpu o tom samem, ktere je jasne popira, co tvrdis ty.
Ty zatim nic, stale cekam, kde je napsano cokoliv o tom, ze DLSS je spatial filtr a vyslovne napsano, ze tvrzeni Huanga na keynote o temporal DNN je nepravdive.
Novinarska etika se asi nekam vytratila. Porad nam tu budes okecavat tvoje totalni novinarske selhani. Tvoje reci o vykrucovani, uhybani a alternativnich faktech asi rad aplikujes jen na ostani, na tebe ne, vid? Double standard, hezky ..
Odpovedel jsi tak, ze jsi delal blbyho, ze to jak v tom whitepaperu nemuzes najit. Kazdej si to muze dohledat.
"Jan Olšan 8.11.2018 at 20:51"
"Ten tvůj „multi-frame image enhancement“ tam ve whitepaperu pomocí ctrl-f nikde nevidím."
https://www.cnews.cz/amd-procesory-cpu-architektura-zen-2-zlepseni-ipc-avx2-mcm-chiplet-epyc-rome-servery/#comment-198256
Pritom to naprosto krasne jde. Strana 35 dole. Staci jen hledat bez pomlcky, jako v te citaci. Och, jaka chybycka se vloudila. Jsem si jistej, ze zceeeeela neumyslne ;) A ze jsem dal odkazy jeste na dalsi zdroje, to uz bylo ignorovano uplne :D
Na schopnost rozpoznavat objekty v obrazu u autoencoderu jsi taky neodpovedel. Samozrejme. Protoze to zcela vyvraci tva tvrzeni a cely tvuj clanek o DLSS.
A od kdy nelezi dukazni bremeno na predkladateli argumentu? To ty tvrdis, ze DLSS je spatial filt a neni temporalni, takze ty by jsi mel sva tvrzeni podlozit. Zatim jsi nepredlozil nic. Na druhou stranu existuje cela rada dukazu o opaku, viz odkazy a citace nahore.
Co se tyce Battlefieldu V a "narustu vykonu", tak zcela jasne jsem mluvit o nahrazeni narocnych efektu - "osvetleni, stiny, prohlednosti, ambient occlusion" - takze zase predkladas alternativni fakta:
"Maudit 21.8.2018 at 14:06"
"No ale hlavne ten vykon – pokud bude hra vuyzivat RT, tak ty nejnarocnejsi efekty, jako je osvetleni, stiny, prohlednosti, ambient occlusion, atd. bou pocitani mnohem efektivneji nez pred tim (na RT cores) a to s fotorealistickou kvalitou (pujde o skutecny odlesk, stin, atd. a ne o zadnou nahrazku). A to strasne moc ulehi praci klasickym CUDA cores. Narust vykonu u her, ktere boud RT vyuzivat, byt prave ocekaval dost dramaticky."
Nic z toho v Battlefieldu renderovano pomoci raytracingu neni. Battlefield nahrazuje pouze screen space reflections, ne mirror efekty (v BF V bez raytracingu mirror efekty nejsou, jen SSR). Stiny a globalni iluminaci vubec raytracingem nepocitaji. Tak kde by jako mely byt uspory?
Treba hra Enlisted, kde pomoci raytracingu delaji zcela globalni osvetleni, dokaze dat 120 fps pri 4k rozliseni bez problemu.
https://youtu.be/ZnQRzLZ5nEE?t=3m15s
A o tvych moralnich kvalitach se muzou presvedcit ctenari I tim, ze si prectou ten clanek Chaosgroup, kde se jasne pise, ze jde o mereni pred mnoha optimalizacemi, ktere maji v planu:
"We can still do some performance testing with what we have today, but keep in mind that final performance will probably improve."
"The tests below use an internal build of V-Ray GPU with RT Core support enabled. There are still many improvements that we expect will allow us to increase performance further."
https://www.chaosgroup.com/blog/profiling-the-nvidia-rtx-cards
Coz jsi samozrejme zamlcel ;) To mě na tobě právě štve, proppagandisticky pouštíš naprostý kraviny/lži a doufáš, že to někoho oblbneš do doby, než to někdo uvede na pravou míru…
Vzdyt ty troubo Maudite vubec nedokazes rozlisovat mezi tim co je lez a neni. Staci jake kravinyu jsi tady vylhal vcera s tim, ze HWUnboxed nema u videii ani 5k sledovanost. Pritom jejich top video minuleho tydne melo 147k shlednuti.
Jsi opravdu tak dementni, ze ti nevadi lhat a vymyslet si a delat ze sebe idiota, a kazdy to o tobe vidi?
No vidis Maudite, tady ukazujes, ze nejsi nic jineho nez uplny pitomec.
Neni ti divne, ze posledni videa jsou datovane cca pred rokem? Ze tam nejsou zadne testy CPU, grafik nic, ale vsechno je to na HWUnboxed? Je to prilis narocne na tvou inteligenci? Nedoakzes si srovnat 1 a jedna v hlave?
ANo maji nejspis spatny link na strance, nicmene asi predpokladaji, ze jejich ctenari maji aspon zakladni inteligenci, kterou ty postradas..
Vic nemam k tomu co rict, protoze bavit se s nekym kdo je tak pitomy a omezeny jako ty je nad me sily..
@Hharry..uz je to otestovany i s 2070. Podle ocekavani to 2070 nedava pokud je nastavena kvalita RT na ultra, pohybuji se v testovaci scene v 1080p okolo 30 fps a nize. Pokud chce mit RT zapnuty, musi jit na RT low nastaveni, pak to skoci cca na 45fps.
2080Ti neni ale taky zadna vyhra s maximalnim nasrtavenim RT. jsou FPS nezvykle casto casto i mezi 30-40fps ve FullHD ve scene, kterou ukazovali.
Video s prubehem FPS a 2080Ti a 2070 je ke shlednuti tady...
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Battlefield-5-Raytracing-Performance-unter-die-Lupe-genommen-1269324/
No já bych řek, že další Mauditova hyper train bublina splaskla !lidi je tu RT! a výkon? No přesně takový jako tu vsichni rozumní tvrdili... Žádné zvyšování se nekoná naopak je to těch cca 60FPS v FHD při použití 9900K a 2080Ti... Jak dopadne třeba taková 7700 s 2070 si zatím nedovolím odhadovat, ale na ultra to asi nebude hratelné no...
Maudite aspoň jednou přiznej žes kecal... buď aspoň jednou chlap... Já taky přiznal když jsem se mýlil a dokázal jsem se i omluvit... Pravda mi už je prakticky 40, ale měl by ses taky zachovat jak chlap a ne dítě...
https://www.guru3d.com/articles_pages/battlefield_v_pc_performance_benchmarks,7.html
A Jan má s Tebou fakt neskutečnou trpělivost...
Zas zopakuji tady nikdo rozumný nemá problém s tím, že nVidia přišla s RT. Je to první vlaštovka a proto je spíš na dema... Až další grafiky přinesou potřebný výkon. Tady je problém s Tebou a s těmi Tvými pohádkami... Ne nebojuješ s AMD fanatiky, ale se svou vlastní hloupostí...
http://www.hardwareunboxed.com
Toto opravdu vyzaduje nadlidske usili pochopit...
@janolsan
"Dal si mi to s pomlčkou, tak sem hledal s pomlčkou a nenašel, to není mode chyba."
Reality check - post s moji odpovedi, kdyz jsi se ptal, kde to je:
"Maudit 7.11.2018 at 23:42"
„multi frame image enhancement“
„DLSS is able to recognize that changes in the scene are more complex and combines the inputs in a more intelligent way that avoids the blurring issue“
https://www.cnews.cz/amd-procesory-cpu-architektura-zen-2-zlepseni-ipc-avx2-mcm-chiplet-epyc-rome-servery/#comment-198185
Kde jako vidis pomlcku? To uz jsi spadl tak hluboko, ze se budes vykrucovat primo lhanim?
K tomu se asi pridala i selektivni slepota, viz:
"Tam se ale mluví o TAA, lolol. „Obrázky 24 ukazují problémy při multi-frame enhancementu“ (tj. když se používá TAA)."
Ne. Na levem obrazku je TAA, na pravem DLSS. Jsou zcela jasne oznacene. Opet se na ty obrazky muze kazdy podivat sam a videt, co jsi zac.
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf (strana 36 uplne nahore)
A I kdyby nakrasne to vubec melo sebemensi nejistotu (jakoze nema), jak se hodlas vyporadat s dalsimi zdroji? Treba ze sam Huang mluvi o tom, ze ta neuralni sit si musi pamatovat cast minulosti?
„Network has to remember part of the past.“
„Network has to be temporaly stable.“
https://youtu.be/Mrixi27G9yM?t=52m35s
Nebo s dalsi Nvidia prezentaci, ktera vyvraci dokonce oba aspekty tvych tvrzeni?
„DLSS leverages a deep neural network to extract multidimensional features of the rendered scene and intelligently combine details from multiple frames to construct a high-quality final image.“
https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/
Jedine, co od tebe mame, jsou tvoje vlastni domnenky a smyslenky, ciste fabulace, bez dukazu:
"To multiple inputs tady nejspíš znamená jakože přeneseně multiple inputs v tom MSAA obraze, na kterém se trénovalo."
Nejspis. Jakoze. Prenesene. Nekolik.
Takhle vykrucovat jsem uz dlouho nikoho nevidel. To chce opravdu totalni absenci svedomi.
@tombomino
"Staci jake kravinyu jsi tady vylhal vcera s tim, ze HWUnboxed nema u videii ani 5k sledovanost."
Reality check:
"tombomino 13.11.2018 at 20:39"
"Tak Techspot narozdil od Maudita neco umi a sleduji ho miliony uziivatelu."
"Maudit 13.11.2018 at 20:48"
Techspot a miliony uzivatelu? To je dobtej vtip. Velka cast jejich videi na youtube neprekroci 5k views, dalo by se rict, ze prumer je ani ne v nizkych desitkach tisic, snad se dvema trema vyjimkama, kdy se nejaky review mobilu dostalo lehce nad 100k."
"tombomino 13.11.2018 at 21:14"
"HWUnboxed, coz je youtube cast Techspotu ma 291.000 subscriberu"
Ve skutecnosti opravdovej youtube kanal techspotu je tenhle:
https://www.youtube.com/user/techspotdotcom/videos
Odkazuji se na nej i na svoji strance (uplne dole je link):
https://www.techspot.com/
Ma jen 11,650 subscribers. Kde jsou ty miliony followeru, ty jeden sedmilhari (oblibeny Olsanuv termin)?
Takze je to presne opacne nez rikas :D Ne ze je HardwareUnboxed YouTube kanalem Techspotu, ale Techspot zacal prebirat jejich recenze do textove podoby, protoze nejstarsi videa na HwUnboxed jsou 3 roky stara (tzn. v te dobe normalne bezel kanal TechSpotu).
https://www.youtube.com/channel/UCI8iQa1hv7oV_Z8D35vVuSg/videos?flow=grid&sort=da&view=0
Coz potvrzuje i zprava na jejich webu.
"Please visit TechSpot.com for written versions of the Hardware Unboxed videos." :D
„tombomino 13.11.2018 at 20:39“
„Tak Techspot narozdil od Maudita neco umi a sleduji ho miliony uziivatelu.“
Porad cekam, kde jsou ty miliony uzivatelu. Zatim mam jen 292,279 subscribers a:
"Pritom jejich top video minuleho tydne melo 147k shlednuti."
@janolsan
"Hmm, tak jestli si tam pomlčku tehdy neměl, tak moje chyba. To je asi jediný, za co se můžu omluvit… dál už jsem to nečet, protože to je pořád dokola a snad už v 10. vlákně."
Ano, a ani v desatym vlakne jsi nam porad nicim nedolozil, ze je DLSS jen spatial filter, netemporalni, bez schopnosti rozpoznavat objekty ve scene. S dolozenyma faktama, ktery tvoje tvrzeni vyvraceji, jsi se nevyporadal ani naznakem.
Ani na tu zcela se nabizejici a ocividnou otazku, tedy jak muze DLSS poznavat zmeny ve scene, pokud by si nepamatovalo alespon jeden predchozi snimek - "DLSS is able to recognize that changes in the scene are more complex" - jsi neodpovedel.
:)
Jasne Maudite, pitomec, ktery si mysli, ze kdyz si klikne na odkaz pod strankou a neoveri si kam jej to zavede, tak se muze vysmivat (nic jineho stejne neumis) webovce, aby jsi si obhajil nejake svoje vylhane tvrzeni. Kazdy, kdo trochu sleduje deni tak vi, ze videa HWUnboxed jsou na Techspotu v textove forme. Je uplne jedno, kdo si kam co dava a nedava. Testy CPU, grafik jsou na HWunboxed jako videa. Jsi se chtel tradicne vysmivat a slapl jsi jako vzdy vedle. Ted se tady kroutis jako male dite, kdyz ho doma zaskoci rodice, kdyz si prohlizi playboy a snazis se z toho tradicne vylhat. Se svou intelienci houpaciho kone, jeste tuhle svoji pitomost budes obhajovat.
IQ tykve.. s mentalni retardaci..
Crha - některým těm tvým "rozmazleným malým sprostým děckům", třeba jako mě, už dávno není -náct a dokážu si i na předraženou RTX 2080Ti vydělat bez brigády. Každý ale normálně myslící člověk, si rozhodně nebude kupovat GK za 33 tisíc jen kvůli pár efektům ve hře, kterých si možná ani nevšimne a stejně je ve výsledku bude muset vypnout, aby si alespoň slušně zahrál.
Fakta jsou fakta, prostě RTX grafiky jsou oproti GTX řadě mimo (ano RTX je dobrý nápad do budoucna, ale rozhodně né teď) a NVidia to samozřejmě ví a teď to bude jen na takových lidech jako jsi ty, aby jim to zpětně pěkně zaplatila :-). Všechny fakta stejně jen překroutíš a i kdyby třeba dávala RTX 2080Ti na Full HD pri RTX on jen 10 fps ve hře a stála by 100 tis.Kč, tak budeš stejně tvrdit jak je to super a že ti to v pohodě stačí na hraní, a že jsou všichni rozmazlenci atd. :-) :-)....
Hele Pitomce, v predchzich prispevcih jsem ti napsal, ze za pouhy tyden meli videa na HWUnboxed pres 600k shlednuti. Pokut tato informace do tveho vrabciho mozku nedorazila a nebo ji neni schopen zpracovat, tak to je uz tvuj problem. Jestli neko sleduje video nebo stranku s prepisem videa je uplne jedno. Dale mne tvoje idiotske kometare uz nezajimaji, protoze bavit se mentalne retardovanym clovekem nema smysl.
Ano, suma vsech videi za cely tyden. A to jsou pravdepodobne porad ti sami uzivatele. Sam jsi rekl, ze nejsledovanejsi video za ten tyden melo 147k shlednuti. Pocet pravidelnych uzivatelu je tim padem mnohem mensi. Takze znovu, kde jsou ty miliony uzivatelu, o kterych jsi mluvil? :D
Minule jsem ti odpověděl, a že se ty tváříš, že si vůbec nebyl na omylu a že jsi jako "něco dokázal" je neupřímnost/lhaní.
A jinak 1-2 řády u mě teda není "několik" ale maximálně pár. Ale jsem rád, že jsme si to vyjasnili. To mě na tobě právě štve, proppagandisticky pouštíš naprostý kraviny/lži a doufáš, že to někoho oblbneš do doby, než to někdo uvede na pravou míru... a koneckonců, třeba té korekci lidi nebudou věřit, že jo, tak proč bychom si nezalhali!)
ptal jsem se proto, protože jsem nedávno viděl tohle: https://www.chaosgroup.com/blog/profiling-the-nvidia-rtx-cards
Je tam srovnání mezi (pro, ne herním) renderingem s použitím RT cores a s obecnými výpočty (CUDA) a zatím to není ani jeden řád rozdíl (10x), natož 1000x a víc (což by byly tři řády, neboli několik řádů rozdílu, což si tady zkoušel implikovat.
P.S.:
Co Battlefield V? Pamatuju si, jak jsi na mě křičel, že RTX bude zvyšovat výkon, protože offload na RT jádra uvolní prostředky :)
"Pritom to naprosto krasne jde. Strana 35 dole. Staci jen hledat bez pomlcky, jako v te citaci. Och, jaka chybycka se vloudila. Jsem si jistej, ze zceeeeela neumyslne ???? A ze jsem dal odkazy jeste na dalsi zdroje, to uz bylo ignorovano uplne ????"
Dal si mi to s pomlčkou, tak sem hledal s pomlčkou a nenašel, to není mode chyba. Taky jsem znovu nepročítal legendu obrázku, ale jenom hlavní text, kde by mělo být to podstatné, ne? Taky si mohl hned říct, kde to je, protože já s tebou už tak ztrácím hodiny času.
Tam se ale mluví o TAA, lolol. "Obrázky 24 ukazují problémy při multi-frame enhancementu" (tj. když se používá TAA). Tak doufám, že teď už sklapneš, ty pohádkáři. BTW pořád se tu na to naráží, ale TAA nemusí nutně tímhle rozmazáván trpět. Pokud by se analyzovala scéna a pohyb a pak se to dělalo adaptivně (tj. při pohybu nerozmazávat, nebo použít kompenzaci pomocí vektoru), tak by to fungovalo líp.
"DLSS is able to recognize that changes in the scene are more complex and combines the inputs in a more intelligent way that avoids the blurring issue." --- tohle je podle mě ten příklad vágnosti, z který si vyvozuješ víc, než tam je. To multiple inputs tady nejspíš znamená jakože přeneseně multiple inputs v tom MSAA obraze, na kterém se trénovalo. IMHO je to hodně zavádějící, ale Nvidia to takhle prezentovala i jinde, takže tohle bude asi stejný případ. Když v hlavním popise není nic o temporálním fungování, tak fakt pochybuju, že by tak zásadníí informaci schovali do popisu obárzku.
P.S. Já taky nikde netvrdím, že je to definitivní výkon, nejsem jako ty. Ale když je tam 2X rozdíl a ty si vymýšlíš, že tam má být 1000X a vyšší rozdíl ("několik řádů" rozdílu), a ten předběžný/ranný benchmark je o několik řádů :) jinde než to, co tvrdíš, tak asi tak, no...