Ja neviem či som eblý ja ale nechápem tie stále nadávania na niečo, keď prichádzal DX12 tak to tu všetci ospevovali (hlavne tý čo teraz len nadávajú) aké je to úžasné ako to znižuje nároky na HW ale graficky to neprinieslo nič teraz nastal čas aby sa tie rezervy využili aj HW je výkonejší tak prečo nie to nejako zužitkovať. Ale skôr si myslím že celý problém je len to že NVidia.
Například jde o to, že pro RTX se musely přidávat zcela nové části GPU. Takže klasický rasterizační výkon nenarostl tak jak by asi mohl. Máme tu 120Hz 4K LCD, 4K VR potřebující 90FPS do každého oka. Takové požadavky zatím zůstaly HW nepokryty (pokud tedy nepočítáme dvojici 2080Ti) a co je horší vzhledem ke zmeně priorit (RTX) patrně zůstanou nepokryty i 7nm generací. Místo silnějšího HW se vymýšlí způsob jak ušetřit výkon degradací kvality obrazu mimo hlavní zorné pole, jako by nestačila již ṕřítomná optická degradace.
No, bezosporu je to zo značnej časti tak ako píšeš a pre xy diskutujúcich je DLSS aj RT na p**u hlavne pre to lebo s tým prišla nVidia. Ak by to bolo od AMD tak by sme naopak od nich čítali ako to ťahá vývoj ale tí lenivý vývojári a podplatné herné štúdiá to odmietajú implementovať či to robia zle.
Na druhej strane ale treba uznať že RT ako vyzerá dnes vážne nie je nič z čoho by sme padali na zadok a keď si vezmeš ako to nVidia prezentovala ako hotovú vec, ako to mrzačí výkon aj RTX kariet po zapnutí a ako si tie RTX karty naviac nVidia nacenila neubrániš sa pocitu že je to zatiaľ bieda. DLSS to isté, pridá fps viac menej len ubratím kvality/ostrosti obrazu - zase nič svetoborného.
A napr. aj ja sa radím medzi ľudí ktorí si myslia že ak by nVidia vydala GPU o tých vlastne ohromných veľkostiach 450-750mm2 ale len "klasickej konštrukcie" bez nejakých RTX jednotiek prosto normálne GPU a výkon posunula generačne o možno 60-70% - bol by to aj pri súčasných cenách oveľa lepší ťah a väčší dôvod na kúpu GPU než nejaké RT efekty...
...schválne, čo by si si za 500€ kúpil, RTX2070 s výkon GTX1080ky a RT alebo "GTX2070" s výkonom 1080Ti ale bez RT?
Tohle bude asi dost subjektivní, každé oči jsou jiné, každému vadí něco jiného. Přiklad... já vrátil asi 5 VA monitorů (v cenách od 7 do 25 tisíc) kvůli mazání obrazu v tmavých rychlejších scénách (black smearing), protože mě to totálně znechutilo vizuální dojem z her, ale znám spoustu lidí, co si toho třeba vůbec ani nevšimli, nebo jim to prostě nijak nevadí. Jak (a jestli vubec) bude vadit DLSS asi nepujde uplne generalizovat...
Tak ako píše dragonie. Plus závisí aj od implementácie DLSS v konkrétnej hre. Napríklad prvotná implementácia v BF V a Metre Exodus bola dosť na nič. S takou mazanicou by som to určite nezapínal. Neviem ako v BF, ale v Metre sa po patchoch vizuálny obraz s DLSS viditeľne zlepšil. V Anthem a Tomb Raiderovi to vyzerá byť použiteľne od začiatku. Takže si to vždy vyskúšaj a podľa toho ako sa ti bude páčiť výsledok, taks a rozhodni čo urobíš.
To člověk bude muset vyzkoušet na vlastní oči. DLSS je vlastně akorát speciální forma upscalingu, takže bude hrát roli hafo faktorů: oči, technologie displeje, rozlišení displeje, pozorovací vzdálenost, implementace algoritmu v té které hře atd. atd. Člověk to může srovna třeba s checkboard renderingem na PS4 Pro, u některých her cajk, u některých jsou artefakty viditelné.
No a osobně by mě potěšilo, kdyby karty nižších tříd podporovaly DLSS i pro 1080p. V principu by to jít mohlo.
Tak samozrejme, ze DLSS je naprostej nesmysl, kterej nema obdoby.
Joudove ti tu pisou, ze je to subjektivni, ale prdlacku.
Ustoupis z Ultra = ziskas mene detailu = budes mene zatezovat grafickou kartu
Zapnes DLSS na Ultra = dostanes artefakty v nejlepsi kvalite = zatizis vic grafickou kartu vcetne specialnich jednotek, ktere jen zerou energii a k nicemu dobre nejsou.
Opravdu bych je ale bral s rezervou, protože ta komprese zachovává hlavně ty hrany, kdežto pozadí vyblurovala... v některých scénách jsou tam jenom gigantické makrobloky. Holt by to youtubí VP9 potřebovalo pořádnou adaptivní kvantizaci a taky by to video chtělo tak 2-3x bitrate.
Nepozorujes, protoze je to video, ktere bude zkomprimovane. Musel by jsi mit nejspis screenshoty nebo zoomy. Na 1080p muzes zatim vcelku spokojene zapomenou, dokud to DLSS opravdu nezacne zvyskovat kvalitu oproti beznemu upscale...tam by to museli generovat z 900p nebo mensiho rozliseni a u toho nastavaji nejvetsi chyby...
Ja to beriem že je to prvá generácia a tie nebývajú geniálne a ani vychytané. A niesom odborník na to aby som generalizoval či je to vhodné riečenie alebo nie a to ukáže len čas. A keďže RTX je/bude súčasťou čatandardu (DX12/Vulkan) tak je to na jednotlivých firmách nech sa stým popasujú. Ak to niekto zvládne s alebo bez doplnených jednotiek je to len o jeho možnostiach.
A len jedna poznámka univerzálne veci niesu čo sa výkonu tie najoptimálnejšie, takže je celkom logické ak sa určité veči delia a vykonávajú len svoju úlohu.
Placas kraviny. Nvidia grafiky maji narozdil od AMD hardwarovou podporu pro SMP (Simultaneous multi-projection) a lens deformace. Zaprve tedy renderovani pro dve oci nepotrebuje dvojnasobek vykonu, protoze vetsina objektu ve scene je sdilena a zpracovava se jen jednou. Lens efekty navic umoznuji, aby se nerenderovaly casti obrazu, ktere v headsetu neuvidis (treba rohy viewportu). Takze zadne "je potreba 2x RTX 2080ti" neplati. To plati jen u AMD, ktery silne pokulhava v podporovanych technologiich.
Jako "AMD fan", kterému v PC beží 1660Ti a 1080Ti bych ještě přidal mírnou trpkost ze sice značného navýšení výkonu/ceny, ale při zachování velikosti VRAM. Hry si s tím patrně ještě dlouho vystačí, ale hodilo by se to pro GPGPU aplikace. Škoda, že již dnes nevidíme jako v minulosti úlety typu GTX1660Ti s 12GB atpd.
Podle nvidie těch titulů mělo být okolo uvedení minimálně dvanáct, pokud se dobře pamatuju.
edit: https://www.forbes.com/sites/marcochiappetta/2018/08/24/here-are-all-of-the-games-that-will-support-nvidias-rtx-technology/#7685587e3d7c
Netýká se ta SMP úspora především geometrie/tesselace? Zbytek pak musí být ve VR proveden dvakrát (pro každý viewpoint/projekci zvlášť)?
https://img.purch.com/geforce-gtx-1080/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L0YvNTgyMTM1L29yaWdpbmFsL1NNUC5qcGc=
Problem je, jak ti to NV serviruje. Kdyz to zjednodusim, RTX marketing byla blamaz, ktera tvrdila, jak RTX posune obrazovou kvalitu na novy level. Ona se ale zadna revoluce nekona, spis dalsi stadium evoluce v grafice. Co 'zapomeli' dodat, ze ti to sezere 35-50+% vykonu tech karet a opetovane DLSS je technologie tak akorat do poctu.
Se nemuzes divit, ze i spousta lidi byla zklamana a radeji by to vymenili za "klasicky narust vykonu' po tm, co 2,5 roku cekali na novou generaci karet od NV.
Kdyby na tom NV nepostavila cely prodejni marketing a sve tradicni vymivani mozku, urcite by i odezva byla jina.
Natvrdlej mrzak jako ty to asi tezko pochopi. Jen pripomenu, ze jsem rikal, jak raytracing pomaha s narocnymi efekty, treba stiny. Na kazdy dynamicky svetlo v rasterizaci potrebujes vyrenderovat jeho shadow mapu - deset svetel deset pruchodu scenou. Raytracing potrebuje jen jeden. Pokud srovnavas hru kde vidis max 3 dynamicky svetla, tak samozrejme nebude vyhoda zadna. S dvaceti, to uz by byla jina story. To je to, o cem mluvil Huang, ze je potreba hledat jine cesty, protoze rasterizace uz nestaci.
Chytrymu napovez, hlupakovi .. ????
No závisí to asi na tom efektu. Já teda osobně fakt moc nemusím takovou tu umělou ostrost, kterou některé filtry dělají. Neměl jsem to rád na videu, na fotkách z digitálů/mobilů nebo na upscalovaných bluray a tady mi přijde, že to taky může vypadat dost děsně (ale musím se podívat po nějakých nekomprimovaných screesnhotech). Takže jsem vždycky preferoval neutrálnější upscaling.
Určitě by se to dalo naladit tak, aby to vypadalo dobře a bylo to kvalitnější než normální upscaling bez nějakých ztrát detailů a divného zkreslení, pak by určitě DLSS mělo fungovat líp. Ale ty současné verze mi přijdou, že mají ten výsledný efekt koncipovaný hrozně divně a nepřirozeně.
Ale třeba to většině lidem nevadí a je to tak proto, no...
Nevidím, že by sa tam písalo či hovorilo o tom, že všetky tie hry mali byť dostupné pri launchy Turing GPU. Iba že dané hry majú podporu RT a niektoré DLSS sľúbenú. Beriem to, že bol fail, že Tomb Raider a BF V nemali tieto technológie dostupné už od release-u. Tam to malo byť. Ale zasa by som to nepreháňal kritikou rýchlosti šírenia RT v hrách. Predsa len nejde o triviálnu záležitosť.
Ono vývoj hier nejakú dobu trvá. Nedá sa očakávať že teraz na lusknutie prsta za pol roka sa vydá 20 hier s podporou RT. Bez ohľadu na to koľko sa do toho investuje. Každopádne tie investície nie sú predsa iba o vydávaní hier. Ide o budovanie celého ekosystému (ako napríklad aktualizácia herných engine-ov). A to sa predsa postupne buduje. Určite by som netvrdil, že je to prd platné.
Len ja tu nevidím sklamanie, ja tu vidím len a len klasické chovanie fanAtikov alebo Nvidiotov.
Každý normálny človek pochopí, že to musí tobrať výkon keby nie tak to tu už asi máme.
A podľa mňa sa DLSS celkom slušne vylepšuje, jasné vždy to bude horšie ako natívne a vždy to bude o kompromisu medzi kvalitou a výkonom.
A určite by som NV nevyčítal že vyzdvihujú len to čo je dobré, to sa robí vždy alebo si vydel prezentáciu niečoho čo by ukazovalo negatíva ja nie.
Trochu to zamiešalo aj demo od Cryteku, ktoré je podľa mňa hlavne marketingové. Normálne by nemal nikto veriť, že Vega 56 dokáže renderovať s RT v 4K a 30 FPS a koľko ludí sa na to chytilo. Každý verí tomu čo chce. Keď niekto verí, že Vega 56 je nejaká zázračná "výpočetná" karta, ktorá dokáže byť softvérovo výkonnejšia v RT ako iné GPU s hardvérovou podporou pre RT, tak s tým sa nič nedá robiť. Ešte zostáva pre ludí s touto vierou záchranná brzda v tom, že nie je jasné ako sú RT jadrá v GPU implementované. Ale to je taká tá povestná slamka. :-) Titan V je podľa 3D Marku Port Royal na úrovni RTX 2060 v počítaní RT a niekto si myslí, že v snáď v takej kvalite a rýchlosti mu dokáže konkurovať Vega 56 a to v rozlíšní 4K a 30FPS. Privítal by som keby AMD pripravilo fallback layer pre DXR. Bolo by zaujímavé sledovať výkonové rozdiely oproti kartám bez RT cores a s RT cores. Ak to bude mať iba NV, tak to stále fanatici typu Stratos budú zvalovať na účelové a zámerné poškodzovanie starých modelov GPU.
"Normálne by nemal nikto veriť, že Vega 56 dokáže renderovať s RT v 4K a 30 FPS a koľko ludí sa na to chytilo. "
.. nikdo nevi jak to je. Pokud budes predpoladat, ze to demo nebylo zfalsovane, tak je tady obrovsky prostor pro ruzne spekulace. Jinak NV mlzi uplne stejne se svymi "RT Cores". DLSS je pripad sam pro sebe.."AI vlnka", ktera je zbytecny gimik, ktery jen vytvari zavislost na jednom dodavateli HW.
"A podľa mňa sa DLSS celkom slušne vylepšuje, jasné vždy to bude horšie ako natívne a vždy to bude o kompromisu medzi kvalitou a výkonom."
.. hele DLSS zatim ve sve nejlepsi implementaci v Metru se rovna "upscale" z nizsiho rozliseni + doostrovaci filtr. Nic vic. Bohuzel neprinasi zadny novy zasadne lepsi upscale metodu. Implementace v BF5 je tragicka. implementace v SOTR je neco mezi tim. Poloz si otazku..na co mam DLSS, kdyz ji muzu jednoduse nahradit necim co tady existuje a bude to mit minimalne stejne nebo lepsi vlastnosti a je to platformove nezavisle? Ono uz nejde vubec o srovnavani s nativnim rozlisenim.
"A určite by som NV nevyčítal že vyzdvihujú len to čo je dobré, to sa robí vždy alebo si vydel prezentáciu niečoho čo by ukazovalo negatíva ja nie."
.. nejde o to, ze neco v prezentaci vyzdvihnes, to je normalni, jinak by ta prezentace nemela smysl. Jde o to JAK to vyzdvihnes. Pokud si nekdy delal prezentaci pro zakaznika, tak by jsi vedel, ze pokud neco odprezentuijes s velkou slavou a realita je pak o neco jina, tak ti to zakaznik pri nejblizsi prilezitosti omlati o hlavu...
@tombomino: Máš pravdu, že sa nevie ako to je. Nepredpokladám, že je demo sfalšované. Vôbec si to nemyslím. Skôr to beriem tak, že celé to prostredie a ukážka bola na mieru vytvorené pre odprezentovanie RT s Vegou 56. RT v tom demu proste nedosahuje kvality RT v hrách s RTX. V tomto konkrétnom príklade ide iba o odlesky, ktoré sa proste s porovnaním a mierou využitia RT v BF V nedajú zrovnávať. A to ani nehovorím o tom, že v deme sa neriešili cez RT tiene či celkovo globálne osvetlovanie a pod. Niektorí ludia si ale z toho odnášajú dojem, že je to to isté a že NV ževraj klamala, že to bez ich RTX grafík nejde (ab že to isté dokáže akcelerovať Vega 56 v 4K a 30 FPS, čo je nemyslitelné). Jednak NV nič také netrvdila. A tiež je podľa mňa jasné, že keď má RT vysoké dopady na karty s RT cores, tak ešte oveľa väčšie ich musí mať na karty bez RT cores. Bez ohľadu na to, či sú tieto RT cores to za čo sa vydávajú.
To neviem. Nemám praktické skúsenosti s používaním SMP. Čo som ale pochopil z dostupných materiálov, tak pri jeho použití sa v rámci renderovania všetky geometriu ovplyvňujúce shadery na GPU vykonajú iba raz (vertex, geometry, tesselation) a pixel shader sa musí (logicky) vykonať potom pre každý pohľad zvlášť. Pritom je možné takto vyrenderovať až 16 pohľadov jedným prechodom. Čo sa týka ušetreného výkonu pri použití SMP, tak sa písalo, že to má byť do 30%. Čo je celkom slušné podľa mňa.
to mareknr: Já doufám, že celé RT se ve finále bude používat jen standard DXR , že to bude rozumně konfigurovatelné a že to půjde na všech kartách. Na lowendu například nastavíme RT na 20%, na mid na 50%, na high na 80% a na RTX kartách třeba na 300%. A pak se krásně ukáže, která grafika má jaký výkon. Na neRTX grafikách to pojede přes standardní jednotky ale pomale, u RTX karet přes RT jádra.
lol a teď reality check: (s odstupem času ty Mauditovy výroky působí mnohem víc komicky než tehdy :D )
"
Maudit 21.8.2018 at 14:06
Hodne se pletes Redmarxi. V te prezentaci Nvidia predstavila 21 her, ktere buoud RT podporovat de facto od realne dostupnosti Turingu. Co je ale MNOHEM dulezitejsi je, ze ty hry, ktere RT budou podporovat, jsou postavene na velkych a uspesnych enginech, ktere pouziva spousta dalsich her. Diky tomu se RT rozsiri velmi rychle.
No ale hlavne ten vykon – pokud bude hra vuyzivat RT, tak ty nejnarocnejsi efekty, jako je osvetleni, stiny, prohlednosti, ambient occlusion, atd. bou pocitani mnohem efektivneji nez pred tim (na RT cores) a to s fotorealistickou kvalitou (pujde o skutecny odlesk, stin, atd. a ne o zadnou nahrazku). A to strasne moc ulehi praci klasickym CUDA cores. Narust vykonu u her, ktere boud RT vyuzivat, byt prave ocekaval dost dramaticky. Vsak I Jensen Huang to na prezentaci na konci rekl – RTX 2070 bude o dost rychlejsi nez Titan Xp.
Podle me ten vykon schvalne taji, aby vytvorili dalsi hype vlnu a pak se na ni hezky projeli.
"
https://www.cnews.cz/nvidia-turing-geforce-rtx-odhaleni#comment-192673
:D :D :D
Skutecnej reality check: Postujes po clankem, kterej mluvi o tom, jak se raytracing dobre rozsiruje, v dobe, kdy uz skutecne je ve vsech velkych enginech ???? (viz nedavne demo Cryteku). Netrvalo to ani rok.
A samozrejme jsi vynechal ten post, kde popisuju na prikladech (prave na tech shadow mapach) za jakych podminek je raytracing efektivnejsi ???? Zase se ti to nepovedlo, blby co? Muzes jit zas brecet zpatky na svuj pisecek ????
Vypadá to, že i Nvidia multiGPU VR má mezi svými řešeními. Dokonce s fígly jako SLI broadcasting. Otázkou je zda to řešení přežilo nástup DX12, NVlinku a našlo si širší využití.
https://developer.nvidia.com/vrworks/graphics/vrsli
Ano je to demo a je mozne, ze je to treba i optimalni pripad. Na druhou stranu, vykon NV RT zatim taky dokaze poskytnout jen "jeden" efekt... odlesky nebo nasviceni nebo stiny. Dohromady to vykon na kombinovani nema a jeste te k tomu hutne penalizuje na vykonu. Uvidime, jak se to vyvrbi casem, hlavne, co z toho dema Cryteku uvidime nekde v realne hre..
@tynyt: Ono to tak ale je. Naozaj musíš pre každý zdroj svetla, ktorý má generovať dynamické tiene, renderovať celú scénu z jeho pohľadu. Tým sa vyrenderuje shadow mapa, ktorá sa potom použije na získanie informácií o tom, ktoré miesta v scéne sú z pohľadu daného zdroja svetla zatienené. Takže pre jeden hlavný vyrenderovaný obrázok musíš vyrenderovať X shadow máp, kde X je počet zdrojov svetla vrhajúcich dynamické tiene. A to nie sú jediné prechody celou scénou. Napríklad Ambient Occlusion sa tiež takto môže riešiť (ako napríklad SSAO). Pre SSAO je tak isto treba vyrenderovať occlusion mapu a potom ju ešte vyhladiť blur filtrom. SSAO totiž funguje podobne ako RT. Zisťuješ mieru zatienenia bodu v scéne na základe toho ako je tento bod zatienený v rôznych smeroch. Počet smerov je dnes ale vcelku malý a preto je výsledok zašumený. Je to ekvivalent zašumenej scény pri použití RT s malým počtom lúčov. Každopádne ale pointa je, že kvôli jednému obrázku musíš naozaj renderovať tú istú scénu z rôznych pohľadov viac krát.
mareknr> Podľa mňa tynyt narážal na to jeho bludné vyjadrenie, že s RT vlastne nestúpa náročnosť so zvyšujúcim sa počtom svetiel. "Diskusia" s Mauditom na túto tému tu už bola, neprekvapivo, bez akéhokoľvek efektu.
Tiež by bolo vhodné upresniť, že pri shadowmap robíš render scény pre každé svetlo, ale nie v zmysle finálneho renderingu, je tam spústa optimalizácií - vypúšťajú sa nepotrebné úkony.
Koniec koncov, dosiahnuté fps s jednotlivými riešeniami celkom jasne ukazujú, ktoré je náročnejšie na výkon (rozdiely vo výslednom obraze týmto nespochybňujem).
Meanwhile autori UT engine skutecne potvrzuji, ze RT muze byt efektivnejsi a rychlejsi nez tradicni metody na soucasnem RTX hw.
https://www.youtube.com/watch?v=EekCn4wed1E
Takze vrchni demagogove a upresnovaci se mylili, Maudit a Marek meli pravdu. Netrvalo ani rok.