Omlouvám se za off-topic.
Ale nějaké informace o dostupnosti RTX 3070 by nebyly?
Zatím to vypadá stejně, jako u RTX 3080:
https://twitter.com/VideoCardz/status/1321888727401156608?cn=ZmxleGlibGVfcmVjcw%3D%3D&refsrc=email
DLSS je také SuperSampling, který si pamatuje objekty ve vysokém rozlišení 8K.
Na video ty neurony nebudou moc vhodné, potřebují i Z-buffer (pro identifikaci objektů dle vzdálenosti od kamery).
Např. žlutý čtverec 50x50px ve vzdálenosti 2m je batoh, ale ve vzdálenosti 100m je to už bagr, a ve vzdálenosti nad kilometr zase slunce, ...
Lol, tak jestli se ukáže, že má AMD RT na stejné úrovni jak Ampwhere? tak si zbytek místních AMD hejtrů asi hodí za salaší mašli, stejně jak Vladař s Komplíkem. :D To už by jim na oltáři zbylo jen to DLSS.
https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
Výše jsem napsal "Dle českého konkurenčního webu, který má evidentně exkluzivní informace, neumí RX 6800+ ray tracing vůbec."
Není to pravda, byla to moje nemístná a hlavně nepravdivá interpretace.
Omlouvám se za to, že jsem se zachoval přesně tak, jak to sám nemám rád a zasvinil tím zdejší diskuzi.
Stach si už vychutnává Jensen Huanga.
http://www.ddworld.cz/aktuality/graficke-karty-gpu/fraska-nvidia-grafik-pokracuje-nove-rtx-3070-jsou-v-prodeji-nedostupne-a-stoji-nesmysl.html
Tak jak jsem psal už jinde kde reaguji na zvěsti o "3080Ti":
Nechci být vyložen hnusný, ale co chtějí vydávat? RTX3070,3080,3090 působí jako přízraky. Až na 3070 u nich většinou nejsou uvedeny ani ceny... Dostupnost bůh ví kdy... a na krásnou cenu za 3070 můžou lidi taky zapomenout...
viz:
- https://bit.ly/3mukCiu
- https://bit.ly/3kH2nFX
Řekl bych, že si to vykládáte dost svérázně. Žlutý čtverec bude žlutým čtvercem vždycky a nikdy se z něj nestane ani batoh, ani bagr, ani slunce.
Ta neuronová síť nezvyšuje rozlišení tak výrazně, aby tam vznikly takovéhle detaily, navíc to ani nejde udělat. Ta neuronová síť funguje tak, že jsou jí předkládány dva obrázky, jeden v nízkém rozlišení a druhý ve vysokém rozlišení. A jejím cílem je natrénovat se tak, aby z toho nízkého udělala co nejvěrnější podobu toho vysokého (při učení se počítá nějaká celková suma odchylek a asi se dbá i na to, aby každá z odchylek nepřekročila nějakou mez).
Objekty vůbec nemusí řešit. Ty objekty hrají roli jen v tom trénování, kdy se trénuje na tu konkrétní hru, takže se trénuje jen a pouze obraz, který je složen z objektů ve hře se vyskytujících. Tedy funguje to stejně, jako lidský mozek, který také "vidí" to, co vidět chce (o čem předpokládá, že tam je). A když člověk nikdy neviděl avokádo, tak ho na obrázku neuvidí a bude si myslet, že vidí třeba divnou hrušku. Stejně tak, ta neuronová síť uvidí jen "objekty", které se vyskytovaly v obraze při trénování.
Dával jsem to sem už včera, po začátku prodeji měla Alza 10ks RTX3070-tek, který během 5minut byly pryč.
Důkaz i s cenami zde: https://www.rouming.cz/roumingShow.php?file=RTX_3070_-_5ks.jpg
Kvůli tomu to odložili o čtrnáct dni ? To je FAIL.
Příplatek 4 litry za třetí větrák? Lituji zájmovou skupinu. Jak kdyby AMDD nic nevydala.
vazne? tak karta na nic rozumnyho nema potrebnej hardware. to je jedoduchy. proto se taky mluvi o ML a ne o DL
Olsan by si mel rozhodne nastudovat rozdil mezi machine learning (ML) a deep learning (neural networks). tyhle trapasy jsou stale castejsi :D machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich. radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks. kvalita a velikost site v tomhle pripade znamena kvalitu vystupu. bez dedikovanejch jednotek musis pouzivat cast shader units, ktery ale pak nevyuzivas pro rasterizaci, logicky. cim vetsi sit (lepsi kvalita), tim vic shader units pouzijes pro jeji vyhodnocovani a tim horsi je tvuj rasterizacni vykon. AMD ma tak docela problem, protoze na kvalitu DLSS 2.0 nedosahnou. a pokud se budou chtit priblizit, zacnou ztracet rasterizacni vykon, coz snizi vykonostni prinos toho celyho supersamplingu jako celku - diminishing returns
proto nam lisa zavesila pod nos spis hovinko. neco na tom smrdi :)
"DLSS je také SuperSampling"
Definice slova/pojmu Super Sampling ale je, že se na jeden výstupní pixel použije víc vstupních vzorků, tj. například když pro potřeby anti-aliasingu buď vyrenderujte celý snímek na vyšším rozlišení a downslalujete to níž, aby výsledek nebyl zubatý (efektivnější metody to pak dělají trošku jinak, třeba takhle supersamplují jenom hrany a ne celý snímek).
Tyhle upscalery dělají opak - vezmou snímek z určitým rozlišením a zvětší ho, tj. na z jednoho vstupního vzorku udělají víc než jeden výstupní pixel. Tj. použitá toho názvu super sampling je dost paradoxní, na to jsem narážel. Je to asi motivované tím, že DLSS má anti-aliasingový efekt a většina antialiasignových metod má v názvu "super sampling" a nějak to splývá, tak to použili.
Myslím, že se to ještě obhajuje tím, že ten obraz s vysokou kvalitou, proti kterému se neuronová síť dělající ten upscaling trénuje, má vyšší rozlišení*, takže jako v hodně nepřímém smyslu tam princip supersamplingu je, ale je přerušený tím, že během samotné práce upscaleru ve hře už ta síť s těmi obrazy ve vyšším rozlišení nepracuje a už jenom prostě dělá inferencí ze vstupní bitmapy výstupní bitmapu. Tudíž to podle mě je trošku zavádějící.
Jako pojmy mění svůj význam podle toho, jak se využívají úplně běžně a někdy to jde proti jejich původnímu smyslu, takže je možné, že se to ujme, ale IMHO v případě DLSS je dobré si pamatovat, že tam dochází k tomu škálování z nižšího rozlišení, takže je lepší tomu říkat upscaling.
* Hmm a když jsem to dopsal, tak mě ještě napadá, že by se ten princip použití více samplů dal najít u DLSS 2.0 (ale ne DLSS 1.0) v tom, že algoritmus pracuje s dalšími vstupy z časově odlišných snímků, tedy ten temporální princip. Ale těch nevím, jestli je tolik, aby převážily třeba ten 2x škálovací faktor (tj. z jednoho vstupního vzorku jsou 4 pixely). A myslím, že to jméno SuperSampling bylo v době DLSS 1.0 opravdu odvozené od toho trénování a od antialiasingového použití.
Tohle taky neni uplne k zahozeni ;)
https://wccftech.com/amd-ryzen-7-5800x-8-core-ryzen-5-5600x-6-core-zen-3-desktop-cpus-review-sisoftware/
Je to klasicky unscaping + prevedenie vykreslenie textu. Dnes to vedia aj mobili s prislušnym softwarom, zameraš kamerou na činsky arabsky turecky text a ono ti ho preloži do preferovanej reči v realnom čase. Čo som porovnaval unscamping od AMD a od Nvidie jediny rozdiel som videl že Nvidia mala prepalenu zelenu a travnik bol zelenejši.
"že tam dochází k tomu škálování z nižšího rozlišení" - Tady by bylo dobrý připomenout, že NV před dvěma lety naslibovala i režim 'DLSS 2X', který měl fungovat v nativním rozlišení. Maudit to tehdy dokonce použil jako svůj hlavní argument (když po měsíci plácání kravin zjistil, že v DLSS dochází k upscalingu) a tvrdil, že lžeš, protože DLSS 2X bude podle něj určitě defaultní nastavení. :) Mno a po režimu DLSS 2X po dvou letech ani vidu ani slechu...
"machine learning je zalozenej na matematickym modelovani. deep learning na neuralnich sitich"
Myslím, že trochu vaříš z vody podle toho, jak se něco jmenuje a snažíš se z toho nasiluvyargumentovat předem daný cíl.
Nevím, odkuď tu distinkci čerpáš, ale řekl bych, že machine learning se dneska klidně používá i pro neuronové sítě. Trošku mi to připomíná, jak jsem jednou neopatrně zkrátil v komentáři "neural networks" na NN a ty jsi mě pak peskoval, že to musí znamenat nearest neighbor a že jsem debil. Měl bys to fanouškovství míň žrát.
https://docs.microsoft.com/en-us/windows/win32/direct3d12/dml-intro
Zkus ctrl-F "neural networks"
Navíc ani není potvrzený, že to nad tím DirectML bude postavený, tak nevím, proč tě to hned tak vytáčí.
Nemám, ale můžeš se pobavit jak v BF5 poráží AMD za $579 Nvidii za $1500
https://cdn.wccftech.com/wp-content/uploads/2020/10/AMD-Radeon-RX-6900-XT-RX-6800-XT-RX-6800-RDNA-2-Graphics-Card-Benchmarks_WQHD_Battlefield-V.png
Případně si každý může vybrat titul k porovnání sám:
https://www.amd.com/en/gaming/graphics-gaming-benchmarks
Mají to pěkně udělané :)
To jsou chudaci, ani nemaji na to si koupit procesor.
Jak jinak si vysvetlit, ze porovnavaji 5800X 105W proti 3700X 65W.
Pak je jeste vysvetleni, ze je to zaplacene a delaji to naschval, ze sice mohli proti 105W procesoru nasadit 105W 3800X starsi generace, ale vysledky by nebyly tak presvedcive, tak radeji napsali lzivou recenzi.
Podle čeho všeho? Já třeba tady četl něco jiného:
https://www.svethardware.cz/ray-tracing-na-radeonech-rx-6000-jaky-je-vykon-jader-ray-accelerator/53449
Přesně tak, má to v tom článku i jasné uvedeno. Tyhle nesmysly se mu snažili podsouvat tihle šašci až v diskusi pod článkem.
Zajímavé je, ze úplně stejným pacientům nevadí tendenční články na jiných webech, kde taky přispívají. Zřejmě je to dáno tím, ze se jedna o AMD pozitivní weby, tak pak je to přece naprosto v pořádku. ????
Podívejte, pan Vágner to podal tak, že v podstatě ray tracing bude na AMD nepoužitelný. Nic neví a jako redaktor by se tak k tomu měl postavit. On tvrdí, že jsou jenom 2 možnosti. a) je to tak špatné, že to bude nepoužitelné, nebo b) to bude absolutní bomba. Pak rovnou dodává, že b) nepřipadá v úvahu.
Ano, je to možné. Nicméně vydávat vyloženě nepodložené spekulace za fakta, to je prostě bulvár.
"kartu nemá, netestoval, píše dle oficiálních info"
A teď se zpětně zamyslete na tím, co jste napsal sám.
Kartu nemá.
Kartu netestoval.
Píše dle oficiálních info.
Ze kterých z výše uvedených faktů plyne, že ray tracing je na těch kartách nepoužitelný? Nebo to AMD v prezentaci někde zmínilo a mě to uniklo?
"Definice slova/pojmu Super Sampling ale je, že se na jeden výstupní pixel použije víc vstupních vzorků, tj. například když pro potřeby anti-aliasingu buď vyrenderujte celý snímek na vyšším rozlišení a downslalujete to níž, aby výsledek nebyl zubatý"
Neuronová sít trénuje na velkém 8K obrazu (=použije mnohem víc vstupních vzorků). GPU obraz vykreslí rychle v nízkém FullHD, a pak ho DLSS zvětší na střední 4K. Pro získání 4K tedy používá více vzorku, než je na 4K (z 8K na začátku, vytvoří vzorce).
U Gaming X Trio bylo > 5ks to může znamenat 6 ale 1000. U grafik, pokud nejde o slevovou akci, kde dle zákona musí uvádět počet ks za tu cenu, počty přesně nemusí uvádět.
Alza není blbá, Alza je chytrá, pokud dají samotné grafiky za ranec, tak se na ně budou lidi dívat špatně, RTX3080 se třeba asi týden po začátku prodeje objevily v prebuild sestavách, na výběr byla sestava buď s 3900X nebo 10900k, oboje stály 69 tisíc a minimálně jeden den tam vydržel intel a o něco déle AMD. Kdo tedy nutně tu kartu potřeboval šanci měl i krom úvodní minuty prodeje.
Ale nic neobvyklého při launcu. GTX1080 jsem taky koupil v prvních pár minutách a po dokončení objednávky už žádná nebyla.
Vše nasvědčuje tomu, že v Nvidii už několik týdnů kutí odpověď na prezentaci od AMD. Asi mají dobré špiony když odvolali co ještě neřekli. Ale to jsou jenom moje dohady.
Jo souhlas. Jenom mentálně retardovaný jedinec by kupoval grafickou kartu před tím než budou známé nezávislé testy od zelených a rudých. AMD zatím dodalo jenom papír se zajímavými informacemi nic více.
Jsem zvědavý na tu jejich velebenou cache a slibovanou spolupráci AMD grafiky a AMD procesoru. Navíc ta sběrnice noc výkonně nepůsobí. Dokud někdo nezávislý neotestuje červenou i zelenou grafiku tak je zbytečné z toho dělat nějaké závěry.
To jsem ještě nezmínil aby nebyly problémy s výrobou i u červených. Při tom se modlím ať už ti zelení konečně začnou vyrábět.
Ne. Takovou síť byste za den na svém počítači nenatrénoval. To se spustí hra na superpočítači*, po mnoho dnů se trénuje síť a pak se to nastavení natrénované neuronové sítě jen dá do ovladačů. Proto to taky funguje jen u některých her. Tedy u těch, pro které zatím nVidia vytvrénovala tu neuronovou síť.
* Ve skutečnosti se tedy spíše spustí ta hra na mnoha počítačích, které vygenerují miliony dvojic obrázků (v malém a velkém rozlišení) a na těch obrázcích pak teprve trénuje ten superpočítač tu neuronovou síť.
Trojnásobné rozlišení v jednom směru není žádné extrémní zvětšení.
Příklad s chobotem jsem nějak nepobral. Velikost objektů se nijak nemění. A jestliže máte v nízkém rozlišení vrabčáka, tak ve větším to opravdu jako slon vypadat nebude.
Funguje to na tom principu, že když vy zahlédnete vrabčáka, tak i když jste ho neviděl pořádně, tak si ho dokáže představit včetně těch detailů, které jste neviděl. Stejně funguje ta síť. Hledá podobu s něčím, co už viděla. Takže když v nízkém rozlišení vidí ptáka a je naučená, že v té hře pták vypadá jako vrabec, tak "vyrenderuje" vrabce, byť na první pohled nejste schopen poznat, není-li to třeba sýkorka. A proto to nefunguje obecně, ale vždy jen na konkrétní hře.
DLSS 2.0 se na konkrétní hru taky trénuje, jen využívá stejnou síť pro všechny podporované hry. Tedy defakto jednu síť trénují obrázky z různých her. Ale aby ta technologie ve hře fungovala, musí se ta síť pro tu hru natrénovat.
Kdyby se ta síť nemusela trénovat na konkrétní hru, fungovalo by to nativně ve všech hrách, což by jistě bylo krásné, ale bohužel to tak není.
A je to možná dost škoda.
Jinak by se to ale asi mělo dát nasimulovat. Před pár lety ty ovladače dostaly IIRC možnost použít tzv. Virtual Super-Resolution nebo jak se to jmenovalo, kdy se vykresluje na 2x vyšším rozlišení a pak se škáluje zpátky na nativní rozlišení monitoru. Tak by možná šlo použítohle v kombinaci s DLSS s 2x faktorem. Například jedu na 1980x1080, ale přes tohle, takže grafika vydává 4K obraz, ale s DLSS reálně vykreslovaný na 1920x1080 a pak škálovaný tam a zpátky. Ale asi by to mohlo mít o trochu víc artefaktů/zkreslení než kdyby se prostě vzalo 1920x1080 a neuronová síť to přežvýkala 1:1 a přímo jen dělala ten anti-aliasing efekt a tu temporální stabilizaci.
Na te recenzi nebude nic lziveho. To ze porovnavaji 105W Zen3 vs 65W Zen3 bude nejspis z duvodu, ze ten ma podle tech jejich testu podobny vykon jak 9900k a dost pochybuji, ze 3800X na tom neco vyznamneji zmeni.
Spis je to recenze, kterou dostali povolenou od AMD, v ramci PR Zen3. Osobne na tom nevidim nic spatneho (relane testy budou pozdeji) a jsou to hodne zajimave vysledky, byt je to jen syntetika.
vypada to na celkem kosmeticky vyrovnany zavod .. 6800 stejne jako v rasterizaci porazi 3070 v RT , takze 6800XT a 6900XT budou velmi konkurencni k 3080 a 3090 i po strance RT :) tak to je naprosta parada a jako herni karty to je majstrstyk, jako polopracovni karty budou davat lidi prednost asi nVidia pro Cuda, nebo ten kdo mel rad Vegu pro svou vypocetni silu, tak bude mit rad i Ampere diky silnym vypocetnim jednotkam
Navic, kdyz se podivas, jake veci pise treba wccftech, tak je tech par ceskych garazniku jeste v pohode.
Bohuzel, pokud ve svete pisou media tendencni clanky, tezko tomu u nas bude jinak. Ze si pod clankama prisadi diskuteri uz je ta posledni vec, detail.
Mozna ale neni chyba ani tak v mediich jako ve vyrobcich. Pokud vyda NVidia grafiku, zacne ji "prodavat" a presto ji nikdo dlouhe mesice nevidi, logicky se o jejim vykonu zacne spekulovat. Je chyba v tech, ktere ty nepotvrzene spekulace pisi nebo v NVidii, ktera vydava neexistujici produkt, ktery ma jen na papire?
A druha strana reaguje podobnym zpusobem. AMD vyda 28.10 novou radu grafik, ale pritom vydala prdlajs, grafiky se zacnou prodavat az 18.11 respektive 8.12. A muzeme jen doufat, ze to nebude papirove zahajeni prodeje jako u NVidie.
A netyka se to jen hardwaru, podivejte se treba na hru Cyberpunk, vzdycky oznami, ze uz to zacnou prodavat za 14 dni a za tyden reknou, sorry, jeste to nemame hotovy a musite jeste par mesicu pockat. :-D Pak se jeste hrozne divi, kdyz jim hraci na twitteru nadavaji do blbecku.
“Podívejte, pan Vágner to podal tak, že v podstatě ray tracing bude na AMD nepoužitelný.” Můžeš mi přesně ocitovat konkrétní pasáž, kde něco takové tvrdí?
Věnoval tomu skoro celou kapitolu a nikde tam tento tvůj výmysl neuvedl. Pokud ti vadí, ze někdo v každém svém článku nemá potřebu vyzdvihovat tvého oblíbeného výrobce do nebes, tak to nečti, ale hlavně mu nepodsouvej něco, co vůbec nenapsal. Každý výrobce / produkt má své plus i minus, a každý si vybere, co mu vyhovuje. Zajímavé je, ze tuto útočnou rétoriku neuplatňuješ i na jiných webech...ikdyž vlastně se ani nedivím. ????
Asi jsem byl špatně informován a žil jsem v domnění, že implementace ve hrách, jako Battlefield V, COD: MW, Control, Metro Exodus atp. mají "vendor lock" na karty nVidia. Pokud se jedná o "otevřenou" implementaci DXR, pak jsem se mýlil a jsem rád, že jsem vyveden z omylu :)
Ja medzi unscapingom od Nvidia a AMD rozdiel moc nevidim jediny rozdiel že ten od AMD funguje pri každej hre.
https://www.youtube.com/watch?v=G5b-3bwq2rU
https://www.youtube.com/watch?v=F8lCD5iPQiI
Ja som si o tom dosť prečital, a patral som po tom čo to je a zistil som že to ma ako satelitny prijmač tak aj moj hifi system domaceho kina so zosilovačom,PS5, Xbox, mobil to ma, samozrejme to ma aj TV. Proste ten unscamping narvali všade, i doo GPU a možno o mesiac to bude i v CPU a možno to o rok narvu aj do DDR5. Ja ked počujem unscamping sa mi nožik vo vrecku otvara. Tu kde sedim pri mne v okruhu 2 metrov su 5 zariadeni s unscapingom, to už znie ako paranoja ale kam sa pozriem sami unscapming! :D
A to, že MS vzal model v TensorFlow od Nvidie a portoval to na DirectML nic? Celej svět včetně mobilů, applu ujíždí na neuronovejch sítích, ale když MS do Windows/DirectX přidá podporu pro používání těchhle technologií, tak schválně použije něco jinýho? Nebo prostě když to není od Nvidie, tak to prostě nemůže bejt to pravý?
https://devblogs.microsoft.com/directx/gaming-with-windows-ml/
Jako fakt to z mého pohledu vypadá tak, že si v tomhle hraješ na většího experta, než jsi. Buď tomu nerozumíš, nebo rozumíš, ale ostatním chceš nabulíkovat něco jinýho, než jak je to opravdu.
To si myslím není přesné.
Když DLSS 2.0 uváděli, tak přímo říkali, že končí s trénováním pro jednotlivé hry - důvod je jasný, aby nebylo tak pracné/komplikované do hry DLSS přidat. U DLSS 1.0 se muselo trénovat, u DLSS 2.0 je model generický a jenom se integruje interface pro řešení toho upscalingu - hra předává buffer se snímky a pohybové vektory, přebírá si zpátky ty upscalované a filtrované snímky.
Nvidia přímo potvrdila, že používá generický model stejný pro všechny hry, který dokonce není založený na žádné hře, ale je syntetický, korpus pro trénování je udělaný speciálně pro tuhle roli. Mimo jiné to i řeší problémy, že některé hry nebyly pro různá rozlišení úplně deterministické, takže se jim mohlo stát, že ty kvalitní a aliasované snímky k sobě úplně neseděly a to kazilo trénování. Takže si udělali speciální nezávislá data, kde mají pojištěné, že takové problémy nebudou.
Jste si vědom, že jste reagoval na výsledky v BF5 ve 1440p?
V tomto konkrétním případě totiž ty vaše uvozovky patří do uvozovek, protože...
6900XT 201 fps = 111% z 3090;
6800XT 199 fps = 108% z 3090; 117% z 3080
6800 184 fps = 102% z 3090; 108% z 3080; 133% z 2080Ti
3090 180 fps
3080 169 fps
2080Ti 138 fps
Jedná se o jeden z mnoha výsledků, ale čistě v tomoto srovnání AMD nVidii poráží dost brutálně.
Milý pane, než začnete vypouštět nějaké informace, tak si je prosím nejdřív ověřte.
Já jsem vám tady naservíroval odkaz, kde si to rovnou můžete prohlídnout, vy se ani neobtěžujete se tam podívat, řeknete si "Hmm, to bude beztak všechno v DX11..." a vypustíte to. A vsadím se, že kdybych vám níže nenaservíroval přehled, byl byste ochotren se tu rvát do roztrhání těla, že je to tak. Už vám někdo řekl, že když si něco myslíte, neznamená to automaticky, že je to pravda?
Takže zde je ten seznam, případně se podívejte sám:
Battlefield V - DX11
Borderlands 3 - DX12
COD: Modern Warfare - DX12
The Division 2 - DX12
Doom Eternal - Vulkan
Forza Horizon 4 - DX12
Gears 5 - DX12
Resident Evil 3 - DX12
Shadow of the Tomb Raider - DX12
Wolfenstein Youngblood - Vulkan
Zdroj: https://www.amd.com/en/gaming/graphics-gaming-benchmarks
Nevím no, postavit si živobytí na tom, ze se budu systematicky navážet do mnou neoblíbené značky, to musí být dost smutný život. Na to bych, upřímně, žaludek neměl.
A není web jako web, dost se to pozná podle diskuze pod články - a tady si myslím, ze třeba EHW s články od JO je hodně vyvážený. Proto sem taky chodím nejraději.
Samozřejmě i tady jsou individua, která se do tebe pustí jen proto, ze si dovolit mít svůj (jiný) názor, ale tak je to asi všude.
Pletete si pojmy pane. Víte, jaký je rozdíl mezi "vydáním" a "oznámením/ohlášením"?
AMD jasně inforomovalo, že 28. 10. 2020 oznámí více o BIG Navi. Pokud vím, o vydání karet v ten den nikdy nehovořili.
Na této akci pak AMD uvedlo, že karty vydá 18. 11. 2020.
Takže se prosím nesnažte nikoho uvádět v omyl.
Tohle je ale DLSS 1.0.
Pro DLSS 2.0 už netřeba trénovat pro konkrétní hru ale od vývojářů stále vyžaduje implementaci, protože ten naučený model zároveň dostává nějaké motion vektory a předešlé snímky, tzn, hra/engine který nemá implementovaný TAA, bude mít s implementací DLSS 2 problém. Hry co TAA využívají mají k dispozici data pro DLSS jen musí zajistit jejich předání grafice.
Luxusní by bylo kdyby to časem bylo tak "chytré" že by to nepotřebovalo tyhle externí vstupy a poradilo si jen se snímkem, který jde na výstup
To jsem zkoušel když jsem chtěl vědět jaký výkon bude mít moje 2070S při použití RT a DLSS v 3440x1440, tedy zda přejdu na UWQHD monitor.
Bohužel pokud v jakékoli hře nastavím DSR rozlišení (na velikosti faktoru DSR nezáleží) tak se automaticky vypne DLSS. Ono to nedává moc smysl, aby to takhle někdo chtěl používat. DLSS primárně slouží ke zvýšení výkonu, DSR slouží ke zvýšení vizuální kvality pokud člověk nemá výkon nebo je ten downsampling rychlejší než třebe MSAA.
Já třeba používal DSR k tomu abych získal rozumný výsledek za cenu nižšího výkonnostního dopadu když jsem v Prepar3D chtěl odstranit shimmering. 4xMSSA a 4x Sparse Grid SuperSampling s tím dokázaly zatočit, ale za cenu klidně za cenu 70-80% výkonu. DSR pomohlo část shimmeringu odstranit, přitom propad výkonu byl cca 50%. Naštěstí pak vyšla GTX1080 a už to zvládalo MSAA s SGSSAA a od té doby DSR nepoužívám.
DLSS ale dostává mimo jiné "pohybové vektory" a předchozí snímek. Takže na vstupu není jen prostý 2D obraz který má dopočítat, má naučený, byť obecný model, má k tomu předchozí snímek a také nějaké informace o pohybu v tom snímku, Nevím přesně co nějaký z vývojářů jehož vyjáření jsem četl, zmínil "motion vectors"
DedekHrib 30.10.2020 at 10:41
fjan na cenzora si nehraju ale vadí mi zde neustálé zasírání zdejšího chatu posty z DDW. Fakt pro všechny už si to strčte do prdele a běžte si řešit DDw na DDW... Tohle byl naštěstí jen odkaz. jiní jedinci sem strkají celé pasáže. Doufám že jste již s mou odpovědí spokojen ;-)
Nechodím tam a vím proč. To tu stejně můžou lidi zasírat hovnama z PCT... Už mi to fakt připadá jako nějaká úchylka zde...
mikymauz 30.10.2020 at 11:03
To jste si špatně vyložil. Mně nejde o právo uveřejnit jakýkoliv link. Jedná se mi o to, že jsou pravidla která se mají dodržovat (včetně zveřejňování linků, slušného chování, ...). Já pravidla ctím a dodržuju ale KOCHREN mne vyzývá k jejich dodržování (s poukazem na slušnost). Mně to zavání křivým obviněním. To se mi nelíbilo a proto jsme takto reagoval.
DedekHrib 30.10.2020 at 11:25
??? "Já pravidla ctím a dodržuju ale KOCHREN mne vyzývá k jejich dodržování"
Já někde řešil pravidla? Já Tě / Vás jen slušně požádal, zda by jste tu mohl NE dávat věci z DDW. Protože to tu děje často a někteří tu serou doslova celé pasáže. Nic víc nic míň... Pletete si pojmy s dojmy...
Pokud budu chtít sledovat DDW zajdu si přímo tam...
KOCHREN 30.10.2020 at 11:34
dlužím Vám omluvu. Když jsme se díval na diskusi tak se vyjadřujete slušně a korektně. To mne přesvědčil, že tohle odpověď myslíte pravdivě.
Reagoval jsem popudlivě protože kdy někomu řeknete "prosím pomalu" jako příkaz ke zpomalení. Ve Vašem případe k tomu abych "zeslušněl". Omlouvám se a Vám beru svá slova zpět jestli to je možné.
i rathanuviel 30.10.2020 at 10:22 měl pravdu.
mikymauz 30.10.2020 at 11:37
Ano chyba ve Vás je. Jsem rád, že Vám pomohl vogonský překladač. Příště zkuste použít hlavu bez použití komplikované techniky. Stačí jednoduchá úvaha o tom, jak je možné si vložit slova "slušně prosím" ve spojení s požadavkem na limitací linků když žadatel linky sám používá. Odpouštím Vám. :-)
Nevím na jakých drogách jedeš, ale řekl bych že jediný co provozuješ je nutscaping https://www.google.com/search?q=nutscaping&tbm=isch
"radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks."
to plati i pro ty mobily. jses tak naivni, ze si myslis jak pujde naportovat NN vyuzivajici treba 20 TFLOPS na mobilni cip? nebo na GPU jako 6800XT, ktery samo o sobe ma jen 20.74 TFLOPS jako takovy? :D
a tam jako rikam ze to neumi NN? :D zvlast kdyz hned pod tim pisu, ze to bude umet jen minimalni NN?
"radeony budou bez ztraty vykonu klasickych shaderu schopny poustet jen uplne minimalni neural networks."
zatim to vypada, ze to jsi ty, kterej si tady stavi potemkinovky, protoze mu nekdo sahnul na oblibenou znacku. big navi nema dedikovanou hardwarovou podporu pro akceleraci neural networks. nebude mit stejny shopnosti jako RTX 3000. smir se s tim. nic jinyho ti nezbejva
No a nepíšu v článku, že ty GPU na to mají míň výkonu než Nvidia s tensor jádrama? A že tudíž ta AI bude mít pro sebe míň výkonu a tudíž musí být jendodušší a tak? Takže mě tady peskuješ jenom proto, abys nakonec, když se z toho odeberou ptákoviny, došel jenom k tomu samýmu?
Co takhle kdybys to příště nejdřív přečetl než tady začneš vytahovat nějaké imaginární problémy?
Ale vidím, že si tedy aspoň teda ustoupil z toho tvýho nesmyslu, že to DirectML nemůže používat neuronový sítě.
----------------------------
Už docela dlouho sleduju, jak často zkoušíš tvrdit v komentářích nějakej nesmysl a doufáš, že si to nikdo nevšimne nebo že to nebude schopnej v očích čtenářů vyvrátit. Nebyl ten tvůj první koment tenhle případ?
Akorát moc nechápu, proč tohle děláš. To, že budeš tady v komentářích tlačit nějaký svoje teorie a alternativní vysvětlení nijak nezmění to, jak to ve skutečnosti funguje. I když se ti tady povede vybudovat úspěšně nějaký Potěmkinovy vesnice, tak k čemu to je? Pokud ti teda nepřijde, že oblbnout několik desítek lidí, co si to přečtou a třeba ty tovje představy převezmou, stojí za to...
Že by nVidia na svých stránkách psala nesmysly?
https://www.nvidia.com/cs-cz/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Z toho já chápu, že se trénuje na snímcích z té konkrétní hry.
JO: tady není co chápat.. klasika Maudit, ten nikdy neuzná svůj fail a bude tu do nekonečna lhát a manipulovat. Narušený jedinec.. ;) Už ten jeho první příspěvek je mimo, kde 90% jeho obsahu píše jen to stejné, co píšeš v článku, že AMD nemá dedikovanou část čipu na akceleraci toho 'upscalingu', jak kdyby to nečetl nebo nepochopil.
a to jako rikam kde, ze by to mel bejt podvod? zda se, ze se snazis me na necem za kazdou cenu nachytat a kdyz nic, vymejslis si dalsi a dalsi veci ktery jsem "udajne" nekde rek. hmmm, nice.
ale kdyz uz jsi to zminil, je potreba to rozvest, uvest to do perspektivy. rekneme, ze nejaka karta od Nvidie ma vykon treba 120 TOPS pro AI vypocty a 20 TFLOPS pro klasicky univerzalni FP32. pokud chces vyhodnocovat NN v realnym case treba pri 100fps, mas budget na jeden snimek 1,2 tera ops ai vykonu. pokud bys to samy ale chtel delat ciste na klasickejch shaderech jako u radeonu a pritom neovlivnit moc vykon klasicky rasterizace, rekneme max 5% propad, mas budget 1 tflops, tzn. pri 100 fps 0.01 tera ops ai vykonu. to je 120x mensi budget (to je samozrejme velmi zjednodusenej priklad)
abys tu nn byl schopnej vyhodnotit na readeonu v realnym case, bude muset bejt treba 120x mensi (to je jen priklad), nez co zvladne v realnym case nvidia. amd te vodi za nos. stejny jako s raytracingem pocitej s tim, ze jejich alternativa v aspon trochu srovnatelny kvalite prijde az s dalsi generaci grafik, ktery treba uz nejaky ai cores mit budou
Hřibě, tu hlavu zkus někdy použít ty ... "Poprosím slušne" bez čárky se opravdu nedá pochopit jinak, než že někdo slušně prosí, tedy ne vulgárně a ty bláboly a omáčku, co jsi vyprodukoval po tom všem, si můžeš nechat na doma ... tady jsi už nasral snad všechny ... jak to děláš? :D ... alespoň je vidět, kde chodíš na rozumy .. onehdá jsi pomalu přísahal, že dd neznáš ...
Rychle rychle odveď pozornost někam jinam, když jsi v úzkých.. tvoje klasika. :)
Minule jsi psal, že jsem Souček. :D Beru to jako upgrade. ;)
https://www.cnews.cz/nvidia-geforce-rtx-turing-ray-tracing-dxr-battlefield-v-kvalita-vykon-uvedeni#comment-199051
Maudite a Honza nebude sám kdo Ti tu napíše to samé.
Obdivuji Jana O. za jeho trpělivost... Snaží se být tak moc korektní, až to z mého pohledu trošku přehání, ale chápu, že nechce rozpoutávat bouře v diskusích.
Na rozdíl od Tebe... Ty rozpoutáváš jako správný troll bouře rád. občas ani nedomýšlíš co jsi kdy napsal, a tak jsi se už mnohokráte znemožnil a zesměšnil. Myslím že se Jan O. bojí zbytečně. už jsi tak profláknutý, že se nebojím toho, že by Ti ještě někdo věřil. Ano máš své věrné souputníky kteří se nezdráhají zesměšnit s Tebou, ale to je tak vše.
Já na rozdíl od Honzy nemám nikde zásoby odkazů , kde ukazuje Tvoje bláboly. Já osobně jsem s Tebou vedl mnoho přestřelek již před mnoha lety. Inu již jsme starší a opravdu mi za to nestojíš. Jen mohu dodat nezměnil ses...
Aznohh 30.10.2020 at 17:22
Ano toho se obávám. AMD se povedlo vyprodukovat opravdu dobrý HW, jenže TSMC evidentně není nafukovací
gogo1963 30.10.2020 at 18:10
Ano paradoxně tomu tak může být :-D I když i Intel měl svého času potíže.
Inu uvidíme... Já osobně jsem naštvaný že nejsou dostupné modely NTB s výbavou AMD o které jsem fakt já či lidi kolem mě měli zájem. Osobně si koupím R7 5800X, ale stejně až na jaře... čili mají čas naskladnit, než přijde raketa od Intelu.
DedekHrib 30.10.2020 at 13:42
No musím říci že jste rozvířil stojaté vody :-D Zaskočil jste mě a fakt jsem čuměl se slovy to si dělá kozy? :-D
Jinak nejsem urážlivý a omluvu příjmám.
Co se týče těch odkazů a pod ohledně DDW mi to už fakt vadí. Tady se Jan O. snaží o slušnost a štábní kulturu a je dle mého nevhodné to sem. Přesnější důvody jsem již zmínil nebudu se pro to opakovat.
PS: jinak toho co tu Gogo1963 napsal jsem si všiml taky :-) Máte zajímavý dar a možná i nechtěný nasírat tady lidi :-) . A to nikdo nemůže říct, že by jsme se z Gogem zrovna milovali :-D
Maudite vážně si neuvědomuješ, že se zesměšňuješ? Nebo jsi vážne tak moc zaslepený nenávistí k AMD, že jsi až hloupý?
Píše někde Jan O. o tom, že bude srovnatelný, nebo dokonce lepší? Ne nikde o tom nepíše. To že je něco alternativa ještě neznamená, že je něco totožné. To bys měl vědět.
Jinak uvidíme AMD poslední dobou překvapuje a to v dobrém. Tak třeba překvapí i nyní. Jinak už nyní se myslím ví, že RT u nových Radeonů nebude stejně výkonné. Za mě pořád platí, že je to zajímavá technologie a zatím spíš na dema. i když pravda ve hře CONTROL to vypadá i hezky. Ale jindy mnohdy nerealisticky.
KOCHREN 30.10.2020 at 18:51
Díky za přijatou pomluvu. U slušných diskutétů by mne to fakt mrzelo kdybych je prudil. Ohledně Goga toho už jsme začal ignorovat. je to pro mne jenom sebestředný nerozuma. Není schopen držet nervy na uzdě a díky expresivům mu hodně mažou příspěvky. Ve s ví zabedněnosti je schopný Vás z toho obvi0novat.
Ohledně DD wordu nechápu proč Vám vadí. tyhle příspěvky. Stach mne tam odsud vyhodil. To ale není důvod abych tam sešel a něco si z těch jeho příspěvků neodnesl. Promiňte ale připadá mi hloupé je ignorovat zvláště proto, že si myslím, že má bohužel v tomto případě pravdu..
S tim porazi bych jeste pockal. AMD zcela pochopitelne provedla testy na sve platforme teda s aktivovanym SAM. Jenze z toho tezila jen jejich karta, NVidia ne a podobne na jinych platformach nebude mit z ceho tezit ani karta od AMD.
Jake budou platformove nezavisle vysledky nevime. Muze to byt podobne a AMD bude stale ve vedeni, ale take nemusi. A rozdily ve vykonu se mohou klidne i otocit ve prospech NVidie.
K celkovemu zhodnoceni je opravdu treba pockat na realne nezavisle testy.
Zatim si myslim, ze lze rict, ze at uz vyhraje, kterakoli strana, bude to jen o chlup. A pro AMD je vitezstvi uz to, ze se dokazala vratit zpet do hry, jestli to nakonec bude i vitezstvi v poctu FPS uz neni tak podstatne.
DedekHrib 31.10.2020 at 10:38
Pane Hribe, domnivam se, ze duvodem tohoto vami vyvolaneho vlakna, je jista alergie na weby vedene radeji fanatiky nez nestrannymi fakticky rizenymi redaktory. O cenzuru tu nejde. Vetsina lidi je na tomto webu prave kvuli nestrannosti a faktum, proto jim vadi, ze tu nekdo rozmazava nazory z vyse zmineneho zdroje plneho osobnich dojmu a nenavisti misto faktu.
Ja jsem take jeden z tech, ktery nerozumi linkovani clanku techto individui sem. Proste o jejich hlouposti nemam zajem a to ani v diskuzi.
KOCHREN
Diky za "Nechte DDW na DDW".
@Redmarx: Nějaké procento navíc SAM může ovlivnit, ale celkově to na situaci nic extra nemění:
https://twitter.com/kopite7kimi/status/1322430436044206080
@Redmarx: Mimochodem přečti si nejdřív, na co reaguješ - jedná se čistě o jedno konkrétní srovnání. S jasnými čísly. Aznohh ani Crha neřešiil, jestli je to se SAM, nebo bez. Crha jen dal slovo "poráží" do dvojtých uvozovek a já jen zpochybnil ty uvozovky, nic víc. Něco jako celkový výkon jsme neřešili, bavili jsme se o tom jednom konkrétním screenu, který Aznohh odkazoval.
Radek Holeček 30.10.2020 at 17:02
Nvidia z daneho linku: "Jedna síť pro všechny hry – V původní verzi DLSS bylo nutné trénovat umělou inteligenci v každé nové hře. DLSS 2.0 poskytuje zobecněnou síť umělé inteligence, která funguje ve všech hrách. To znamená rychlejší integraci her a více her s podporou DLSS."
Radku, ja to chapu tak, jak popisoval Jan. Ono sice v tom textu nejdrive zminuji "trening AI" a nasledna veta mluvi o "zobecnene siti", coz neni uplne to same. Ale v tomto kontextu to ctu jako "drive jsme museli trenovat na kazde hre, u ktera jsme chteli podporu DLSS. Ted uz kazdou hru, aby mela podporu DLSS, na trening nepotrebujeme."
Ten anglicky text je v tomto vysvetleni jeste jasnejsi, rekl bych.
EDIT: Diky obema, neco jsem se zase naucil :o)
Víte nechápu tady tu alergii. Připadal jsem si jako bych řekl, že nevěřím v boha v klubku španělských inkvizitorů. I když si o Stachovi jako o člověku nemyslím nic dobrého nerozumím přístupu tyhle linky ne tyhle ano. Je to taková autocenzura ne nepodobná té co byla v lidech i za komunistů.
Chápu a rozumím tomu, že dost lidí co je tady bylo vyhoštěno z DDwordu ale bojovat proti linkům je pro mne nepochopitelné a absurdní. Když jsem postnul link tak nemám nic proto tomu aby mi někdo řekl, že tohle co se tam píše je blbost. Ale praktikovat autocenzuru. To do teď nemohli tito lidé překonat pitomé šlápnutí na kuří oko od Stacha?
Upřímně ale co když mi někdo řekne že nemá rád Intel a proto nechce abych se odvolával na zprávy od Intelu. Mohu tam dosadit AMD, Nvidii, ... . Ve všech případech mi z toho vyjde holý nerozum toho kdo tohle napíše. Osobně je mi jedno jaký to je nebo není zdroj co čtu důležité je si z toho co říká odfiltrovat balast a získat pravdu.
Díky za osvětlení problému.
sorry jako až teď to vidím, jako promin ale ten graf dělal pitomec. Má tam vyskočilo dx11 a myslel jsem že to je ve všech hrách, nenapadlo mě že se to mění. Jde vidět, že AMDD fandové se snaží nové karty ukázat v co nejlepším světle.
Proč dosud neexistují strikntě grafy s RT ON ?
Protoze holt fandove AMDecka.
Trochu se obavam, ze i rada "nezavislych" testu bude nakonec cinklych, minimalne jakmile to budou testovat na Ryzenu 5000. Me jako zakaznika, ktery jsi jde kupovat novou grafiku, preci nezajimaji proprietarni technologie AMD, ktere nevyuziju, ja potrebuji srovnani skutecneho vykonu karet, ktery pujde vyuzit vsude!
Zatim to AMD pojalo tak, jako kdyby Hunag srovnaval vykon svych a konkurencnich grafik v Hairworks a vyslo mu, ze je NVidia o 100% lepsi, protoze Hairworks bezi jen na nich. :-D
Nicmene u prezentace novych grafik pri vydani se to snest da, stejne jako Huang prezentoval testy s RT, protoze to tehdy NVidii sedelo podstatne vic. Jestlize ale podobne praktiky zacnou prebirat i novinari, tak by to bylo hodne spatne. Cekame na nezavisle testy, prezentace uz probehla, takze wccftech, at jsi jde s reklamnima clankama nulove vypovidaci hodnoty treba do ....
Ale pánové, pánové, to už se bavíme o něčem jiném ne?
"Ale poráží ve všem to né." - vždyť to ani Aznohh ani já nikde netvrdíme.
Vaše reakce (obou dvou) se týkala tohoto jednoho velmi konkrétního grafu:
https://cdn.wccftech.com/wp-content/uploads/2020/10/AMD-Radeon-RX-6900-XT-RX-6800-XT-RX-6800-RDNA-2-Graphics-Card-Benchmarks_WQHD_Battlefield-V.png
Aznohh přece vůbec nepsal nic o výkonu obecně, nebo napříč všemi možnými hrami, API a rozlišeními.
Co se týče tohoto jednoho velmi konkrétního grafu, pak je jasné, že výkon RX 6800 (a to dokonce ne XT verze) vyšší než RTX 3090, je jednoznačná a doslova drtivá porážka.
DedekHrib 31.10.2020 at 15:08
Tak ja to zkusim napsat trosku jinak. Ja osobne, a myslim i hodne lidi tady, vidi v rozdil mezi clanky a komentari typu:
1) www.blabla/zluta-firma-vydala-gpu-s-odpornou-spotrebou
a reakci pri linkovani "CEO zlute firmy u radeji chodi kanaly"
A
2) www.blabla/nova-gpu-od-zlute-firmy-prinaseji-zvyseni-vykonu-ale-i-prikonu
a reakci typu "web blabla nameril tato cisla pri spotrebe a vykonu, nevypada to na konkurenci cipu fialovych"
Ja treba povazuji 1) za weby neprinasejici zadnou informaci, pouze fanaticky pohled. Za fanatickym pohledem uz nejsou fakta, jen prekrucovani. K cemu mi takova informace je? K nicemu. Proc tim plevelit diskuzi jineho webu? Tak to je presne ta otazka, kterou jste tu dostal.
Pokud byste ale prinesl fakticky clanek s faktickou reakci, zrejme byste dostal opacnou reakci typu "diky za link, zajimave cteni".
Dobře nazvěme to IT bulvár a seriózní web. To o čem píšete je o postech linků seriózního a bulvárního webu. Diskuse pod nimi je ale o lidech o tom jak píší a jak diskutují. Máte pravdu, že ten IT bulvár více provokuje prudiče v diskusích. Domnívám se ale, že plevelení diskusí je hlavně o úrovni diskutérů. Vliv kvality linku je podružný.
Když se podíváte na předcházející příspěvek "Aznohh 31.10.2020 at 16:05" tak je důkazem toho co říkám, že hlavně lidi určují diskusi ne linky. jak vidíte tak někteří lidé mají potřebu plevelit i bez linku na IT bulvár.
Užijte si zbytek soboty, Petr.
za sebe mam uz alespon celkem jasno, jdu pravdepodobne do 3080Ti pokud AMD nepovoli vyrobcum nereference 6900XT, ta referencni me moc nelaka, 37dB s moznosti minimalniho overclocku protoze ten chladic je malej me moc nelaka, ja potrebuju velkej chladic aby to jelo tak 34dB max, takze tu referencku bych musel podtaktovat a snizit power limit coz delam ted u 5700XT kde Nitro+ je pak krasne ticha a vykon dolu sel minimalne, nabidnou mi li 6900XT Nitro+ tak ji dam pravdepodobne prednost pred nVidia, nenabidnou mi li ji, tak vezmu tu 3080Ti v poradne nereferenci a taky podtaktuju + si pohraju s limitem aby to bylo tichy, toto mi problemy nedela, na co jsem haklivej je prave obraz, tudiz zatim jsem nVidia v poslednich letech ignoroval, pokud se ukaze ze vykonem budou sice na stejno ale kvalita bude hrozna, tak zase bod pro nVidia ... mam hroznou radost, ze je tu opravdu konkurence i v highendu a vyberu si pro sebe to lepsi, ne podle znacky
leppard, ano podle prvniho herniho benchmarku, tys nasel teoreticky clanek z nejakych 2 mesicu starych mereni, ja nasel benchmark primo z vykonu te karty, takze zatim podle vseho sedi, az bude tech benchmarku vic, pak se rozroste to podle vseho a budeme moudrejsi, hodne i zalezi jakej typ RT ulohy ktera ta hra vyuzije, takze pak se podle vseho muze zase otocit, jen se zatim porad pise, jak RT bude na AMD tragedie, ono to tak byt nicmene nemusi
Já nikde nenapsal, ze RT v podání AMD bude tragédie, to mi zase nepodsouvej. Já vycházím z toho článku, který netuším proč nazýváš teoretický, když taky vychází z měření. Ale to je fuk, já vycházím hlavně z toho, ze při té prezentaci o RT AMD vůbec nemluvilo, což je divné. Zvlášť když už to podporuji také konzole s jejich HW.
leppard, ja ti nic nepodsouvam, to porad pise je mysleno k clankum na webu ohledne RT, diskuzi neresim, karty venku jeste nejsou navic brat diskuzi jako prostredek k vyberu je velmi osemetny, protoze ti prijde troll a rekne ze jedina znacka odrazi vykon, takze radeji zustat u tech clanku pri vyberu s tim ze bych asi vynechal nektere redaktory popr. to bral jen jako zpestreni sedeho denniho zivota a rozhodl se podle velkych recenzi, nejlepe alespon 3-4
Frank Azor the Alienware co-founders and now Chief Gaming Architect at AMD, confirmed on Twitter that AMD will provide more details on its ray-tracing hardware support and AI supersampling ‘between now and availability dates’ of the Radeon RX 6000 series.
Azor se kdysi jmenoval sousedův voříšek, ale proč ne, že :D
Vydani/oznameni klidne to tak muze byt, jak rikas. Ale ve vysledku je to jedno. Pokud chce AMD zabranit spekulacim, ma kartu oznamit, vydat, prodavat najednou. Pak by to recenzenti hned mohli otestovat a k zadnym spekulacim by nemohlo dochazet. Pokud to delaji tak, jak to delaji, je to jen jejich blbost, ze se potom siri na webu, ze to na zadny zazrak nevypada. AMD nic v opacnem smyslu neuvedla, naopak jeste rekli, ze vysoky vykon bude mit karta jen s proprietarni technologii v ramci nove generace procesoru od AMD. Tudiz jeste vetsi zoufalci nez NVidie.
Jj, JO ma ty clanky docela slusne. Ono se to pozna pomerne jednoduse, NVidia maniaci mu nadavaji do AMDD fanatika a AMDD joudove zase obracene. Uz z toho je jasne videt, ze jak nastve vzdy obe skupiny, ze to nejspis pise, jak to je ve skutecnosti.
On ale Adam na PCT ma ty clanky taky ok. Jedinej problemovej na PCT je OBR, kterej proste neni normalni a z neznameho duvodu ho tam stale tolerujou.
@Pan Jaroslav Crha: Damage control z mé strany? Je to přesně naopak. V tom jednom benchmarku (o kterém je tu celou dobu řeč) dostává nVidia těžce na zadek - RX 6800 (nonXT) těžce poráží RTX 3090. Takže ano, jedná se o damage control, ale z vaší strany. Teda takhle hloupě si naběhnout, to jsem od vás nečekal :D
Takový upscaling umí i NVIDIA a umí to i spousta her interně, to je typicky takový ten slider s "rendering scale" apod... NV i ty hry to uměly už daleko dříve než s tím přišlo AMD a začalo to marketovat, je to de facto damage control a lidi co o tom nic netuší tak si myslí že je to srovnatelné s DLSS.
"Radeony RX 6000 BY PRÝ mohly dostat „Super-Resolution“ upscaling jako ALTERNATIVU DLSS". Zase někdo vidí v titulku víc, než je tam napsáno. Já tedy nevím, ale BY PRÝ dle mého znamená, MOŽNÁ, NE URČITĚ, a ALTERNATIVA nutně neznamená, že to bude stejné kvality. Kdo že se to čílí? Jo Maudit, game, set, skreč, křeč.
Rathanuviel - "...dostává nVidia těžce na zadek – RX 6800 (nonXT) těžce poráží RTX 3090..." rozdíl odhadem 5fps (na úrovni 170-180fps) asi nebude těžce na zadek, pokud to tedy nemyslíte objektivně a v souvislostech ;) Realitě dle mého spíše odpovídá to https://twitter.com/kopite7kimi/status/1322430436044206080, než tenhle cherrypicking.
Jo, to jsem předtím zmiňoval. Jde o to, aby se pro upscalování daly použít i pixely které odpovídají tomu aktuálnímu z předešlých obrázků - když znám pohybový vekktor, tak si ten pohyb můžu kompenzoavat, a najít ten správný pixel, zatímco jinak by ten samý pixel při pohybu v předešlém snímku patřil nějakému jinému objektu.
Díky těm vektorům je ten temporální filtr/vstup "motion-compensated".
Ona to ale ideálně chce, aby se GUI s textem a různé overlaye renderovaly na nativním rozlišení, jinak by to vypadalo trošku divně.
Teoreticky je možné něco jako DLSS 2.0 udělat agnosticky ke hře (tj. třeba pro použití se starými tituly), ale musel by tam být engine, který by ty pohybové vektory sám hledal v obraze, což není úplně nenáročná a snadná věc. Něco jako MVTools v Avisynth (to je pro filtrování videa ale řeší to stejný problém).
Tak potom nevím, vo co ti celou dobu šlo. Pindáš, že "je to machine learning, takže to není neuronová síť 111one", pak teda uznáš, že je. Takže si vyvolal tuhle blbou debatu vlastně proč? Proč ses nimral v tom slovíčku "machine learning", který bylo v té zprávě použité spíš náhodou a AMD ho možná ani nezmínilo vůbec?
Tvůj problém je, že se prostě chceš za každou cenu hádat, myslím.
No a to se zase nimráš v těch slovíčkách a snažíš se uměle hádat o ničem.
BTW, když Nvidia tlačila Deep Learning a Deep Neural Networks (pogoogli a uvidíš) na čipech Pascal, který ještě neměly Tensor Cores a používaly INT8 a FP16 výpočty na klasických shaderech, tj stejně jako teď ten Radeon (asi), tak to byl teda nějakej podvod a fake? :)
To co jsem psal, je přímo z toho brýfinku, co k tomu tehdy byl.
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Mrkněte na ty bullet pointy, "One Network For All Games - The original DLSS required training the AI network for each new game. DLSS 2.0 trains using non-game-specific content, delivering a generalized network that works across games. This means faster game integrations, and ultimately more DLSS games."
(a koukám, že je to i v té české verzi, ale já pro jistotu koukám na originál, protože u ty technické věci, navíc psané často zhuštěně, můžou někd při přeložení byýt špatně zřetelné nebo blbě převedené)
Podle mě tam tak velký rozdíl být nemusí. Větší korpus, větší univerzalita a delší trénování by mohžná někdy mohlo být i důležitější než to, že bude síť přizpůsobená přímo assetům hry.
A každopádně asi je nevhodné, aby se síť trénovala pro každou hrou, pokud chci co největší nasazení ve velkém množství titulů.