Tak odhliadnuc od fanatikov ktorí na jednej či druhej strane tvrdia "jednoznačné závery" a tá druhá karta ja jasne horšia si dovolím povedať že RX6800 sa AMDčku veľmi podarili a nVidia má viac než zdatného súpera.
Výkon +/- rovnaký (XT vs 3080, ale tá nVidia je predsa o pár nízkych % lepšia) resp. lepší u AMD (6800 vs. 3070) pri pri 16GB kapacite pamäte ktorú nebudete musieť riešiť (8GB u 3070ky no neviem neviem...) + lepšia spotreba (i keď za mňa 300W u 6800XT vs +/- 330-340W u 3080 nič reálne nezmení, obe karty žerú veľa).
Aj cenovo sa to pekne poskladalo ale ceny mi príde na teraz riešiť úplne zbytočné, kúpiť hocijakú RX6000 či RTX3000 ak nie až vyslovene totálne predraženú je výhra.
Trvalo to roky ale tak AMD má konečne ponuku od dola až nahor a pre zákazníkov v 500+++ € segmente je to len a len dobre.
Bude super sledovať nižšie segmety ale to až po novom roku a z kto vie akou dostupnosťou...
GamersNexus uz tiež vydalo recenziu 6800XT a výsledky sú dosť podobné ako v tomto článku. V 1080p/1440p je prakticky jedno, ktorú kartu máte. V 4K už Radeon trochu zaostáva, ale nie o moc. Pri použití raytracingu zaostáva výrazne (ale testovali iba zopár najznámejších hier a v nich ide o desiatky percent). A pri DLSS má RTX 3080 násobne vyššie FPS.
Smart Access Memory dáva v niektorých hrách síce malý ale merateľný nárast výkonu. nVidia sa už vyjadrila, že to z toho dôvodu bude zapínať iba u hier, kde to bude dávať zmysel. Rage mode zvyšuje hlučnosť a spotrebu, výkon nie.
Ale mňa najviac prekvapil chladič. Radeon používa rovnaký dizajn ako mala RTX 2080. Asi fakt nemá význam vymýšľať koleso.
Ze všech těch recenzí mi vyplývá jediné - až se konečně začnou lidi zbavovat na bazarech RTX 2080 Ti, je to to nejlepší, co si lze koupit v poměru cena/výkon. 11GB paměti a vyrovnaný výkon kdekoliv včetně 4K rozlišení (s přivřením obou očí, 4K plynule v 60FPS dá opravdu jen 3090) a je na pár let klid - tedy bude se opakovat situace s GTX 1080/Ti, které byly extrémně žádané. Nebo až se situace uklidní, ceny se ustálí, tak někdy v květnu - červnu by nemusel být špatný kup 3070 za nějakých 13 tisíc - takto jsem kupoval tři čtvrtě roku po uvedení 2070S, když se dostala na své cenové minimum.
Bohuzel paperlaunch. Takze stejne jako u NVidie realne v obchodech nic.
Jinak teda podle papiru to vypada velmi dobre, kandidat na koupi az bude by byla jak RX 6800XT, tak RX 6800, ovsem ne v tovarnim provedeni, az custom karty vyrobcu, design chladice se mi totiz nelibi.
Jedinej problem je RT, ten je u AMD snad slabsi nez bylu NVidie na Turingu. Potvrdilo se, ze v RT je NVidia o tridu jinde. Vyhodou AMD, ktera to na misce vah srovnava je ale pro zmenu 16GB pameti a to je neco, co minimalne u me tu vyhodu RT NVidie prebije.
Obě karty vypadají na grafech dobře. Je mi to celkem jedno, přišel mi Series X v první vlně, takže budu zaškatulkován do AMD tábora (nebo mají konzolisti speciální gulag?)
Zajímavý názor co jsem slyšel je, že Nvidia už ke svým produktům automaticky dává přidanou hodnotu, kterou zatím AMD nemá. DLSS, Shadowplay nebo konferenční nástroje (které jsou vzhledem k situaci docela užitečné). Nevyužije to každý, ale už to překonalo ty prvostní porodní bolesti a dá se to používat. Ovladače neřeším, Nvidia mě teď vypekla s podporou Forza Motorsport 7, takže problém se může stát u obou stájí.
Tak uz neni problem CO koupit. Na vyber by bylo,ale jenom z katalogu.
https://www.guru3d.com/news-story/dramatic-radeon-rx-6800-availability-even-worse-than-rtx-3080-launch.html
Tak mrknete na bazos
https://www.bazos.cz/search.php?hledat=radeon+6800&rubriky=www&hlokalita=&humkreis=25&cenaod=&cenado=&Submit=Hledat&kitx=ano
Mrdky a boti nakoupili
Veľmi pekné karty, ak budú dostupné je to už len o preferenciách aké hry alebo SW človek hrá/používa alebo ktoré technológie sú preňho dôležité.
Dizajnovo sú mi teraz bližšie NV, cenovo je to jedno všetky vydané karty sú mimo hranice čo zato som ochotný dať.
Jedine čo ma prekvapilo (nemilo) u AMD je výkon v 4K, ako sú v FHD a QHD výkonovo narovnako tak v 4K začínajú strácať, a teraz čím to je ovládačmi, síce viac pamäte ale pomalšej alebo menší rasterizačný výkona a pri nižšom rozlíšení sú karty NV viac brzdené, no rád by som vedel prečo to tak je. Takže mi teraz 16GB pamäte nepripadá ako to čo musím mať lebo ten výkon tam zatiaľ nieje čo bude o tri-päť rokov bude ma až tak nezaujíma lebo nehrám také hry aby ma to tankovalo.
Divím se, že jste si dali práci s nesrozumitelnými texty typu:
"V rozlišení 4K je Radeon RX 6800 XT zase o 5 %/6 %/4 % pomalejší než GeForce RTX 3080, ale na RTX 3090 ztrácí už 15 %/14 %/15 %. Je však už o 23 %/25 %/25 % rychlejší než GeForce RTX 2080 Ti Founders Edition a o 25 %/25 %/28 % rychlejší než GeForce RTX 3070. Proti Radeonu RX 5700 XT je o 89 %/89 %/86 % rychlejší."
Venku je video AMD RT dema pro 6800/XT.. hmm, mozna by meli zmestnat nekoho jineho pro tyhle ucely :)
https://www.youtube.com/watch?v=3--dTmKDHhk
že se první várka vyprodá prakticky okamžitě, to byla jasná tutovka. Ten zájem je obrovský a prodá se úplně všechno.
Otázkou spíše je, jak velký "týdenní" objem výroby teď AMD dodává na trh? To bude jasné během pár týdnů, kdy se buď zopakuje blamáž nvidie, nebo se karty budou postupně vydodávat objednatelům. Druhá věc je, jak do toho zapadnou AIB se svými modely, třeba je půlka vyrobených čipů teprve v alokované výrobě u AIB? To se opět projeví do cca měsíce.
RX6800XT, vcelku zajímavé výsledky v GPGPU (včetně občasného profitu SMA) u Davinci Resolve benchmarku od Pudget Systems.
https://youtu.be/-xJc63UK5Yo?t=24
de facto se od minuly generace nic nezmenilo. radeon rx6800xt zaostava za RTX 3080 stejne, jako radeon 5700xt zaostaval za RTX 2080. zda se, ze nvidia skvele odhadla, co chce amd udelat - zdvojnasobit pocet cu - a zdvojnasobili pocet svych shader units. to nakonec stacilo i pres nevyhodu 8nm procesu samsungu. big navi tak nic nezmenilo, zadnej zazrak se nekonal. dost prekvapeni je vyrazne lepsi performance/price pomer u RTX 3070 od nvidie proti rx6800 od amd. to uz tu dlouho nebylo. asi se muzeme tesit na RTX 3070ti, ktery krasne zapadne do ty mezery mezi.
recenze pro amd nedopadly moc dobre. linus z linus tech tips radeony doslova ztrhal, ale zacal docel vtipne - AMD did not dissappoint me :D ale nakonec rek, ze nemuze radeony doporucit ve srovnani s nvidii :D a jeste brutalne ztrhal vykon productivity apps na readeonech: "zvyseni rasterizacniho vykonu neprislo zadarmo". a jeho "fox and the grapes" pun na ucet amd je comedy gold :D
https://www.youtube.com/watch?v=oUzCn-ITJ_o
a raytracing :D :D :D
takovej propadak sem teda necekal ani ja. vykon mizernej a kdyz neni tak mizernej, je to za cenu o dost nizsi kvality raytracingu proti vystupu grafik od nvidie (watch dogs, dirt 5) :D palec nahoru pro J. Olsana, ze to vubec zminil (i kdyz hodne opatrne). to jsem teda necekal
stovnani kvality treba zde:
https://www.tomshardware.com/uk/news/the-amd-radeon-rx-6800-xt-and-rx-6800-review
srovnani vykonu v raytracingu ve hrach, kde amd grafiky nesnizujou kvalitu, treba zde (coz koluje po celym internetu):
https://cdn.arstechnica.net/wp-content/uploads/2020/11/rx-6800-series.001-1440x1080.jpeg
SAM a rage mode? shrnuto slovy stevea z gamers nexus: "to jediny, co rage mode dela je, ze zvysuje teplotu a hlucnost vetraku". v nekterych situacich rage mode dokonce nepatrne vykon snizil :D a SAM? vetsinou 0% rozdil, nekdy 1-2%. ale vyjimky se najdou. nvidia se rozhodla radsi udelat blacklist her, kde sam radsi ani nezapinat .. :D
to se amd moc nepovedlo ;)
On Warzone nemá pověst úplně dobře optimalizovaného titulu a občas spadne lidem s různýma kartama. :D
Každopádně problémy s padáním nějaké hry se najdou vždy. Taky mám 1080Ti a před pár měsíci jsem hrál podruhé DOOM 2016 (poprvé na této kartě) a jednou za několik hodin mi ta hra prostě spadla - přitom jinak téměř dokonale optimalizovaný titul, stabilních 200fps (engine-cap) ve 1440p na Vulcanu, ale prostě stane se a nezjistil jsem čím přesně to bylo. Ethernal mi to neudělal ani jednou. Vždycky se najdou takové případy, jen to nesmí být moc často... :D
tady jsou ty rozdily v kvalite raytracingu videt jeste o dost lip:
https://www.purepc.pl/test-kart-graficznych-amd-radeon-rx-6800-vs-geforce-rtx-3070?page=0,17
Mně pořád přijde ta velikost paměti jako přeceňovaná...
1) Smysl to řešit má jen, pokud chcete hrát v nativním 4K. Jenže standardní monitor hráčů s výkonným HW je dnes 1440p 144Hz+.
4K 60Hz monitor moc hráčů nemá a 4K 120Hz+ monitory pořád ještě stojí několik desítek tisíc, takže jejich majitelé si většinou s klidem můžou dovolit i RTX3090, která má stejně 24GB VRAM.
2) Viděl jsem recenzi Gamers Nexus, jejichž metodice dlouhodobě věřím nejvíc a Radeony jasně ztrácely ve 4K oproti nižším rozlišením, nejspíš kvůli horší paměťové propustnosti, kterou asi v tom vysokém rozlišení nedokáže plně nahradit ona větší cache.
Abych byl fér, např. recenze prezentované zde toto nepotvrzují, ale všeobecně když shrnu i další bechmarky, které jsem viděl, tak buď ukazují, že Radeony mají podobný poměr výkonu k RTX ve všech rozlišeních, nebo že Radeony lehce ztrácejí dech ve 4K.
Každopádně mi z toho mi vychází, že výhoda velikosti paměti nemá v tuto chvíli větší váhu než výhoda paměťové propustnosti.
Mimochodem - on i ten rozdíl mezi výkonem RTX 3080 a 3090 ve hrách zrovna moc nenaznačuje, že by tam měl hrát roli onen propastný rozdíl 10GB vs 24GB VRAM....
Takže ten důraz na velikost paměti, který v tuto chvíli často vidím, mi přijde dost neracionální. A vůbec teď neshazuji výkon nových Radeonů, jakožto konečně důstojné konkurence Nvidii.
Jen prostě mi přijde, že ten důraz na velikost paměti je s nadsázkou řečeno rozhodování se podle toho, že aktuálně u 1 z 20 her co budete hrát ta menší velikost paměti omezí fps o několik % a za á 3 roky když tu kartu budete dávat pryč už to bude u 1 z 10 her...
No a teď zase pohled trochu vyvážený, jako protiodpověď reprezentatovi "Sqaudra verdi":
- RT/RTX/DXR je stále okrajová věc
- AMD upřednostnilo výkon v rasterizaci, kde dostává nV těžce na zadek z pohledu efektivity, spotřeby i výkonu
- Nové Radeony podávají lepší výkon v nových hrách
- Geforce si udržely korunu v RT, ale za cenu vysoké spotřeby a ceny
- Geforce nejde prakticky taktovat, Radeony naopak mohou poměrně bez problémů přidat cca 10% frekvence a výkonově se přehouponout přes své RTX kokurenty.
- Radeony mají lepší chlazení než FE edice RTX, zejména 6800XT vypadá v tomto ohledu jako zjevení, které deklasuje všechno ostatní co je dnes k mání - teploty, hlučnost jsou výrazně pod běžnými hodnotami.
- Radeony zatím nemají dořešené své "DLSS," které jim může pomoci s výkonem v RT
- Geforce zatím nemají (a je otázka zda vůbec budou mít v plném rozsahu) podporu SAM
- Radeony nejsou omezeny velikostí VRAM
- Zákazník si může vybrat řešení podle svých preferencí a nároků.
Viděl jsem to na slidu v LTT videu 10:51
https://youtu.be/oUzCn-ITJ_o
Jako původní zdroj informace je zmíněn Wendell z Level1Techs.
Tak my víme, že zrovna ty to nepochopíš, ale třeba BF hrát s RT? Jako vážně? Tam potřebuješ hafo FPS -> RT je k ti hovnu, teda pokud nejsi masochista a chceš pořád umírat.
A v té rychlosti si někdo vážně všímá, že je to hezký??? WTF
A proto jsou pro mě (a pro drtivou většinu hráčů) RT efekty zbytečnost, která brzdí výkon
S omezeným počtem paprsků jsou asi možnosti omezené. Vzhledem k tomu, že většina her míří primárně na konzole s jejich asi ještě více omezeným možnostmi bude toto nejspíš průměrem(maximem) čím si tvůrci her odškrtnou položku RT. Než budou další generace RT-ready konzolí tak v mezidobí RDNA dostatečně zesílí.
co to plácáš? AIBs jsou Sapphire, MSI, Asus, ne nějaký ušmudlaný CZC, co většinu karet nastrká do svých předražených sestav.
Apropos, psal jsem o čipech, ne o kartách.
BTW, ve 100mega mají skladem přes 500ks RX5700XT Nitro - takže mi chceš tvrdit, že to znamená, že AMD dodnes vyrábí jen staré Navi1 namísto Navi2? Anebo to je třeba tak, že karty AIB jsou v pipeline a budou za pár týdnů?
Ne, to není jen o 4K, je to hlavně o detailnosti textur. A ty se projevují nejen ve 4K. Prostě dolezeš k cihlové zdi, koukneš zblízka na texturu a vidíš pixely. To řeší větší a detailnější textury. Jenže problém s malou VRAM je ten, že ty velké se ti tam všechny nevejdou a ve hře se to pak projevuje tím, že se snižuje framerate, nebo použijí horší textury.
Jinak při herní retrospektivě (a pohledu na to, jak roste velikost her na HDD) je možné velmi dobře sledovat, jak náročnost na VRAM v čase roste. Například moje 5600XT (6GB) v RDR2 (hraju ve WUXGA) už si semtam hrábne ku 100% a hra v takových chvílích prostě není tak plynulá, jako v jiných situacích, přitom GPU není vytíženo na max. A to je RDR2 hra z pohledu 3. osoby, takže technicky vzato nikdy nebudeš mít problém s detaily textur při velmi blízkém zkoumání. Nové hry, které přijdou s novými konzolemi, budou samozřejmě zase o kus dál.
Jak pise Tynyt, VRAM neni o "4k". Staci se podivat na testy Doom-a, k jakemu propadu dojde treba u NV 3070 vs 6800, ktera (sice ve 4k) narazi na limit u maximalniho nastaveni textur.
https://static.techspot.com/articles-info/2146/bench/4K-Doom.png
vs
https://static.techspot.com/articles-info/2146/bench/1440p-Doom.png
"At 4K, the RTX 3070 seems to be running out of VRAM as the game requires 9GB of memory at this resolution and settings. As a result the RX 6800 extends its lead to 31%, going from 120 fps right up to 157 fps."
a ted reality check vseho co tynyt napsal:
"– RT/RTX/DXR je stále okrajová věc"
jasne, a proto ted vychazi jeden AAA titul s podporou raytracingu za druhym: Watchdogs, Cyberpunk, Fortnite, Minecraft, World of Warcraft, Call of Duty, Battlefield, ... :D
"– AMD upřednostnilo výkon v rasterizaci, kde dostává nV těžce na zadek z pohledu efektivity, spotřeby i výkonu"
nvidia dostava na zadek z pohledu vykonu? :D podle recenzi ze sveta i tohohle clanku je to presne naopak a je to amd, ktery je pozadu vykonem.
https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/relative-performance_3840-2160.png
https://cdn.mos.cms.futurecdn.net/GQouqgzXbWcqsYBwiSAVz8-2560-80.png
https://www.youtube.com/watch?v=oUzCn-ITJ_o
https://www.youtube.com/watch?v=jLVGL7aAYgY
https://www.youtube.com/watch?v=NXRvqjXf4Sc
to samy efektivita (rozdil jen 13% a to na horsim 8nm procesu):
https://tpucdn.com/review/amd-radeon-rx-6800-xt/images/performance-per-watt_3840-2160.png
"– Nové Radeony podávají lepší výkon v nových hrách"
opravim te: nove radeony podavaji lepsi vykon v amd-sponsored hrach, kde je nvidia umele omezena
"– Geforce si udržely korunu v RT, ale za cenu vysoké spotřeby a ceny"
RTX 3080 je jen o $50 drazsi, nez 6800xt. $700 vs $650 je 8% rozdil. pritom rozdil v raytracing vykonu ve prospech nvidie je 128% u minecraftu, 67% u Control, 39% Metro: Exodus atd. a to je jen raw vykon. s DLSS je naskok nvidie jeste nekolikanasobne vyssi. pomer vykon/cena i vykon/spotreba je tak v raytracingu brutalne na strane nvidie ;)
"– Radeony mají lepší chlazení než FE edice RTX, zejména 6800XT vypadá v tomto ohledu jako zjevení, které deklasuje všechno ostatní co je dnes k mání – teploty, hlučnost jsou výrazně pod běžnými hodnotami."
radeony nemaji lepsi chlazeni. jen chladi o cca 50W mene odpadniho tepla
"– Radeony zatím nemají dořešené své „DLSS,“ které jim může pomoci s výkonem v RT"
radeony serie RX6000 nebudou a ani nemuzou mit nic srovnatelneho s DLSS, protoze na to nemaji hardware pro akceleraci AI operaci. pokud (a to "pokud" je dulezite zduraznit) neco dostanou, bude to nesrovnatelne nizsi kvalita. realisticky se obdoba DLSS objevi na radeonech az v nektere z pristich generaci (RDNA3, RDNA4, ..) az radeony budou mit AI akceleraci. dalsi problem amd je trenovani neuronovych siti. nvidia ma obri interni superpocitac postaveny na jejich vlastnim hardware a spoustu ai specialistu. amd nic takoveho nema. museji ty lidi nejdriv najmout, ai superpocitac postavit, pak vymyslet alternativu DLSS a pak ji natrenovat. to trva dlouho, klidne i roky
"– Geforce zatím nemají (a je otázka zda vůbec budou mít v plném rozsahu) podporu SAM"
tohle je jen otazka driver updatu, narozdil od amd alternativy dlss, kde chybi cela rada veci vcetne hardwaru na grafikach (viz nahore)
"– Radeony nejsou omezeny velikostí VRAM"
ani nvidie nejsou omezeny velikosti ram ;)
Nesmíte žít ve světě omezeném na vestavěné encodéry v GPU. Ty jsou možná vhodné když je čas limitovaný (gameplay) a na kvalitě nezáleží. Při produkci videa je typicky výstupem render v maximální kvalitě (v minimálně ztrátovém či zcela bezeztrátovém formátu) a teprve úplně na konci se tento převádí do výstupních H.264/HEVC pomocí externích encodérů.
U toho AI features to není úplně správný, shader ALU v RDNA2 podporuje ty datový typy používaný pro neuronový sítě, co zavedla Vega 20. Kromě FP16 (2× výkon FP32) taky INT8 a INT4 se 4× a 8× výkonem proti TFLOPSům v FP32.
Nevím jak ten INT4, ale třeba na upscaling by INT8 měl být bohatě použitelnej, takže to není tak, že by to GPU nemělo žádnou pomoc navíc pro neuronový sítě.
(Edit: taky si ten VirtualLink je blbě, ale to je jedno.)
takýmto spôsobom sa to dalo povedať aj keď sa prechádzalo z DX7 DX8 DX9 a tak podobne. PRetože hry na to neboli pôvodne prispôsobené. Postupom sa začali hry na to adaptovať. Takže vravieť že RT je najzbytočnejšia vec, je dosť scestné. Máme tu RT, u Nvidie implementácia RT funguje na rozdiel od AMD na výbornú. Výkon s RT je tiež vysoký. Uvidíme postupné adaptovanie RT do hier.
hele, já benchmarky nehraju... podstatné je to, zda ta hra co chci hrát pojede bez lagů nebo ne. 5600XT jsem koupil jako "nouzovku" - nechtěl jsem užranou 5700XT a líbila se mi tichost a efektivnost 5600XT - bohužel má jen 6GB. Na aktuální/starší hry to víceméně stačí, ale je to už na hraně a nové hry ta karta asi nedá v nejlepších nastaveních bez složitého přesypávání textur, byť čistě výkonově by to v daném rozlišení problém být neměl. Takže to není o výjimkách, ale o tom, jak ta hra potom vypadá. A věř mi, že nekvalitní textury poznáš na první pohled, daleko víc, než nějaké "RT stíny," ale rozhodně nemíním trpět na lagy... Nicméně to je moje vnímání hraní, tobě třeba pocukávání a záseky nevadí.
Lenze ludi nezaujimaju nejake kusy RX 5700 XT Nitro - to je zrejme, len, aby sme si upresnili, o com je rec...netvrdim, co vyraba, tvrdim, aka je situacia na trhu a este dlho asi bude pokracovat, nechapem len jedno, preco sa AMD vysmievalo z ala paper launch Nvidie, ked maju podobnu situaciu:
https://www.notebookcheck.net/AMD-s-Frank-Azor-hints-at-plentiful-Navi-2x-GPU-launch-stocks-that-could-prove-problematic-for-Nvidia-this-holiday-season.495389.0.html
Aha, takže náročný amatér - videograf má podľa teba používať na záznam nekomprimovaný formát, z videoeditoru exportovať znova raw formát, aby nakrásne použil externý kóder....dík za radu, to tak nefunguje....
Snáď si nemyslíš, že celá plejáda hi-tech videofoťákov s veľkým snímačom FF/APS-C produkuje nekvalitné video len preto, že snímajú v komprimovanom formáte ??
Osobně neznám žádný NLE, který by exportoval raw formát. Platí, že H.264/HEVC jsou formáty navržené pro šíření obsahu ke konzumentovi a to že je využívají výrobci DLSR na pořízení záznamu jde na vrub omezených HW zdrojů, jejich lenosti či snaze nekanibalizovat si svůj vyšší segment. Někteří jdou tak daleko, že DSLR limitují v dostupnosti All-I, při zpracování videa je pak IPB při zpětném scrubbingu po timeline značně nepřirozenou úlohou. Jsou samozřejmě vyjímky mezi výrobci kamer, kteří nemají problém i u cenově dostupných kamer nabídnout záznam v RAW. U raw formátů, které jsou typicky "All-I" se pak dá často (ideálně za přispění GPGPU) pracovat s originálním materiálem i bez nutnosti vytvářet proxy.
Je si třeba uvědomit, že samotný encoding je typicky tou nejméně náročnou úlohou při renderingu. Takže rendering do finální H.264/HEVC by byl neefektivním například pokud je vyžadováno několik výstupů při různých parametrech (chroma subsampling, bitrate, ....). Je efektivnější s použitím výstupního souboru v bezeztrátovém formátu opakovaně spustit samotný encoding s definovanými parametry, než vždy renderovat celý projekt.
Bohužial, nerozumieme si, neriešim videoštúdiá, ale potreby náročného amatéra z rozpočtom 6-8 tisíc EUR s prioritou najvyššej možnej kvality distribučného formátu - final produkt neurčený na edit. S prvým odstavcom tvojho príspevku nesúhlasím v podstate s ničím, proxy nevytváram / nemusím.
Druhý odstavec - chápem, čo chceš povedať, ale k takému pracovnému postupu nie som nútený.
K náročnosti - stačí porovnať čas exportu HEVC 4K/60p 10-bit
procesorom vs. nVidia kartou....
Prikladám ďaleko vyššiu pozornosť kvalite záznamu optika - snímač /dynamický rozsah, šum, farby/ ako bitrate, respektive raw vs. kompri.....samozrejme rešpektujem tvoj názor, svet neni jednofarebný...
Řeč je o zpracování videa, takže předpokládám zadání kvalitativně vyhovující vstup v rámci toho co nám rozpočet na akci dovolí pořídit (či si pronajmout).
Jde o to, že toto vlákno vzniklo jako má reakce, že u grafické karty z pohledu (náročnějšího) zpracování videa (akcelerace renderingu v Davinci Resolve, pokud budu konkrétní) mohou být z hlediska efektivity využití daleko důležitější věci než vestavěný HW encodér. Proto jsem psal v prvním příspěvku, že tvrzení platí pokud se na svět díváme jen optikou hráče (obecně toho s menšími nároky na kvalitu encodingu). Jako příklad si vezměme Radeon VII pro herní užití značně nevhodná podávala v DR slušné výkony při rozumné ceně včetně 16GB framebufferu.
U RDNA2 nebylo jisté zda optimalizace AMD směrem k hernímu výkonu toto výpočetní nasazení (z hlediska podávaného výkonu) neohrozí. To se zatím z výsledků DR benchmarků neukazuje. Což je pozitivní zprávou i pro mne jako zájemce o 3080Ti@20GB jež má být naceněna na 999US$. Bez úspěchu Big Navi ať již námi přiznaného či nikoli bychom Geforce nakupovali určitě dráž.
Ono se to teď dá brát prostě tak, že RT + DLSS je u Nvidie taková přidaná hodnota. Použití pořád není tak moc rozsáhlé a ne každý ho vůbec využije i v případech, kde existuje. Na druhou stranu už to není jak při vydání Turingu, kdy použití bylo prakticky nulové, RT výkon nepoužitelný, DLSS nepřesvědčivé. Aktuálně je to mnohem lepší a využití bude přibývat, ale pořád je to minoritní záležitost, takže ona přidaná hodnota navíc a ne ještě základní funkce grafiky (to dost možná za další dvě generace).
AMD tuto přidanou hodnotu nemá, protože jeho RT není ani na úrovni Turingu a jeho verze DLSS bude bez Tensor Cores těžko průlomová. Dalo by se tedy říct, že by AMD za to mělo nabídnout trochu lepší poměr/cena výkon v běžných hrách.
To se úplně nestalo, protože mi ten poměr přijde naprosto identický s RTX kartami, když vezmu nějaký střed recenzí, tzn. 6800XT lehce ztrácí na 3080 a 6800 je mírně nad 3070, což přesně odpovídá jejich cenové pozici.
Argument větší paměti moc neberu, protože pokud to má reálný vliv na výkon v tuto chvíli, je to již započítáno do výše zmíněného poměru cena výkon (jestli větší paměť zvýšila nebo nezvýšila finální výkon je z tohoto pohledu dost jedno) a bavení se o hypotetických budoucích hrách je úsměsvné v sektoru (hi-end HW), kde lidé upgradují grafiky nejčastěji každou 1-2 generace, tzn. 2-4 roky.
Kdo plánujete mít tu grafiku třeba 6 let a víc, tak OK, argument budoucích her pak beru víc, ale většina lidí co kupují nové hi-end PC komponenty nevydrží přeskočit více jak jednu generaci grafik, a to ještě ta generace musí být nezajímavá (Turing)...
Jinak ohledně HW enkodéru - kdo chce streamovat/nahrávat přes NVENC, tak si automaticky koupí Nvidii (to platí už několik generací) a koho to nezajímá, tak to nebude brát v úvahu při koupi. Takže to spíš Radeonům ubere jednu skupinu zákazníků, než že by to mělo být něco, co bude brát v úvahu většina lidí.
Mně připadne zcestná spíše tvá argumentace. Já nehraju hry kvůli RT nebo DLSS, dokonce často ani ne kvůli tomu, jak vypadají, ale proto, abych si zahrál a pobavil se.
A stojím si za tím, že RT + DLSS je pro mě (osobně - to znova opakuju) zbytečnost. Jednak kvůli výše uvedenému a pak taky proto, že z těch několika her, které zatím podporu pro RT mají, mě oslovuje naprosté minimum, většinu z nich ani neplánuju koupit.
Druhá věc je ta, že tenhle hype okolo RT se zatím ukazuje jako hype; zatím je to tak, že implementaci RT technologií sponzorují výrobci HW, nejde o etablovanou/zažitou/standardní technologii. Nabízí se tu srovnání s přehypovanými staršími technologiemi, které jsou dnes už mrtvé, nebo zcela na okraji zájmu: PhysX, Hairworks/TressFX, nebo VR. Jestli takto dopadne i RT, to je samozřejmě ve hvězdách, nicméně platí, že až/pokud RT bude etablováno, budou dnešní karty (a rovněž většina dnešních RT-enabled her) zcela nepodstatné - karty budou mít nedostačující výkon a hry nebude (až na nadčasové výjimky) nikdo hrát.
Pokud tou zcestnou argumentací myslíš tu VRAM, tak viz příspěvek výše - nebudu se o tom dál přít.
Pokud se ti přijde zcestný můj argument o "přidané hodnotě", tak moc nechápu proč. Že nechceš ty funkce použít - OK, v pořádku, ale pokud se snažíme o alespoň trochu objektivní hodnocení, tak pokud existují dva téměř stejné produkty za stejnou cenu (zjednodušeno, v praxi 4 produkty s téměř stjeným poměrem cena/výkon) a jeden má nějaké takovéto "bonusy" navíc, tak to podle mě nutně váhu má, byť to neznamená, že produkt bez toho by si konkrétní lidé neměli kupovat.
A já chápu, že AMD asi nemohlo jít cenou ještě o 50 nebo 100 dolarů dolů kvůli marži. Ale kdyby to udělali, byly by ty karty skutečně dobrá koupě a pro většinu lidí lepší jak RTX karty. Takto souhlasím s tím, co mi přišlo jako nejčastější závěr recenzí, parafrázovaně: "Karty jsou to fajn, není důvod je nedoporučit, ale zároveň není moc kvůli čemu je doporučit oproti Nvidii". Tzn. důstojná konkurence, ale žádná bomba.
Dále, ohledně RT a DLLS, jako technologií, které podle tebe nejspíš časem umřou:
Samozřejmě to stále asi vyloučené není, ale evidentně ani AMD to tak nevidí, jinak by radši přidali shadery při zachování velikosti křemíku a porazili Nvidii v rasterizaci, místo aby plýtvali zdroji na vývoj a místem v jádře na to, aby tam cpali RT akcelerátory (i za cenou, že budou výrazně slabší než u konkurence) a pokoušeli se o inteligentní upscaling i bez AI akcelerátorů, jen aby měli alespoň něco. Takže na mě to spíš působí tak, že AMD také vidí v RT budoucnost a snaží se co nejrychleji dohnat Nvidii a zároveň ukázat, že už i aktuálně něco má, byť v tomto o generaci pozadu.
Btw - klidně si najdi moje staré příspěvky - v první generaci jsem DLSS neoznačoval moc lichotivě, protože to způsobovalo u prvních her často shimmering a kvalita opravdu nebyla nic extra.
Ale nedávno jsem viděl několik analýz grafiky nové verze DLSS a u některých her (např. Control) to opravdu bylo na úrovni nativního 4K, takže minimálně už Nvidia dokázala, že je možné udělat to dobře.
Jak moc rychle se jeho implementace rozšíří a v kolika případech bude takto dobrá těžko říct. A viz výše - nepovažuji RT a DLSS za nějaký svatý grál, ale jen za bonus a můj osobní tip je, že jako základní funkce karty a podstatná součást většiny nových her to bude tak za 5 let.
@tynyte, prdičky starý babičky....HW akceleráciu implementovali do profesionálnych softwérov také ikony ako Final Cut, Adobe Premiere, Resolve Davinci atd.
Zlez zo stromu píše sa rok 2020...nesmieš sa dať namotať truhlíkovi stachovi, ktorý sa vyzná do editácie videa ako Blekota do problematiky potratov...
To že projektuješ své maniákální stavy do jiných lidí, se ukazuje prakticky s každým tvým výšplechtem. ???? Tak mi ještě vysvětli, proč bych měl rozbíjet monitor? To jako myslíš v reakci na dávku tvých výmyslů? ???? Vždyť tebe tady nebere nikdo vážně, ani fandové nvidie, protože ses už několikrát zesměšnil a ještě na těch svých nesmyslech sveřepě trváš. Tak proč bych tě měl brát vážně já? Dám ti jednu dobrou a dobře míněnou radu: neprožívej to tolik, uleví se ti.
Podívej, ty tady operuješ s NVENC, jako by AMD nemělo něco podobného - jenže ono má. A s ohledem na (ne)kvalitu obého je poměrně jedno, jestli NVENC dosahuje mírně nižšího bitrate při stejné vizuální kvalitě.
Co se RT týká, je součástí DX, takže podporu do čipu zřejmě přidat musí, aby se mohli honosit podporou DX12blabla, stejně tak kdyby podporu vypustili úplně, strefovali by se do nich fandové nvidie, že to neumí. Za mě je to zbytečnost, stojím si za tím už poměrně dlouho a ani AMD mě nepřesvědčí, že za současné výkonové situace to má smysl. DLSS je pak z nouze ctnost, kdy se nedostatek výkonu kompenzuje trochu lepším upscalingem. Control je pak hodně specifická hra, kde upscaling bude mít vždy úspěch kvůli designu textur - doporučuju prozkoumat: většina z nich nemá žádné výrazné malé detaily, takže AI upscaling nemá problém s interpolací. Stejně tak analogie DLSS od AMD bude mít za úkol jedinou věc: navýšit nedostatečný výkon.
Ty encodéry jsem pravda podrobně studoval v době Pascal vs Polaris/Vega a tehdy ten rozdíl ale byl opravdu velký.
Takže teď nemůžu posoudit, jestli se třeba daný rozdíl nezmenšil, prostuduji si o tom časem nějaké aktuální recenze. :)
Jinak moje zkušenost s NVENCem na 1080Ti je, že pokud v OBS člověk nastaví klouzavý bitrate a kvalitu na úrovni, že bitrate se pak dle hry a prostředí ve hře pohybuje někde mezi 15-30Mb/s v 1080p, resp. 25-50Mb/s ve 1440p, tak ta kvalita je dost slušná - např. nesrovnatelně lepší, než cokoli co projde YT komprimací... A i ve 1440p to vezme kartě do 10% výkonu, což je hodně slušné.
Ale nejsem na tohle vážně expert, takže jen říkám uživatelskou zkušenost.
K tomu RT ještě - vím, že si za tím stojíš dlouhodobě a dají se pro to rozhodně najít argumenty. Vývoj mě ale zatím přesvědčuje spíše o opaku, tzn. že (min. velká studia) budou implemetaci DXR a DLSS dávat do her postupně častěji a častěji.
Asi je to také dost otázka na vývojáře her. Kolik z nich si myslí, že nejlepší cesta k lepší vizuální kvalitě by bylo jít po maximálním rasterizačním výkonu karet a kolik z nich je názoru, že rasterizace jako metoda už se dostává ke svým limitům a pokud chtějí posouvat vizuální kvalitu her výrazně dál, tak už jim rasterizace a její možnosti kladou u moc velké překážky a DXR efekty naopak nabízí možnosti, které by standardně neměli a má smysl se je snažit co nejvíce použít - v tom výkonostním rámci grafik, který v tuto chvíli existuje a samozřejmě v RT stále ještě není tak hvězdný.
Osobně jsem od vývojářů zaznamenal už obě verze, takže aby si člověk vybral...
To to beru, ale zase jak víš, jak moc ty lagy a poruchy textur způsobuje velikost paměti a jak moc jen 192-bit sběrnice s 12GHz pamětí? Dost možná obojí, protože lepší propustnost
dokáže z části kompenzovat nedostatek velikosti a naopak.
S tou propustností mě napadá např. 1070Ti vs. 1080, kde byla u 1070Ti pomalejší paměť stejné velikosti a rozdíl ve výkonu byl větší než rozdíl v teoretickém výkonu těch dvou GPU, takže tam ta propustnost paměti musela mít nějaký vliv a to v ní nebyl tak velký rozdíl.
Zpět k novým grafikám - tam je to větší sběrnice a rychlejší paměti vs. větší paměti a větší cache. A podle informací, které zatím mám, je výsledkem plichta. Samozřejmě, kdy a v jaké hře bude mít někdo lagy se z recenzí těžko pozná, to uznávám, ale nemyslím si, že u RTX 3080 nebo 6800XT by někdo měl mít v příštích několika letech jakýkoli problém s výkonem a plynulostí...
A uznávám, že RTX 3070 s menší pomalejší pamětí není tak atraktivní, osobně myslím že bude mít smysl jít buť do 3080 nebo až do 3060Ti, jakožto do už vyloženě levnější karty s pořád tou 8GB VRAM. A uvidíme co do té á $400 kategorie a pak ještě do nižších přinese AMD, třeba tam bude kompetitivnější proti Nvidii a bude ji porážet. :)
Jinak ještě - s testováním využití paměti je to hrozně problematické. GPU-Z apod ukážou alokovanou paměť, ale většinou jen engine-level nástroje dokážou zjisti,t kolik reálně ta hra využívá. A pak se u některých her, které podle GPU-Z "sežerou" nečekaně velké množství paměti ukáže, že jí reálně využijí jen část.
Já teda nemám co říkat s 11GB na 1080Ti, ale i podle toho GPU-Z naprostá většina her z posledních let té paměti nealokuje víc jak řekněmes těch 8GB, co jsem tak sledoval.
@Jaycop
Ty vole, ty neumíš ani číst, pak nemá cenu ani komentovat.
A k Cyberpanku: zaprvé operovat se hrou, která tu ještě 3 týdny nebude, to asi kouříš slušný matroš. CP2077 mám předobjednaný a RT efekty budou první, co bych vypnul, pro mě je důležitější příběh a "naleštěné koule" to nevylepší.
Ohledně té propustnosti: tady je právě třeba se kouknout, co je jak rychlé.
HDD: max. cca 200MB/s
SATA SSD: max. 550MB/s
NMVe SSD: max. cca 3 500GB/s (nepočítám PCIe 4.0)
DDR4-3600 RAM: cca 30 000MB/s
GDDR6 RAM na 5600XT: cca 288 000MB/s
Jak vidíš, je to poměrně pěkná "pyramida" a běžná RAM je 10x pomalejší, a pozor, neslouží primárně k tomu, aby bufferovala VRAM (podobně u VRAM platí, že kromě přetahování dat z RAM slouží primárně k práci s již uloženými daty). Z toho plyne, že maximální (teoretická) rychlost přesunu objemných dat do VRAM bude probíhat maximálně rychlostí 30 GB/s - problém je ovšem v tom, že tato rychlost bude ovlivněna tím, že si na přenos budeš muset "počkat," navíc s jednoznačným předpokladem, že data v té RAM už jsou.
Musíš myslet logicky: jestliže AMD dokáže vyrobit tisíce "starých" Navi1, proč by mělo mít problémy na stejném procesu vyrábět opět tisíce Navi2? Navíc zřejmě takové problémy s výrobou nemají, když si můžou dovolit produkovat Navi1 na úkor dlouhodobého syslení čipů Navi2.
Dále: rozdíl mezi AMD a nV je v tom, že nVidia své grafiky prodává už od zaří (septembra - tj. už 2 měsíce), kdežto AMD začalo před cca 10 dny a modely AIB teprve dorazí. Až se ukáže, že i poté je těch grafik podobně málo jako u nVidie, tak teprve potom můžeme mluvit o nějakém paperlaunchi. A mimochodem, takové situace s nedostatkem nových karet při uvedení tu jsou prakticky stále.
Mě štve že typicky bohužel ty softwary neumí ten pracovní soubor vyexportovat v nějaký schopnější bezeztrátový kompresi, takže třeba u toho DaVinci to IIRC je že buď člověk uloží jako RAW YUV, nebo používá nějaký ty komprimovaný formáty. Ale to opravdu pak není HEVC a už vůbec ne AV1 lol, ale věci jako prores. S HEVC/AV1/AVC by si člověk dost mrvil kvalitu kvůli "generation loss" a tomu, že ty kodeky nejsou na tuhle roli připravený a nepočítají s tím, že musí přestát mnoho průchodů bez příliš viditelné škody.
"neriešim videoštúdiá, ale potreby náročného amatéra z rozpočtom 6-8 tisíc EUR s prioritou najvyššej možnej kvality distribučného formátu – final produkt neurčený na edit." --> software enkódování, s co nejvyšším (nejpomalejším) presetem kvalit co jde (a pak dobře nastavit psychovizuální optimalizace a hlavně nešetřit na bitrate...)
"Prikladám ďaleko vyššiu pozornosť kvalite záznamu optika – snímač /dynamický rozsah, šum, farby/ ako bitrate, respektive raw vs. kompri…..samozrejme rešpektujem tvoj názor, svet neni jednofarebný…"
To může být důležitější, ale pak taky nastupuje fenomén, kdy sice mám super vstup, ale další zpracování hodně pokazí, tj. i na tu druhou věc se musí dávat pozor.