I kdyby se to jen přiblížilo k energetické efektivitě Turingu na nějaký, nikterak zásadní rozdíl, tak to bude slušný úspěch. Samozřejmě na 7nm by se dalo očekávat více, ale vzhledem k "efektivitě" Radeonu VII, kde architektuře Vega ten 7nm proces moc nepomohl, bude velmi dobré, pokud Navi opravdu přijde s velkým zefektivněním díky nové architektuře.
Ale zásadnější pořád bude poměr cena/výkon. Při výkonu RTX 2070 by to chtělo cenu levnějších verzí i pod $400, protože RTX 2070 za $500 už tu nějakou dobu je a pořád má minimálně marketingový bonus v RT a Tensor cores.
Takže pokud stejný výkon Navi nenabídne za řekněmes o 20-25% nižší cenu, dopadne jak Vega 56. Použitelná karta za rozumnou cenu, ale prostě přišla pozdě do saturovaného trhu a nevynikala tak, že by si jí všimly masy. Navíc Nvidia bleskově reagovala s 1070Ti, která smazala i tu malou výhodu v poměru cena/výkon.
Teď dost možná Nvidia přijde s 2070Ti za cenu 2070 a se zlevněním zbytku portfolia (rezervy tam teda mají), takže pokud Navi nebude dostatečně cenově agresivní, tak se bude jen těžko prosazovat.
S GTX 1080 zřejmě nepotřebuji upgradovat na NAVI, které moc výkonu nepřidá, spotřebu nesníží, až na :
https://www.tftcentral.co.uk/blog/nvidia-release-results-from-g-sync-compatible-testing-only-5-passed/
Ale to, že věci nejsou černobílé, je jasné.
Jako by jsi to neznal.. 225W katastrofa, hruza.,7nm zklamani, atd...
Sice si koupis kartu i s chladicem, takze se nemusis starat ani o chlazeni, jen si pohlidat zdroj, prdnes to do skrine a jedes..ale 225W..to znamena, katastrofa, hruza, elektrika v cudu..
Ja mam mATX skrin s podobne zravou RX580 a vyjma toho, ze mi vzhledem k velikosti blokuje lepsi privod vzduchu (coz mne trochu vadi), tak funguje uplne normalne. Ale jinak samozrejme, je to AMD, takze 225W..des hruza ;)
:))
řekl bych že nikomu by nevadila vyšší spotřeba pokud by tam byl i ten výkon napříč spektrem her. Třeba jako tomu bylo v případě Hawaii GPU.
Jenže u Navi AMD uvádí náskok v jedné jediné AMD favozizované hře Strange Brigade a to ještě pod vulkanem.
Takže RDNA nebo ne, zázrak se opět nekoná....
"And while some may have had a sufficient VRR range, 202 failed due to image quality (flickering, blanking) or other issues. This could range in severity, from the monitor cutting out during gameplay (sure to get you killed in PvP MP games), to requiring power cycling and Control Panel changes every single time."
No, striktně vzato je ale otázka, jestli se tyhle údajný problémy ukazujou i na Radeonech, nebo jenom na Nvidiích (a to pak může být chyba Nvidie, i když ne nutně). Jako čekal bych, že aspoň v některých případech to tak bude, protože spoustu z těch monitorů lidi s Radeonama normálně používají. A co si pamatuju, tak když po vydání těch ovladačů byly rychle dělané testy i těch oficiálně nepodporovaných LCD na GeForce, tak ohlasy byly, že to prostě funguje.
IMHO ty problémy, co Nvidia uvádí ("jen 5,6 % prošlo!"), musí být hodně přeceňovaný. Ale zase těžko to můžu nějak doložit no... na druhou stranu, LCDčka se teď asi budou testovat na obou kartách, takže by mělo být možná vyhledat recenze FreeSync monitorů bez certifikace G-Sync a jít po tom, jestli recenzenti hlásí problémy.
A někdo čekal zázrak? ????
Mimo to, dát nvidii několik týdnů na případnou reakci, tím, že uvedou naprosto přesné výkonové parametry, tak hloupí snad nebudou. V podstatě ukázali jen jednu hru a nějaké podivné benche a zalili to marketingovou omáčkou. Z toho se moc vyvodit nedá - pokud se neopřeš o předchozí model(y) Polaris a nebudeš předpokládat totožné chování. Já bych třeba čekal, že když akcentovali v prezentacích herní výkon, tak že se pohne hlavně ta DX část relativně vůči Vulkanu - a to ve vulkanizované hře zamaskuješ.
Tím nechci tvrdit, že to bude takto, ale já bych to tak udělal, kdybych měl navnadit zákazníky a zároveň zmást konkurenci a uvést ji v domnění, že může být v klidu (a samozřejmě kdybych měl více než povedený produkt ????). Ale třeba to bude tak jak píšeš ty a Koduriho "(r)evoluce" je jen ne úplně povedený vtip.
1660Ti v jednoveraku k vuli malemu rozmrtu, by byla fajn, mne by ale stacila i "jen" 1660. Ja bych menil ani ne tak k vuli vykonu (ten mi staci i s 580), jako spis k vuli NV encoderu. Pockam co to udela s cenama po vydani Navi a jestli prijde s novou verzi VCE AMD a pak nejpis turinga aspon vyzkousim ;)
Já si hlavně nemyslím, že za něčím stojí nebo nestoji nějakej Koduri. On byl sice šéfem RTG, ale ty návrhy čipů tvoří desítky možná stovky inženýrů. Nějaká představa, že tohle všechno vymyslel a namaloval sám Koduri je strašně naivní.
Osobně si myslím, že NAVI bude jakýsi hybrid GCN s některými novými prvky nové architektury, kteru AMD připravuje na rok 2020. Ta by měla umět i HW Raytracing a jiné vychytávky a umožnit AMD/RTG dělat zase výkonné čipy. S GCN už narazili na strop ( 4SE a max 4096SP )
S tým výkonom to nemusí byť také zlé.
Strange Brigade(Test: AMD Radeon VII Mega Benchmark; test uvedený: 11.2.2019)
https://static.techspot.com/articles-info/1791/bench/2080.png
Strange Brigade: Radeon VII o 10% rýchlejší ako RTX2080 v rozlíšení 1440p
Celkový priemer: Radeon VII o 7% pomalší ako RTX2080 v rozlíšení 1440p
Strange Brigade(Test: Radeon VII vs. GeForce RTX 2080; test uvedený: 22.5.2019)
https://static.techspot.com/articles-info/1848/bench/1440p.png
Strange Brigade: Radeon VII o 5% pomalší ako RTX2080 v rozlíšení 1440p
Celkový priemer: Radeon VII o 8% pomalší ako RTX2080 v rozlíšení 1440p (Iná skladba hier)
Výkon RTX2080 výrazne poskočil s mesiac starými Geforce ovládačmi 430.39(23.4.2019), takže v prípade, že AMD nepoužilo staršie ovládače v teste, tak priemerný výkon RX 5700 môže(mal by) byť nad RTX2070.
No dobře, ale každý trochu obeznámený člověk ví, že takový scénář je vysoce nepravděpodobný (stal se, pokud vím, všehovšudy jen jednou, a to v době HD4000 a byl mimoděk podpořen i nízkým kurzem USD) a pro firmu z pohledu finančního značně destruktivní. Z pohledu dnešní doby tam malá šance přesto je - AMD nyní potřebuje podíl na PC trhu a peníze inkasuje ze Zenu. I tak si nemyslím, že tento scénář dojde naplnění.
Co se (ne)diskuse týká, takových lidí je vícero - jen nemají svůj fanouškovský web, aby mohli mazat a banovat. ???? Třeba takový Maudit. ????
Ono v praxi je jedno, jak moc je to nové a jak moc vycházeli z GCN.
Důležité je jen, jestli dokázali překonat problémy, kterými GCN zabíjela minulý dvě generace = spotřeba, nižší IPC a omezený počet SP.
Teoreticky se může jak nepovést úplně nová architektura, tam může být výborné něco, co vzniklo předěláním GCN, podstatný je jen ten výsledek.
JJ. Teraz si zas posledným článkom liečil svoje komplexy z NV. Najlepšie je ako vlastné problémy s totuo firmou zovšeobecňuje a píše o nich ako keby to tak bolo všade. Zasa je v článku aj povestné "it just works", kde len dáva najavo, že doteraz nepochopil o čom ten Huang rozprával. Proste sa vyplakal ako mu NV ubližuje a to, že on píše hovadiny, a zrejme aj cielene a častokrát zavádza mu stále uniká. Hold obbjektivita. :-)
A jedna sranda od Stratosa z diskusie:
"sem magor abych daval za grafiku 35tis a pak hral hru ve 40fps? neni lepsi si RTX vypnout kopupit RX 570 4GB za 3000,- a mit lepsi FPS?"
Bavil sa o BF V na Ultra vrátane RT. Pôvodný príspevok bol o tom, že hra ide v 42FPS v 4K. Čo Stacha a Belku strašne pohoršilo že karta za 33000 nedá RT v Ultra v 4K na aspoň 60FPS. To sú dvaja komici. Hlavne že im určite hrať prvého Tomb Raidera s TressFX neprekážalo bez odrazu "najpodstatnejších" 60 FPS.
@mareknr no, ale veď predsa ono je to všade a zlá zlá NV si takto počína voči všetkým ktorí od nej neberú tie špinavé milióny za propagáciu a klamanie zákazníkov...
...veď DD to má predsa potvrdené od "zástupci velkých světových médií i velkých youtuberů" - a neviem ako ty, ja mu to že sa s nimi stretol a na just debata spadla na špinavé prakticky NV samozrejme 100% verím
...to vieš, ono je to bežná prax, nadnárodná firma/youtuber s miliónmi videní má neskonalú túžbu na nejakej medzinárodnej PC/IT akcii rozoberať s malým a bezvýznamným zástupcom nejakého čekého webu to ako ho NV drží za gule - bežná prax.
+ ešte mu aj samozrejme odhalili supertajné plány do budúcnosti a uistili ho o tom že si cenia jeho objektivitu
"Měl jsem několik příležitostí v minulém roce pohovořit a setkat se se zástupci velkých světových médií i velkých youtuberů a ač bych rád řekl, že chování NV vůči nám je výjimečné, není tomu tak. Stejný problém má řada jiných, a to prakticky jako přes kopírák."
Ja to zasa niekedy v diskusiách vnímam opačne:
- keď má náskok v hre AMD, je to preto, lebo má technologicky navrch a NV nič neinovuje, iba ošklbáva zákazníkov
- keď má náskok NVIDIA, tak je to zaručený podvod alebo podlácanie od NV, prípadne marketing lebo hra používa Gameworks
== v oboch prípadoch vychádza zle NVIDIA.
Netreba brať tieto diskusie tak vážne. :-)
@Aznohh spamujem čas od času - sporadicky ak si si nevšimol.
Ak sa ťa to "hrozně dotýka" - prepáč.
PS: už som to písal x-krát, ale zopakujem, dokiaľ on bude opakovať ako je jediný najobjektívnejší, najnestrannejší a jeho recenzie jediné správne a naopak ostatné zlé, podivne, vyslovene zmanipulované - dovtedy budem poukazovať na nezmysly čo píše a to ako za každú cenu obhajuje AMD. HOWK !
Zjaímavý je, že pořád nevíme, jeslti to vůbec bude mít 4096 stream procesorů.
I když teda pokud by to mělo míň (a nad tím už nebyl žádný větší model), tak bych moc nechápal proč. Ale ono bylo zvláštní už třeba proč nebyl 4096shaderovej Polaris - IMHO by se vyplatil. Jako důvody tam asi budou, ale budou buď pro nás těžko zhodnotitelné/uhádnutelné, nebo holt špatná manažerská rozhodnutí s dlouhou latencí projevení se.
jak říkám, někde jsem zachytil, takže je možné, že to je hoax. Nebo taky špatná interpretace (co když je každý SP sestaven ze dvou virtuálních jednotek?), nebo vyloženě cílěně zavádějící informace.
edit: J.O.: druhé číslo, které koluje netem je "obligátních" 2560 SP. A Polaris IMHO byl uškrcený na pamětěch.
Mě nejvíc pobavilo, když porovnával Ryzen 2600x vs i5 8600k. Snažil jsem se vysvětlit, že jsou situace, kdy intel podává vyšší výkon. Na to jsem si našel JEHO test výkonu ve FarCry, kde AMD mělo 100fps a Intel 103 FPS. Moje otázka zněla: Podává v tomto konkrétním případě is 8600k lepší výsledek, než 2600x? Odpověď byla: NE....A to mě rozsekalo nejvíc.
JJ. O tom sme už diskutovali veľakrát. Často býval výkonový rozdiel väčší keď bola zapnutá niektorá z fíčur využívajúca Gameworks. Keď boli tieto fíčury vypnuté, tak bol výkon viacmenej v poriadku. Prípadov kedy to nebolo v poriadku ani tak, bolo myslím celkom málo a tie právom vzbudzovali nedôveru a vyvolávali oprávnenú kritiku. Každopádne sa to zvrhlo na zbytočnú kritiku a odsudzovanie každej hry, ktorá využívala nejakú technológiu od NV. Čo mi príde zbytočné. Častokrát to totiž bývalo aj tak, že ak mala hra po vydaní väčšie problémy (ako AC Unity či Batman Arkham Knight), tak mala problémy u všetkých bez ohľadu na značku GPU. To bol podľa mňa problém vývojárov danej hry a nie NV. Že vydali neodladený release. A predsa schytala najväčšiu kritiku práve táto firma a to iba preto, že si dovolila niečo u danej hry riešiť. Boli aj spomínané klacky pod nohy (ako napríklad zbytočne vysoká teselácia), ale nebolo ich podľa mňa reálne toľko, koľko niektorí ludia proklamujú.
Gildor: já si spíše myslím, zda má smysl tolik jednotek, když jejich efektivnost využití se se zvyšujícím počtem strmě propadá? Ona je jedna věc použití ve streamovacích úlohách, kde počet jednotek vyjadřuje úměrně výkon (data proudí rovnoměrně, očekávatelně a objem na nich prováděných operací je prakticky shodný), a ve hrách, kde to tak zřejmě není a narážíme na problémy efektivním využitím těchto jednotek.
souhlasím, to uspořádání které mají současné GCN čipy je pro hry strašně nevhodně vybalancované. Takový Radeon RX570 ma stejný front-end jako Vega 20, liší se prakticky jen počtem SP/Rop´s.
Naproti tomu Nvidia čipy dle konfgurace pěkně škálují jak počet SP, tak geometrii a šířku front-endu i cache.
Přístup AMD funguje dobře ve výpočetní oblasti, kde více SP vede k vyššímu výpočetnímu výkonu, ale špatně to funguje u her. GCN jasně ukázalo, že škáluje ideálně do 3500SP a pak už nemá smysl navyšovat počet SP protože to nevede prakticky k žádnému signifikantnímu nárustu herního výkonu.
Tohle se musí s novou architekturou změnit.
problémem RDNA a onoho deklarovaného 1,5x perf/watt. bude právě to avizované zvýšení výkonu na takt 1,25x
Protože materiály AMD uvádí "up to" hodnotu, bude to zase nějaký best-case scenario a nebude tomu tak zřejmě u všech her, protože bude záležet na tom jaký workload bude převažovat. Kdo si vzpomene na Polaris a jeho 2,5x perf/watt, tak pochopí. Uvaděný výkon se netýkal celé řady, ale jen konkrétního kusu RX470.
Může to klidně být tak, že někde bude ten nárust výraně větší a někde jen pár procent nad GCN Vega....
A ešte jedna pikoška z testu World War Z:
"Pod primárním API VULKAN hra běží velmi dobře zejména na AMD Radeon grafikách, což nijak nepřekvapí, protože VULKAN je přejmenované MANTLE, upravené aby běželo na všem. A toto efektivní low level API je pro Radeon grafiky a využití jejich skutečného výkonu navrženo. Obecně protože hry místo skutečného výkonu grafik využívají většinou jen část jejich výkonu, je možná překvapivé vidět, jak RX VEGA 56 poráží RTX 2080 a Radeon VII poráží s náskokem i RXT 2080 Ti, ale tyto výkony odpovídají skutečnému reálnému výkonu těch GPU, které prostě zastaralé neefektivní DX11 i zatím omezené DX12, příliš dobře nevyužívají"
Takže Vega 56 je vlastne výkonnejšia ako RTX 2080 a Vega VII ako RTX 2080 Ti. To je ich reálna sila, ktorú normálne hry nevedia využiť. Hehe. To je už úplný otras. Hlavne keď víde hra, kde to vychádza opačne a NV má väčší ako obvyklý náskok, tak je to hneď marketing alebo podvod a "klacky pod nohy". :-)