"Segmentace, to je něco, co máme opravdu rádi, že? Tentokrát se této milé praktiky, kdy jsou z nějakého produktu odebrány různé funkce a zlepšováky proto, aby nebyl tak dobrý a zákazníci měli motivaci kupovat místo něj také dražší alternativy,..."
To je poněkud zvlášťní definice, trváte na ní?
Jsem zvědavý co na to budou říkat velcí AMD fanoušci.
RTX kartám NV vyčítali nezměněný poměr cena/výkon, u některých karet dokonce horší, vyčítají že se výkon posunul v rámci modelových řad o mrzkých 35%.
VegaVII zvýšila výkon ani ne o 30% v průměru, zároveň navýšila cenu o 40%, čímž se zhoršil poěr cena výkon. 16GB je sice skvělé lákadlo, ale pro hráče je aktuálně méně podstatné než RTX a AI
"neumí PCI Express 4.0 a rychlé FP64. Možná ani nebudou nereferenční karty"
No, som si ale istý že minimálne jeDDen web to vysvetlí v súvislostiach a ukáže ako je to vlastne len a len dobre pre AMD, užívateľov a vlastne celý svet.
+ Nereferenčné karty, to už nám ten web pred časom opakovane vysvetľoval pri RX480 či Vegá-ch a síce že pri referenčných modeloch má AMD zaistenú kontrolu nad kvalitou kariet a tak sa nemusíme báť tých nekvalitných Gaming X, Aorus ši Strix modelov :D
Ale vážne, reálne je myslím škoda resp. ak to tak bude tých malých objemov, s malým objemom byť dobrých kariet na RTX2080 veľmi nezatlačia... a keď ich nebude veľa a naviac všetko karty od AMD tak tlak na 2080ku bude ešte menší... bola by to škoda.
@Komplik, Dragonie & company...
- pomer vykon cena je stejne mizerny jako ji ma NV. Co tay chcete kritizovat? Museli by jste zacit u nejprve u NV. Aropos..za cenu NV preci muze AMD ne?..to je preci hojne sklonovana logika, ne? Takze, kdo ted bude za ty ceny nest odpovednost, pokud AMD nasadi stejne? Co vy mudrci..:)
- karta je zrava, protoze to neni nova architektura, ale refresh Vegy..to jste si celou tu dobu pred tim nevsimli ze Vega zere a ze kdyz asi pouziju stejnou/mire upravenou architekturu tak se to asi nezmeni?
- jestli karet bude malo a nebudou nereference, tak nejspis jsou asi opravdu vyrobni naklady vysoke..jine vysvetleni mne nenapada. Nicmene ja bych pockal...
Byt Vami mudrci, jsem rad, ze vydali aspon neco a ocenil bych aspon to, ale to by po Vas asi nekdo chtel uz prilis..
@J.Olsan.. k tom vyjadreni AMD CTO, ze chteji letos aktualizovat celou nabidku karet
Ze byt to skoncilo 12nm refreshem Polarisu/Veky, to bych povazoval docela za selhani a znamenalo by to, ze Navi nejspis zarizli. Krome toho si nejsem jisty, jak refreshem Polarisu/Veky chteli konkurovat Turingu, kdyz Veka7 je vyhonena zase na krev
Podla diskusie to najviac prekaza zakaznikom nVidie :-)
Radeon VII je vyvojarska a hracska verzia Radeon Instinct MI50. Cena Radeonu VII je porovnatelna ako ma porovnatelne vykonna RTX 2070. Radeon VII ma vsak 16GB RAM a RTX 2070 ma RT jadra a tensor jadra. Zakaznik si moze vybrat, co chce, a to je dobre. Ja by som bral Radeon VII, ale nepotrebujem ju, tak ju nekupujem.
LoL, tak tu máme FAIL ROKU hned na začiatku roka :D :) :P
A jak sa už amDD deti vytešovali ako AMD vracia uder a ruluje :D
Mno a teraz prišla kopačka od samotnej AMD a K.O pre fandov čo písali ako radi si ju pre jej "revolučne" featurky kúpia. Toto noXlik a DeDe nestrávia :P
Ale nebojte stále to ma aspon 16 GB mega gangster HBM2 VRAM :D
btw. od dnes sa predáva 12nm RTX2060, RX590 je tu 2 mesiace, Vega VII na 7nm stojí 7stoviek a bude v otáznych množstvách.
Robím unáhlené závery, minul som nejaké dôležité info keď napíšem že 7nm mainstream nech už od AMD či nVidie ( alebo intelu :D ) , segment 200-300USD nám minimálne 6-8 mesiacov "nehrozí", snáť začiatkom Q4 2019, niečo pred Vianocami ?
Ak to tak bude, tak nič moc na rok 2019... keď tu x mesiacov budú zaujímavé vlastne len výpredajové RX580/Vega 56 či v maximálnom výkone RTX2080Ti/Titan modely...
Osobne vidim Radeon 7 v mirne pozitivnim svetle. Vypovida o tom, ze AMD stale highend dokaze a za rok dva mohou byt opet ve hre a tvrde NVidii konkurovat.
Problematickou ale vidim cenu, mnozi tu kritizuji NVidii, ale cenove silenstvi jako prvni rozjela prave AMD v rade Fury. Nasledne i Vega byla opravdu draha (navic jeste nevykonna ve hrach) a ted Radeon 7 je zase drahy. Tudiz ohledne cen to vidim tak, ze asi lze do budoucna pocitat s 20.000 - 25.000 Kc za slusnou herni grafiku. To ovsem hram prilis neprospeje. Zalezi taky na platech, v soucasne dobe nejsem ochoten utratit za GK vic jak 15.000 Kc. A to jsem jeste pomerne narocny, znam spoustu lidi, kteri chteji hrat, ale za grafiku vic jak 6.000 Kc nedaji.
Ta cena RVII bude asi výrazně blíž k hranici rentability, on jen samotný cenový rozdil mezi 8GB GDDR6 a 16GB HBM2 bude patrně někde okolo 100US$. A asi i jednotková cena sice menšího, ale 7nm a méně chybového GPU bude vyšší než u velkého TU102 s dostatečnou chybovostí pro RTX2080 na zavedené výrobě. O vstupních fixních nákladech na wafer s ohledem na rozdíl v sériovost asi nemluvě.
Budu zde citovat jednoho člověka:
"Tak tohle si nekoupím" :)
Každopádně až tak špatně tu grafiku nevidím. FP64 a PCIe4? Napadá Vás využití? Ani PCIe3 žádnou grafiku nebrzdí.
Na druhou stranu tu kartu vidím ne jako herní, ale jako produkční. Opravuje mnoho neduhů první Veky. A 16GB HBM? No konečně. :)
Ta karta si získá mnoho vývojářů AI, lidi pracujíci s grafikou apod. Pro hráče? Asi bych jí nikomu nedoporučil. Snad budou ovladače na dobré úrovni pro profi užití.
Osobně věřím tomu že Navi přijde ještě tento rok. Prostě logicky by nedávalo smysl, aby AMD vydávala CPU - desky s PCI-E 4.0 aniž by k tomu vydali adekvátní grafiky. Je možné, že ještě stihnou nějaký refresh RX 560 na 12nm. Ale předělávat Polaris znovu, tentokrát na 7nm a PCI-E 4.0 tomu nevěřím.
Smysl dává, že AMD si otestuje 7nm na Vega 20, udělá pár karet. Je jasné, že to nebude žádné terno a pro AMD nic výdělečného vzhledem k ceně HBM a novému procesu. Ale prostě si to otestují a pár prodanýma kartami si ten test nového procesu zaplatí.
Vega 20 nikdy nebyla prezentována jako nějaký drtič Nvidie a jen pitomci mohli čekat, že půjde o kartu která má pokořit Nvidii a srazit jejich nechutné ceny.
Tohle je pouhá vycpávka pro období, než uvedou novou řadu karet. V2 je sice zajímavý počin, ale je vidět, že jen opravili/upravili starou V1 a shrinkli ji na 7nm.
S ohledem na cenu, výbavu apod. si myslím, že tu kartu ani moc prodávat nechtějí, a chtějí mít jen marketingový argument, že prodávají hiend.
Nejspíš proto výrobci ani nechystají nereferenční modely, protože se jim prostě nevyplatí vývoj něčeho co si stejně nebude nikdo kupovat.
Jo a klidně se může stát, že bude letos uvedena Navi, ale bude to prachsprostá Polariska na 7nm se vším všudy. Smysl by to dávalo, protože to je jediné co AMD momentálně má.
...ono možno si AMD so 7nm, 300+mm2 jadrom a 16GB HBM pamäťami zakúsila príliš veľké sústo... a tak byť pri cene 700USD a ak to bude ozaj ešte s takou všelijakou dostupnosťou, no neviem ako na nej bude AMD nakoniec profitovať.
btw. RX590 fuknutá ma 7nm by bola bomba, +/- 160mm2, obyčajné pamäte a výkon nahnaný frekvenciami - ale tam by to asi isto nedokázali vyrábať v dostatnčnej miere mainstreamoveho trhu.
tombomino 15.1.2019 at 9:59 :
"– pomer vykon cena je stejne mizerny jako ji ma NV. Co tay chcete kritizovat? Museli by jste zacit u nejprve u NV. "
No tak pokud začnu u nVidie, tak nVidida nabízí za obdobné peníze:
- víc FPS
- menší spotřebu
- RTX obvody, které využiji v budoucnu.
... takže tak asi...
1: poměr cena výkon nekritizuji, takže nemám co kritizovat, říkám jen že poměr cena/výkon nové vegy je identický jako u 2080 nebo 1080Ti, všechny karty jsou na tom +- stejně výkonem a oficiální cenovky jsou stejné. Proč to někteří tak hlasitě rozmázávali u 2080 a u Vegy najednou mlčí? A kdo může za jaké ceny? Ten kdo je navrhuje, tzn za ceny NV může NV, za ceny AMD může AMD,
2: je irelevantní zda je to nová architektura nebo refresh. AMD přecházela ze 14 na 7nm, a to je to z čeho měl lecjaký AMD fanoušek vlhké sny o tom jak se zlepší spotřeba. Alespoň se zlepšil poměr výkon/spotřeba, ale papírové předpoklady jsou trošku jiné, nevyužitý potenciál.
3. množství karet nikdo nekritizuje, pokud jich ale bude málo, cena 699 USD bude jen číslo v AMD prezentaci.
Ano, opět konzistentně oceňuji, 16GB paměti, ti kteří mají takové potřeby toho mohou využít, sám jsem na to dost zvědavý 8GB v X-Plane a P3D vyhučí raz dva. 11GB na NV kartých mi přijde na hraně ani titan s 12GB to nijak nevylepšoval. Vega s 16GB se mi zdá ideál, ale aktuálně žiju s 8 za cenu kompromisu a vlastně už jsem to nezapl půl roku, kdežto hry které by uvítaly vyšší výkon hraju denně, a vím že VegaVII ani RTX2080 nemají toho výkonu tolik, i ta 2080Ti je na hraně a kupovat si kartu za 33 která má hraniční výkon teď je za mou psychologickou hranicí, tak jak tak bych ale oproti 16GB VRAM preferoval podporu RT a AI, opět konzistentně, jde mi v první řadě o realističnost grafiky než její výkon.
AMD u Fury X jenom nasadilo stejnou cenu jako Nvidia u GTX 980 Ti, tak nevím, jestli začalo. 650$ za highend grafiku byla snaha Nvidie, a to už u GTX 280 (2008), kde jí to ale rychle selhalo. Jen chvíli trvalo, než to zkusili znovu. Přijde mi to stejné jako s tímhle Radeonem, taky má cenovku jako RTX 2080, akorát že dneska už to pro Nvidii není top příčka.
Takže jak si tu někdo dělal legraci, že za ceny Nvidie může AMD, tak se asi se dá říct, že za ceny AMD může Nvidia. Ale kdo ví, jestli by ta karta vůbec vyšla, kdyby ta cílová částka byla jenom 500-600. Jinak tedy jak u Fury i u tohohle asi platí, že má AMD vyšší výrobní náklady, takže dává smysl, že využívá vysoko posazené ceny u konkurence a nežene se do cenové války, protože v té by prohrálo (podstatně menší hrubá marže znamená, že nemůže seškrtat cenu zdaleka tak moc, jako Nvidia). Sice se pak těch karet prodá málo, ale aspoň ne se ztrátou.
Tenhle nazor vidim pod clanky o GPU asi poprve. Vzdy to je jen zla, predrazena NVIDIA od chamtiveho kozenaka. A najednou vyjde radoby highend od AMD se strasnym pomerem cena/vykon, ale cenu v tomto segmentu uz vlastne nikdo neresi. Nahodicka? ???????????????? Tvl, budte v tom svem fanatizmu alespon konzistentni ????
Nie komplik, pri AMD to tak nie je, až reálna cena nebude zodpovedať odporúčanej tak je to samozrejme chyba nie AMDD ale distribúcie, predajcov, iluminátov, marketingom zmetených zákazníkov a samozrejme nVidie. "cenovka je jen na okrasu", to platí len pri tých podvratných a dotovaných kartách od nVidie, pri AMDD je to úúúúúplne iné :D
Jestli to bude jen refernční, tak ta cena bude sedět. To co uvádí jeDDen web, že kdo má na GK 20k, tak má i 35k, je prostě blbost. Každej má někde svoje hranice. Samozřejmě pokud by ta karta VII měla stát 900 dolarů, tak je to samozřejmě nesmysl (uvidíme, jakej je reálnej výkon). Samozřejmě podle aDDmina je VII pecka největší a 2080 nemá vlastně žádný význam a je to nejhorší karta, kterou Nvidia vydala.....
"…ono možno si AMD so 7nm, 300+mm2 jadrom a 16GB HBM pamäťami zakúsila príliš veľké sústo"
..ja si myslim to stejne, proto ocenuji, ze to vubec vydali abral bch to jako gesto 'dobre vule' :)
"RX590 fuknutá ma 7nm by bola bomba"
.. to asi jo..ale chtelo by to uz nejakou efektivnejsi architekturu.
Uvidime co prinese druha polovina roku. Momentalne maji sted nabidky od 4-10k pokryty dobre, snad nejlip co to momentalne jde.
Uz ji mas Jardo, tu kartu s RT obvodama, kterou vyuzijes do budouctna? :)
Ty uz vis, jaky potencial RT v soucasnosti ma? To budes asi jeden z mala, kdyz ani redaktori napric weby si nejsou jisti, co od soucasne generace RT vlastne cekat.
Kdyz pises o vyssim FPS...ty jsi videl nejake testy?
Takze asi tak Jarousi..
Až to uzraje, typický AMD argument ne? AMDčkaři mohou čekat roky na něco co nepřijde vábec, NV má aspoň něco, že a únor s dalším titulem máme za rohem.
Ale jak jsem psla to je tam navíc, stejně jak AMD má navíc paměť.
Ale o to tady nejde, AMD fanoušci nadávají že NV zdraží přitom výrazně zlepší poměr cena/výkon (například 2060 za 349 je téměř 1080 za 500 usd, nebo je na úrovni vega64 az 500 usd) ale je to špatně, Když náhodou NV opravdu o něco zhorší poměr cena/výkon, třeba u 2080Ti, nebo stagnuje jako u 2080, je to špatně, nová vega bude žrát to samé co stará vega, bude mít výkon stejný jako 2080 a stejnou cenu.
nová vega využila 7nm technologii o které tu leckdo básní jako by to byl svatý grál který přinese mraky výkonu, HBM2 které jsou prostě top bez které se svět zboří a tahle kombinace dá jen to co konkurence na 12nm procesu, s GDDR6 a celkově nižší přenosovou rychlostí a to ještě za 2/3 spotřeby, kdy na tom čipu je ještě spousta křemíku navíc (RT, AI cores).
U NV karet se tu pravidelně vynoří spousta kritiky, teď je tu ticho po pěšině, přitom ve srovnání s konkurencí je výsledek horší
vtip je v tom že tato GCN pořád sílu má, jediné co jí schazovalo byly nízké frekvence. I ten mrzký Polaris po růstu na 1600Mhz ukazuje úplně jiné výkony než první kdy se klepaly kolem 1200. Může se to zdát zoufalost, ale když z Vegy vymáčknou 1,8Ghz+ tak to vypadá taky úplně jinak. Nvidia neprosperuje kvůli lepší architektuře ale jednoduše jako Intel díky vyšším frekvencím. Takže když se dorovnávají už to takové terno není.
"2: je irelevantní.."
..tohle samozrejme neni pravda. Pokud jsi rajce, ktere si kupuje jednou za 5 let rafiku na krame, tak te nemusi zajimat ani to jakou technologii je to udelane. Pokud nejsi rajce, coz ty podle poctu svych prispevku rozhdne nejsi, tak musis brat do uvahy i veci jako je technologie a spol.
"..z čeho měl lecjaký AMD fanoušek vlhké sny o tom jak se zlepší spotřeba"
.. ja nevim, ja si teda zadne nadsene kometare ohledne refreshe veky a jeji spotreby nepamatuji uz jen z toho duvodu, ze nebyla ani v roadmapach a nic se o ni neveelo. Jestli to neni spis tak, ze byl to spis tvuj "vlhky sen".
Zbytek ok :)
AMD povedela na konferencii, ze je to vyvojarska karta.
Na vyvoj hier bez RTX efektov. RTX efekty v 4K na 60Hz nezvlada ani Titan RTX za 2500 EUR. Mainstreamova herna karta nebude RT zvladat v 4K na 60Hz ani za 10 rokov. Este aj v BF V museli obmedzit RT, lebo ich zvladala iba 2080 Ti RTX za 1200 EUR na aspon 60Hz.
No tak jasne, kazdopadne sam potvrzujes, ze to taky nevidis, jak nekteri spolehaji, ze az AMD vyda novou radu grafik, ze pozene ceny dolu. Proste soucasne ceny grafik jsou realita, u ktere v nejblizsich letech zustane a ani AMD to nezmeni a naopak ty ceny vita.
Jedinej, kdo by mohl vnest trochu svetla a snizeni cen, je Intel, ale tam je to furt velke kdyby, protoze netusime, jakou grafiku vyvine a kam ji bude smerovat.
To ze maji drahe vyrobni naklady je ale stale chyba jen a jen AMD a jejich planovacu/inzenyru... uz jsem to psal, to, ze NVIDIA na AMD v soucasne dobe nepritlacila nasazenim agresivnich cen je jeji nejvetsi chyba. Navic kdyby se soustredili jen na vykon a vynechali ona (zatim) zbytecna jadra... Rozumnyma cenama by si ziskala prizen zakazniku a AMD by musela prodavat draz nez oni nebo za cenu ztrat... double win. Takhle se bude AMD jeste par let dotahovat a uvidime, treba prijde nejaky milnik... Osobne si myslim, ze tyhle ceny a rozsirujici se rychly internet budou nahravat cloudovemu hrani a konzolim. Vetsina mainstreamovych hracu pak radsi zaplati par stovek mesicne za zapujceni vykonneho PC, nez aby dali desitky tisic za vlastni PC, popr. prejdou na konzole za 10 tisic ALL IN ONE....
nvidia má nějakou 7nm kartu?
nvidia nabízí herní kartu s HBM?
přináší shrink běžně 30% výkonu navíc?
Podle mě to je zajímavý počin, stejně jako byl RTX u nvidie, než se ukázalo, jak velký to je ojeb. A na rozdíl od jednostranných oslavných ód třeba takového maudita si myslím, že jsem se vyjádřil celkem uměřeně a spíše kriticky.
Jaký fanatismus máte na mysli, necelý rok a půl spokojeně používám ASUS Strix 1080Ti OC a věřím, že bych si pro své UHD hraní s omezením kvality v některých hrách asi výkonově vystačil i Radeonem 7.
Jsem osobně zvědav na výkon Radeonu 7 v DaVinci Resolve, podle benchmarků již Vega I byla výkonově blíž 1080Ti než 1080.
to že vlastne vzali minuloročnú prof. Instinct grafiku a spravili z nej hernú to hej, to beriem aj to že to nie je až tak "klasická herní karta"
Ale aj tak si myslím že je to veľké sústo - v herných grafikách.
Lebo ako hovoríš, tú grafiku vedia v profesionálnom segmente predať za pravdepodobne násobky "hernej" ceny a pri 700USD finálnej ceny pri cenách 16GB HBM, toho interposeru a 7nm procesu - nehovor mi že AMD neostanú na konci dňa drobné.
A potom na čo ju tam majú, koli marketingu ?
AMD dlhodobo tlačí nVidiu výhodnosťou a tým že má oproti nVidii niečo naviac - najme viac pamäte - a v nejaké zázračné úspechy vďaka tomu že sa môžu porovnávať s RTX2080 veľmi neverím.
To že postavili niečo proti RTX2080 a vlastne GTX1080Tiu je super, ak bude mať +/- 5% ich výkon tak sám by som ju vzal ak by na to prišlo už len koli tým 16GB pamäte, už len pre dobrý pocit.
Ale o to tu nejde, ide o to koľko na tom trhne AMD a či to má zmyslel - ale verím že si to ľudia od AMD dobre spočítali.
FuryX byla taky jen reference že, a jak šla cena nahoru když jí na trhu nebylo moc. Jak se prodávaly referenční Vegy při vydání když jich bylo málo a karty bez bundle byly jen pro pár vybraných prodejců a ještě v omezené míře.
když mám v ruce výrobek na prodej , vím že ho skoro nikdo nemá natož aby ho měl plné regály a před pultem mi stojí pět lidí ochotných se klidně o tu kartu poprat... proč bych nezvýšil cenu.
U nás je to samo trošku vlažnější protože i základní cena je příliš, ale trhy s vyšší kupní cenou reagují výrazněji na nedostatek
Hele Jiricku, ty asi chodis prilis na ddworld. Ja jsem tady nevidel nikoho, kdo by nad novou Vekou basnil, komentare jsou spis opacne. To ze ty vidis "teď je tu ticho po pěšině, přitom ve srovnání s konkurencí je výsledek horší".. to je tvoje videni. Ja tady zadne takove nevidim.
"Až to uzraje, typický AMD argument ne? AMDčkaři mohou čekat roky na něco co nepřijde vábec, NV má aspoň něco, že a únor s dalším titulem máme za rohem."..
tohle je zu uplne zbytecny hloupy komentar, stejne jako jine tvoje vytvory tady..potreena husa kejha...
Kritika na Nvidia zní pro to, že na rozdíl od AMD mohla svou poslední generaci pojmout jinak (preference renderingu, cenotvorba). U AMD se o zklamaných nadějích na poli GPU asi nedá hovořit, protože je nikdo neměl (mohla asi jen prekvapit v rámci svých velmi omezených možností). Stalo se, využitím výpočetně orientovaného GPU pro herní kartu. Až čas (benchmarky/zájem) nám ukáží v jakém to bylo směru.
"Mainstreamova herna karta nebude RT zvladat v 4K na 60Hz ani za 10 rokov" - tak ono sa uvidí, hneť v ďalšej generácii nVidia RTX kariet či vôbec nejaké RT bude teraz nie to o 10 rokov :D
PS: ale zase ak by na to tlačili, verím že za 10 rokov by išlo aj v 4k aj 60pfs aj s RT v mainstreame, 10 rokov je doba, na to nezabúdajme - pred 10r sme tu mali v highende pecky ako GTX 280 oproti ktorým sú dnešné RX480-590 a GTX1060 priam mimozemské grafiky s nepredstaviteľným výkonom takže nemám obavy že v roku 2028-29 tú nebudú karty oproti ktorým budú dnešné Vegy a RTX-ky totálne, nepoužiteľné šupáky :D
"Mainstreamova herna karta nebude RT zvladat v 4K na 60Hz ani za 10 rokov."
Mame tu urcity posun. Pred casem to bylo "DXR bude nepouzitelny jeste 10 let", nyni je to "mainstream karta neda 4K@60 jeste 10 let"
:D
DFXi, zaznamenals, pri sve znalosti budoucnosti, ze mainstreamove karty _dneska_ nedaji 4k@60 i bez DXR? :D :D :D
ty ses teda taky poradnej komik :D
"Radeon VII je vyvojarska a hracska verzia Radeon Instinct MI50. Cena Radeonu VII je porovnatelna ako ma porovnatelne vykonna RTX 2070. Radeon VII ma vsak 16GB RAM a RTX 2070 ma RT jadra a tensor jadra. Zakaznik si moze vybrat, co chce, a to je dobre. "
@DFX: velmi trefně napsáno
Ty jo psát o někom, že je malé dítě a sám napsat dětsko ???? stejné jako nechty ???? chlape učivo 3. a 4. třídy základní školy, když jsi nezvládl tohle, jak vážně se dají brát příspěvky hodnotící jiné lidi nebo psát o IT? Nic ve zlém, ale nechceš si nejdříve doplnit vzdělání? Abys nebyl za blbce. Protože znám Tvou odpověď dopředu, znovu zdůrazňuji - učivo 3. a 4. třídy ZŠ
dodatek: ty sám jsi ojeb přírody a jen čas ukáže, jak velký ... pokaždé máš potřebu otírat si tlamu o každého, kdo se dotkne tvého ega, přitom Crha není daleko od pravdy s tím retardovaným přerostlým děckem, kterému když není po vůli, reaguje většinou jako ukázkový mentální žebrák ...
Ano, podle mě je to čistý marketingový výstřel (a možná snaha prodat B-grade čipy, které se nehodí pro profi karty).
Lisa měla prostě čím zamávat na CESu, ukázat tabulky, grafy, atp.
Stejně jako kožený mužík mával pojmem RT jen proto, aby navnadil zákoše na nové karty a přemrštěné ceny.
No a co se konkurence pro RTX2080 týká, tak mě to nechává chladným. Ty karty jednoduše nejsou výhodné ani jedna, a to jak z pohledu technického (AMD má sice nový proces, ale starou arch, nvidia má zase starý proces a novou, ale nevyladěnou a zjevně ne zcela (smysluplně) funkční architekturu), tak z pohledu ceny.
A pokud bych se tedy měl vyjádřit na téma, co se mi na V2 (ne)líbí, tak by to bylo zvládnutí 7nm výroby a HBM a hlavně ten výkonový nárůst, který je zároveň silně dvousečný, protože ukazuje, o kolik byla V1 zabržděná a že plus/minus tento výkon tu mohl a měl být už před 18 měsíci - nebýt toho, že AMD nemělo čas a finance ten čip zprovoznit. Všechno mohlo být jinak, 1080Ti mohla mít konkurenci (pravda, asi mírně žravější, ale na to se v hiendu nehraje) a všechno mohlo být jinak.
Přiznávám, jako majitel 8600K a GTX 1080 v PC výhradně pro gaming mám tendence se konkrétně těchto dvou komponent pro ono využití zastávat a objasňovat důvody jejich pořízení. Ale nemám problém zkritizovat jiné modely/ceny obou firem, nebo naopak vyzdvyhnout Ryzen CPU popř. RX 580 (bohužel v GPU nevidím od AMD jinou konkurenceschopnou kartu oproti NV alternativě) Snažím se to vidět alespoň trochu s nadhledem (snažím, ne vždy to klapne ???? ), ale rozpalují mě doběla někteří místní fanataci, kteří nevidí a neslyší (nebo nechtějí vidět a slyšet) cokoliv, co jim nehraje do karet pro jejich oblíbenou modlu... je to jako OBR a DD. Dva fanatici, co mají tady (a na dalších fórech) své nohsledy a zaslepené ovečky...a i když asi přijdu o vysněný Crhův řád, tak Ty mezi ně svým fanatizmem Jardo často patříš.
Nebylo náhodou těmi zmiňovanými 300W míněno TDP celé karty a ne jen samotného GPU? Ztráty na napájecí kaskáde a 16GB HBM2 si určitě vezmou z této hodnoty svůj díl.
Například i9 9900K umí v pouhé CPU zátěži snad dosáhnout ke 100W a to ze 177mm2 die zabírají významnou část cache, iGPU apod. U GPU zátěže bude produkce tepla asi plošne rovnoměrnější.
A nejlepší bude, že dnes je mantra, že AMD do RT ve hrách půjde až to budou zvládat lowend karty. Bohužel ale AMD už dnes prohlašuje, že maká na HW i SW. A nedivil bych se, kdyby zanedlouho měli podporu ve svých kartách. Nevyužitého teoretického výkonu mají více než dost a když je to takový ojeb že to zvládne i Titan V, tak to pro AMD nemůže být žádný problém.
Neco podobneho jsem chtel napsat. Kolem RTX se kricelo / krici, protoze ocekavani bylo trochu jine. Ne ze by ty karty nebyly lepsi, ale cenovka se cekala jina, pocet her podporujicich RT a DLSS - proste nove technologie, kde uvedeni nesplnovalo nejaka celkova ocekavani velke skupiny.
Od AMD vskutku nikdo nic necekal a Vega VII vypada jen na dalsi trapny release, ktery zajima jen male procento uzivatelu, potazmo fanatiku, zrejme proto je “ticho”. AMD si zjevne zkousi 7nm, to je asi cele. Zkripleni vykonu ve dvojite presnosti z tohoto cipu dela uplne nezajimavy produkt, pro hodne lidi. Vzhledem ke spotrebe, ocekavanemu vykonu a cene asi nema smysl uvazovat o koupi, kdyz tu mame 1080, 1080 Ti a 2060. 16 GB pameti vypada na papire moc krasne, ale hrace papir nezajima a pri vykonu Vega VII je uplne jedno, jestli je tam 8 , nebo 16. Za me je Vega VII, alespon pro ted, uplne zbytecny produkt.
vcera som skladal i7 9700k, 16ram, asus strix 2080OC.. vo furmarku spotreba 350W.. a tu sa bavime o karte co ma podobny vykon a iba sama ma taku spotrebu. V minulosti, ked nvidii nesiel dobre DX12, tak boli reci (najma DD) ze amd vie, nvidia nevie, fuuuuuj!! Teraz je to presne naopak, R7 nevie RT, zrejme ho nebude mat ani Navi, takze dajme rovnaky meter! R7 bude pre hry prepadak a podla tohoto clanku sa neoplati kupit ani do pracovnej stanice... Naco taka karta?
ano pravopis napadne jen tupec a ještě větší tupc na to upozorní a úplně největší tupec s ptačím mozečkem neví, že Crha píše "dětsko" naschvál už řadu let aby podtrhl že se jedná o malého sprostého nevychného spratka.
Dále bych vám třeba rád vysvětlil jaký rozdíl je mezi pohybovat se "do kopsa" a do "do kopce", ale když nejste schopen pochopit ani tyto elementární věci, jak s Vámi potom vést debatu nad tím, že škola je jen prodloužená ruka politiků k výchově ovcí.
Hele nechci ti sypat sul do ran, ale nvidia ma fungujici perspektivni technologii, +naskok v implementaci, podporu v nejocekavanejsi hrach, vyfoukla amd adaptive sync a je vysmata jak leco.
amd ma tenhle predrazeny epic fail dieshrink, ktery zere vic jak 2080Ti, ma vykon jako pomalu tri roky stara 1080Ti (podle AMD, realita bude jiste zajimava), na profi se nehodi a na hry je pomala, zrava a draha. oproti konkurenci nema vyhodu ani v cene, ani v technologiich. potrat. nema cenu to rozmazavat, nejlepe zapomenout a dal cekat na zazrak, my ostatni parime.
idefixi, na 4K@60 si musis jeste par mesicu pockat, zatim mame 4K@47 fps :) A to pri zvyseni kvality i poctu rays a povrchu!
https://www.techpowerup.com/reviews/Performance_Analysis/Battlefield_V_Tides_of_War_RTX_DXR_Raytracing/3.html
jeste 13fps a bude i 60! To snad vydrzis :D
"Hele nechci ti sypat sul do ran, ale nvidia ma fungujici perspektivni technologii"
.. to myslis RT demo? Pockej Hnizdile s hodnocenim, az to bude implementovane aspon v 4-5 hrach, at se da udelat co to prinese nebo ne,.
- vyfoukla amd adaptive sync .. ono to bude Hnizdile trochu jinak. Spis NV priznalka, ze jeji G-Sync nedoznal takoveho uspechu, jaky by potrebovali. To ze zacali podporovat de-facto FreeSync jen znamena, ze si potrebuji zajistit, aby jim ovecky neutikali k levnejsimu reseni AMD. S trochou nadsazky se da rict, ze tohle je pocatek konce NV G-Syncu
ten posledni odstavec je uz jen blabol za blabolem.. asi by jsi mel doporucit, aby se nekupovala 2080, protoze je pomala :)
"vyfoukla amd adaptive sync" ????????????????
Jak se "vyfukuje" něco, co bylo dáno veřejně a zdarma k dipozici? AMD dodala řešení (včetně otevření IP a úvodní podpory výrobcům monitorů), nvidia se (konečně) po několika letech připojila ke zcela očividně lepší, levnější a rozšířenější technologii - což bylo ostatně kvitováno pozitivně i samotnými zákazníky nvidie.
Ale jo, jinak jsi mě svým zeleným snem hodně pobavil, je moc pěkné vidět, v jaké virtuální bublině to vlastně žiješ.
tombomino 15.1.2019 at 23:18 "S trochou nadsazky se da rict, ze tohle je pocatek konce NV G-Syncu" To neni nadsazka, ale utek pred realitou :) Nvidia nikdy neinvestovala do gsyncu vic nez dnes :)
tynyt 16.1.2019 at 7:03 Vyfukuje se to marketingem, muj maly naivni priteli :) Zatimco amd uz ani nedrzi statistiky FS monitoru, nvidia maka a rika zakaznikum co funguje a co ne :D A ze je freesync ocividne lepsi? Tak urcitee, s rozsahy 48-60Hz u poloviny modelu je to vylozene lahudka! :D
Jarousku, choleriku, nerozciluj se. Ono totiz existuji uz i dnes hry, ktere si vic jak tech 6GB ve 1440p vezmou i dnes. Na to si nemusi porizovat ani 4k monitor. Pokud to stale nechapes, tak pred cca 3-4 lety stacilo jeste vetsinou 2GB VRAM na pohodlne hrani pro 1080p, 1440p to bylo na hrane. Dneska jsou 2GB VRAM pro fullHD uplne mimo a minimum jsou 4GB, lepe tech 6GB. A to nas deli jen 3+ roky. Co si mysls, jake naroky budou za dalsi 3 roky?
Hele Hnizdile, vis co to znamena abstraktni uvazovani?
Pokud mi napr. 3GB 1060 muze dropovat podstatne vice v narocnych scenach na pamet nez jeji 6GB sestricka, tak co se stane v momente, kdy se naroky posunou vyse?
Test z prelomu 2015/2016..kde je jasne videt, co zpusobuje nedostatek VRAM pro 1080p. Ja jsem zazil presne to stejne s 2GB kartou.
https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/
Kdyz se ohanis vysledky Nexusu a HWunboxed, tak dej linky, ktere tvoje tvrzeni pro 1440p podporuji.
Hele Gogole, kup si co ti vyhovoje. Pokud nepotrebujes vic VRAM, tak proc by jsi si ji kupoval? Tady se bavime v obecne rovine. Neko jiny treba vic VRAM potrebuje. Treba mod pack s testurami do RPG uz v roce 2014 potrebovali 4GB VRAM.
Ja nikde nepisu, 3GB karta je na prd, 6GB karta je na prd. Ja pisu, ze muze zpusobovat stuttering. Jestli to nekomu za to stoji nebo ne, at se kazdy rozhodne jak chce.
Hnizdile realita v obchodnim svete je takova, ktera funguje (rekneme bez podrazu).
Realtou NV je, ze jeji G-Sync nejspis obchodne neuspel tak, jak potrebovali. Cenovy priplatek se vetsine hracu nevyplatil oproti beznemu nebo FreeSync monitoru. To je cely. To ze se rozhodli pro Vesa based technoloii, jen znamena, ze povrdili, ze pristup AMD byl lepsi.
Jestli to jako pravoverny zelenac zkousnes nebo ne,je uplne jedno.
tombomino 16.1.2019 at 11:24 vysledky CB nikdo dalsi nepotvrdil, pouze tydiit soucek si z toho udelal normu.
https://www.gamersnexus.net/hwreviews/3427-nvidia-rtx-2060-founders-edition-review-benchmark-vs-vega-56
Testovano ve 4K!!!
The GTX 1070 plots better framerate than both of these, nearing 20ms average, and is the best performer up until we plot the RTX 2060. The RTX 2060 sits between 15ms and 20ms on average, with 16.667ms representing a 60FPS average. The 2060, like the previous cards, has overall excellent frametime consistency and would present minimal “hitching” or stuttering in this title.
Koukam, ze abstraktni uvazovani nezabralo. Tak jinak..
To ze gamersnexus zadne vykyvy pro frametimes nenameril neznamena, ze nemohou byt, Maji jinu skladbu her, nez napr. na CB, kteri to testovali v nejake scene na COD WWII a FF a naopak peaky pro frametimes namerili.
Pokud chces dokazat dneska (a to se vubec nebavim, co bude za 2- roky), ze to tak neni, musel by jsi pretestovat testy z CB a dojit k opacnym vysledkum. Vzhledem k tomu, ze je nemas, tak tvoje tvrzeni, ze 6GB uz dnes nemuze byt limitem, neni pravdive, protoze existuje jine mereni, ktere dokazuje pravy opak.
Zpočátku byla diskuze pod tímto vláknem zjevně přátelská, a vtipná, ale tenhle dodatek už může být špatně pochopen. Někdo neznalý, by si dokonce mohl i myslet, že některé urážky myslíte vážně, že se chováte jako smečka... a mohl by tak nepochopit, že se vlastně všichni máte navzájem rádi a doplňujete se, jako ta nejlepší parta.
Samozrejme znamena, protoze cod WW2 na fullhd nevyleza z 6GB
https://www.overclock3d.net/reviews/software/call_of_duty_wwii_pc_performance_review/12
Takze mu 6GB vadit nemuze.
A FF XV zase netrpi stutteringem ani 4GB kartach, vyuziva jen tolik, kolik je mozne
https://www.guru3d.com/articles-pages/final-fantasy-xv-pc-graphics-performance-benchmark-review,9.html
Takze ten stuttering co nameril CB je zpusoben jinym problemem. Zadna jina redakce vysledky CB nepotvrdila.
Protoze vyse uvedene prokazuje, ze stuttering nedostatkem vram byt nemohl, nelze tvrdit, ze 6GB vram je nejakym limitem, na ktery je treba brat pr vyberu ohled.
Hele Hnizdile, ty fakt toho uz nechej.. Vzdyt prvni graf jasne ukazuje, ze ta hra dokaze ve 1440p sezrat 6GB (6087MB)
https://www.overclock3d.net/gfx/articles/2017/11/06152403292l.jpg
To si myslis, ze tu hru projizdeli celou a ze to pouziti 6GB nemuze oscilovat nekde par set mega nahoru nebo dolu podle sceny? Kdyby tady namerili treba 5,5GB tak nereknu..krome toho mas na CB vysvetleni, proc k tomu stutteringu dochazi, ktere jsi urcite ani necetl... Je tam taky jasne napsane, ze v momente, kdy snizili kvalitu textur, tak stuttering prestal.
Bud diskutuj trochu s rozumem a nebo toho nechame..
Krome toho se to tyka i BF V
"Auch Battlefield V rennt in DirectX 12 schnell ins Speicherlimit
Während des Testens ist zudem aufgefallen, dass die GeForce RTX 2060 mit Battlefield V in Probleme gerät, wenn die DirectX-12-API und eine höhere Auflösung als 1.920 × 1.080 genutzt werden. Bereits mit einer um 25 Prozent höheren Auflösung als Full HD (erreicht per Ingame-Downsampling) verliert das Spiel massiv an Performance. Wer zusätzlich Raytracing aktiviert (das den Speicherverbrauch weiter erhöht), sieht dann nur noch eine Ruckelorgie. Eine GeForce RTX 2070 erreicht in demselben Szenario noch mühelos mehr als 60 FPS. Daran ändert auch der Schalter für die Speicherbeschränkung im Spiel nichts."
Muzes si to dat do prekladace, prekladat ti to nebudu..
tombomino 16.1.2019 at 16:20 Trombozo, ja vim ze si uz uplne zoufalej, ale vsiml sis, ze v 1080p, kde ma CB jeste dvakrat vetsi vypadky nez v 1440p, zere ten COD 5,5GB? XD
Mimochodem, bavime se o MainLeben! preset, poradi ultra-uber-mainleben.
Vsiml sis, ze dle 99th percentile kolisa fps na 2070 podstatne vic, jak na 2060ce? :D
Panove z CB se ani nepozastavili nad tim, jakto ze na 6GB 1060ce se tohle nedeje.
Kristapana, jestli uz ani tohle nikoho netrkne... Proste dostali za ukol od sponzora vsude mecet o male pameti bez ohledu na realitu.
Hele ty jedna Hnizdilovska bukvice... anglicky neumis, nemecky text si taky neprectes a ani se nenamahas si to prelozit. Ja vim to je moc prace. Ke vsemu tam je od nich napsane vysvetleni toho, cemu ty se tady tak divis, proc to v 1080p to laguje vic nez ve 1440p. Abstraktne taky nic nechapes, to ze ta karta je dneska v existujici he na svem kapacitnim limitu a stoji 10+,- kc budes stejne ignorovat. Tak hlavne ze vis, ze zelena je nejlepsi.
V poradku, kazdy mame svoje priority.
posledni poznamka Hnizdile, kdyz mas teda to "abstraktni mysleni" jak tvrdis... i jemne nazelenaly Adam Wagner na NVtuningu napsal do zaporu pro 2060, ze ma jen 6GB RAM. Kdyz uz se neco takoveho objevi doonce na NVtuning, tak bych rekl, ze to asi na dnesni dobu a cenu karty fakt neni dostatecne... ale klidne ignoruj i toto a najdi si nejlepe recenze, ktere te utvrdi v tom, ze je to dostatecna kapacita i do pristich let..
Muj mily zoufaly trumbeline, mne je jedno co pise AV, je mi jedno co pise CB, kdyz to neni zalozeno na realnych podkladech.
A prokazal jsem, ze neni. Klidne dupej nozickama, to co jsem uvedl jsou nezpochybnitelna, pevna fakta. Zdrojem jsou ruzne recenze, ne jen ta jedna co tobe a rude uderce vyhovuje.
Narozdil od tebe nepracuju s jednou vadnou recenzi, ctu je vsechny, cetl jsem i ty minule a budu cist i ty budouci. Take narozdil od tebe ty hry hraju a delam friendly support desitkam hracu. Vim presne jak se hry chovaji na ruznych konfiguracich, mozna lepe nez mnozi recenzenti.
A doporucuju ti, abys nebyl papezstejsi nez papes, protoze i tydiit soucek se backuje vadou v mereni nebo driverech, protoze moc dobre vi to co jsem tu uvedl.
"Tou (pricinou) by mohl být nějaký problém (ať již softwarový nebo hardwarový), k němuž došlo deaktivací části funkčních jednotek. Zkrátka nějaká cache či synchronizace nemusí fungovat optimálně. Za předpokladu, že by šlo o softwarově řešitelnou záležitost, by to byla pro uživatele lepší varianta, protože by existovala naděje na opravu v ovladačích."
Tak tu nezvan porad neco o 6GB kdyz pro to nemas v ruce vubec nic.
del42sa 16.1.2019 at 8:03
Aneb kdyby byly v riti ryby, nebyly by rybniky.
Ja bych radeji, "kdyby AMD radeji investovalo prostredky do cipu, ktery bude konkurenceschopny highend Nvidie ve vsech ohledech - vykon, realne vyuzitelne technologie, spotreba, cena, dostupnost, nez tu zaplavovalo trh s nesmyslama tupy RX 590 a Vega VII".
Protoze KDYBY zamerili veskere sve usili, tak by Nvidia prestala okusovat maso ze zakaznika az na kost a mozna bychom tu meli normalni vyvojovy trend.
ty to asi porad nechapes :) nvidia ma ted oboji, jak gsync tak adaptive sync :) to lepsi i to levnejsi :) pochop ze posledni alespon teoreticka konkurencni vyhoda amd nejen padla, ale byla dale vylepsena zjistovanim realne funkcnosti pro zakazniky zdarma. to neznamena jake reseni je lepsi, jedine co to znamena, ze nvidia vyfoukla amd posledni teoretickou vyhodu kterou mela :D
jo, pardon, amd ma jeste asynchronni tendletonc :D :D :D