To bude průser... Jestli s tím 375 W monstrem nezadupou nereferenční 1080 Ti do země, tak nevidím pro AMD grafickou divizi dobré časy a stejně, jestli to ten výkon mít bude, tak cena musí jít níž než u Nvidie a kolik na tom pak můžou vydělat?
375 W monstrum to jsem teda nečekal, to už je šílený topení, když to porovnám třeba s nereferenční ASUS ROG STRIX GTX 1080 Ti GAMING OC, která boostuje na +/- 1930 MHz se základním TDP 275 W (při zvednutí power limitu a přetaktování 330 W, omezeno biosem), tak je to šílené...
Můj odhad je, že AMD musí tu kartu hnát na maximum co to jde, jen aby z toho vyždímali každé procento výkonu, aby se těm 1080 Ti vůbec přiblížili, jinak si to nedovedu vysvětlit.
Mam nejake neoverene info, ze XL bude mit jen 4GB pameti.
Osobne jsem hodne skepticky, XL bude konkurovat GTX1070, XT ~ GTX1080 a XTX ~ GTX1080Ti. Jenze vsechno je to -100W pro NVidii a to, ze by Vega byla vyrazne levnejsi to teda neverim.
Hrozne bych rad, ale nedokazu si predstavit tu idealni situaci, ze by XL bylo nad GTX1080, XT nad GTX1080Ti a XTX by byl top produkt, na ktery by NVidia nemela odpoved. Bylo by to bombasticke, ale nevsadil bych na to ani petnik. :-/
Môžeme len špekulovať, ale ak AMD ženie Vegu to takých TDP tak to asi vážne je čip ďaleko za svojím "sweet point" z hľadiska spotreba/výkon a AMD to skutočne ženie na čo max. výkon aby znížili náskok 1080Ti.
Príde mi nepredstaviteľné žeby ju tak hnali koli to tomu aby s rovnako výkonnej karty (v zmysle 1080Ti=Vega) spravili o 5-10% výkonnejšiu a vymenili 10% výkonu za 150W spotreby...
Sry, ale nechápu jak furt všichni řeší tu spotřebu. Při rozdílu spotřeby cca 150 W (což ale méně mezi těmito grafikami) a 4 hod hraní v plné zátěži Gpu za 3Kč /1KWH to vychází 657 kč za rok provozu (cca 5% pořizovací ceny). Opravdu při koupi grafiky nad 12K je totální nesmysl řešit rozdíl spotřeby o cca 100-150W (krom extrému jako jsou težaři apod.) Jediné negativum muže být hlučnost karty , kde ale pokud jedu na cenu/výkon toto neřeším, nebo si koupím o něco málo drržžší grafu s lepším chladičem a pokud mi to ohromě vadí tak už mám v pc vodníka a grafika se na něj jen napojí.
Mě ta karta hlavně nedává smysl - zvedat spotřebu o 100 W kvůli nějakým +/- 10-15% výkonu. Asi se chce AMD za každou cenu výkonem přiblížit 1080Ti, dle mého si tou snahou spíše AMD jen ublíží.
Jak už bylo jinde napsáno. Vega vznikala v době, kdy měla konkurovat 1080, ale vývoj se protáhnul a teď chtě nechtě musí čelit i neplánovaně 1080Ti na což prostě nemá dostatek hrubé síly.
Pravděpodobné se mi zdá, z informací co jsou teď k dispozici, že ta vodní a nějaké hodně OC nerefernční verze se budou pohybovat mezi výkonem 1080 a 1080Ti, referenční vzduchová bude ráda, když v řádech procent půjde přes 1080 a ta ořezaná bude slabší jak 1080, tzn. fiasko.
1080 má TDP 180W a jestli se Vega bude chovat jak Fiji karty, tak běžné vzduchové verze budou žrát kolem 300W a extrémní OC verze se budou více či méně blížit ke 400W, o nějakém Fullcover taktování radši nemluvit.
Jak by mohla XTX konkurovat 1080Ti když XT by stačilo na 1080. Mezi těma kartama je propastný rozdíl. Nevím kde by ten čip sebral 35% výkonu navíc. Vodní chlazení jen sníží teploty oproti vzduchové verze, tím umožní kartě držet lepší frekvence, tzn. konzistentnější výkon. A pravděpodobně to bude i o něco více papat když to bude držet vyšší takty.
Kdyby XT stačilo na 1080 a mělo takty 1600MHz, tak XTX by potřebovalo takty 2.1-2.2GHz aby si sáhlo na výkon 1080Ti za předpokladu že výkon škáluje rovnoměrně s taktem, ale z testu podtaktované VegaFE vs Fury bylo jasně vidět že výkon roste pomaleji než frekvence, navíc současná Vega FE má by default problém držet větší takty než 1440MHz
Máš to dobrý, taky bych chtěl kWh za 3Kč, reálně mě vychází něco nad 5. Při reálném rozdílu 100W mi to dělá asi 700 stovek ročně, 14 set za morální životnost karty (kupuji to s vidinou 2 let provozu, pak koupím výkonnější novou generaci). 14 stovek je třeba dobrá večeře v restauraci nebo jeden herní titul, který si můžu koupit navíc...
Nicméně ano, v průběhu dvou let je to něco co je pod mou rozlišovací schopnost, ale při nákupu a zhodnocení který produkt je výhodnější s těmi 14 sty prostě počítat musíš.
Hypoteticky... mám tu kartu za 15 tisíc 200W spotřeby, +- stejně výkonnou kartu za 12 tisíc a 300W spotřeby... Při dvou letech provozu 4h/denně a ceně 5kč/kWh je rozdíl ceny jen 16 set. Pak by ještě stálo také zvážit jak dlouho to pojede jen v desktopu, tady sice bude rozdíl jen cca 6-7W (Vega měla 16-17W, 1080 má 9W) ale může to být výrazně delší doba, ale při stejných 4h/den za ty dva roky bude finanční rozdíl o stovku menší, tedy 1500kč. Pokud to někdo plánuje na 4 roky, tak rozdíl ceny bude 0. Po delší době bude ta prvně dražší karta finančně výhodnější. Výhodnější bude i při intenzivnějším používání.
Plně souhlasím, ty hrozné spotřeby už AMD dělají špatnou reputaci delší dobu a tohle by to mohlo dost dorazit.
Vega před rokem, nebo ještě i v zimě, mohla být solidní konkurence k 1080, která měla tehdy vysokou cenovku, takže Vega mohla mít při stejném výkonu a případné spotřebě do 250W třeba o 20-30% nižší cenu a to už by bylo zaděláno na úspěch.
Jenže Nvidia udělala asi konkurečně ideální tah s 1080Ti, která celkem nadchla a ještě přišla tak dlouho před Vegou, že ji tím dost odsoudila. Přesto, kdyby s ní teď tak neblbli zkrz takty a spotřebu, nemuselo být teď možná tak zle.
Současná Vega FE v testech běžela vždy k 300W, tzn využívala toho TBP na maximum. Jinak tomu nebude ani u VegaRX, čipy jsou stejné, TBP o něco nižší, což koresponduje s méně paměti a pravděpodobně nějaké malé featury, které pro RX nebudou aktivní.
A OC verze.. záleží kam ten čip půjde ale troufám si tvrdit že už ho šponují dost na to aby šel nějak výrazně nataktovat. Takže drastický růst spotřeby u OC verzí nepředpokládám protože prostě to OC nebude možné.
Cena o 20-30% pod 1080 není rozhodně úspěch. AMD samo tvrdi že v tomto segmentu je marže 66 a více procent. Spekuluje se že jen paměti vyjdou na 160 dolarů což by znamenalo že karta stojí cca 250USD. Aby na tom vydělali 2/3 ceny, kta by se musela prodávat za 750 dolarů. Jenže s výkonem pár procent nad 1080 nebude moc prodejná ani za 500, o tom nás přesvědčila historie - GTX970 vs R390
Pises voloviny. Pokud bezela "v defaultu" (bez max boostu a navyseni PT), tak se bezna spotreba pohybovala okolo 250W s max 280W. Viz napriklad mereni na PCG tady http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5
300W a vyse to slo, pri nastaveni PT +50% a boostu 1600Mhz. Nicmene, stejny zdroj udelal undervolting a zjistil, ze ten boost se da drzet i na tech 250+W.
Souhlas.
Varim z vody, ale myslim si, ze to zduvodneni bude takove, ze grafika bude prezentovana skrz DX12/Vulkan a spojeni techto novych grafickych rozhrani s architekturou Vegy a jejich pameti HBM ma udajne mit vyznamny dopad na potrebu pameti, dokonce jsem nekde videl diagram, ze predstava je takova, ze 4GB HBM na Vega ma odpovidat 8GB GDDR5 na Polarisu.
Jak pomůže vodní chlazení?
Karta vygeneruje teplo - cca 300W. Teplo se přenese do žebrování a z něj ho větrák rozežene do okolního vzduchu.
U vody karta opět vygeneruje teplo - cca 300W, To se přes vodní blok teplo přenese do kapaliny, ta převede teplo na žebrování výměníku a odtud to teplo větrák rozežene do okolního vzduchu.
Výsledek? Teplo se dostává do okolí = okolí se ohřívá, rozdíl je jen v tom kde se to teplo rozptýlí a v tom jakou teplotu bude mít chlazená elektronika, ohřev vzduchu v místnosti bude stejný.
Počítač mám pod stolem a zvláště v létě citím jak na mě to teplo z pod stolu jde a to se bavím o 300W na celou sestavu, ne jen na grafiku
Gildor myslel tým úspechom asi predajnosť takej karty nie zisky z nej, presa len karta o výkone 1080ky za "Cena o 20-30% pod 1080" teda niekde okolo 350-400USD by bola skara ponuka pre zákazníka ale ako píšeš, pri skoro 500mm2 jadre, HBM2 a tom INTERpozérovi by to zase pre AMD boli na ziskoch drobné...
jasně za 400USD by to byl jistě zajímavý kauf, AMD by neprodělalo, ale AMD na tom taky plánuje vydělat pár miliard dolarů... investory masírovali 66+% marží z tohohle segmentu. Navíc je tu další věc, NV může začít cenovou válku. Pascaly jsou tu dlouho, v zásadě se zaplatily, výrobně je levnější, navíc za rohem Volta. Snížení cen by nejen více tlačilo AMD, ale postupně připravilo půdu na Voltu, která by mohla přijít za současné ceny Pascalu.
A jak to ti kluci měřili? Německy fakt neumím a na obrázcích nevidím připojený žádný měřák.
PC Perspective měří jednotlivé PCI-E kabely a slot. Průměrné spotřeby se pohybovaly mezi 280W až 300W dle testu. Testy pro recenzi dělali na stock kartě, prostě tak jak to domů člověk přinese, vybalí a zastrčí do kompu.
Otázkou bude jak výrazný vliv to může mít. Fyzickou paměť ničím nenahradíš. Pokud mám scénu který potřebuje 6GB textur, tak je jasné že do 4GB je všechny nedostanu a už pro render jednoho snímku se musí v paměti prostřídat. To budu dělat s každým snímkem. Když budu mít 8 či více GB paměti, natáhnu tam ty textury všechny najednou a nemusím je dotahovat s každým snímkem znova. Čím více tokou po PCI-E, tím víc výkonostního propadu
Merili to primo na 12V vetvi. viz citat:
"..messen wir auf den 12-Volt-Versorgungskabeln".
Uvadeji pak 'prumernou' spotrebu, ktera cinila cca 250W, protoze se spotreba pohybovala v zavislosti na teplotach a zatezi mezi 220-280W, kde 280W byly spicky. viz citat:
"... luftgekühlten Version um die 250-Watt-Marke herum. Abhängig von der Temperatur und Last sind mal 220, mal Spitzenwerte auf bis zu 280 Watt zu verzeichnen."
Zapominas na jednu vec. Dulezitejsi nez teplo v 'mistnosti' je teplo ve skrini. Dneska vsechny karty vyjma referencek metaj teplo zpatky do skrine. Podle toho jak mas udelany dobre airflow a jak mas tu kartu blizko k necemu, a kolik mas kolem ni mista, tak se bud to teplo stihne odvest nebo ne tim airflow. Pokud ne, chlazeni neni ucinne, teploty stoupaji..nastava throttling. Tohle by si s dobrym vodnikem a umistenim ve skrini dit nemel.
Ano, na papíře to bude vypadat blbě určitě, proto jsem psal, že to marketingově bude velmi těžké prodat.
Jako víc vram je vždy lepší, o tom žádná.. podle mě si s HBM2 naložilo amd příliš velký sousto.
Ale zase nesrovnávej s Furynou, protože ta neměla HBCC. Pokud to není úplnej marketingovej blábol (jakože samozřejmě může být) tak by to mohlo opravdu hodně pomoct. Proto si rád počkám na testy.
Viz test s 2GB vram RotTR: http://cdn.wccftech.com/wp-content/uploads/2017/05/AMD-Vega-Tomb-Raider-HBCC-Demo.jpg