podle mě to vypadá na další zklamání, velká spotřeba plus 256bit sběrnice která se hendikep pokouší kompenzovat chytrou technikou, jenže ta nebude fungovat všude. RTX 3070 zase jen s 8GB - po těch letech by to za 14000,- chtělo vážně víc, vždyť osmigigovky jsou tu od doby R9 390 a to už uplynulo hodně vody, nebo 16GB AMD ale tradičně nevyrovnaný výkon - Sofiina volba....
Podlě mě AMD čekalo, že 3080 nebude mít ten nejvyšší čip a výkon cílili jinam. Ale nVidia čipy posunula a i spotřebu vyhnala do extrému a teď musí i AMD se spotřebou nahoru.
Každopádně s tím jejich super hyper dobrým procesem by s takto velkou spotřebou měli nVidii porazit a nebýt pár procent pod ní. Realita bude ale podle mě jiná.
A to je Ampere výpočetní profi arch. Kdyby se Huang zaměřil čistě na gaming a dal to k TSMC, AMD by zkrachovalo.
"Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím." - tohle je podle me blbost, ale neberu ti to.
"Co se Ampéry týká, má AFAIK ECC pouze A100, a to díky HBM, takže tolik k výpočtům (pokud chceš opravdu počítat, a nikoli odhadovat)" - tak ty zasadni zmeny mezi vypocetnim Ampere a hernim rozhodne NEJSOU v pouziti HBM. :-)
Vy co tady a nejen tady porad brecite nad 256bit sbernici, pockejte na realne testy. Myslim, ze vyvojari vedi dost jasne co delaji a rozhodne neplati, cim sirsi sbernice tim lepe viz HBM pameti. Propustnost jako krava, ale celkovy vykon nijak zdrcujici. Pokud to takhle navrhli urcite k tomu meli duvod. Nikdo tady nezna co je v jadre, takze pockejme tech par dni s vynasenim soudu. Jasne muze se ukazat, ze to posrali a nebo taky. Nelibi se mi ani hype ani hate.
V první řadě půjde o
1. výkon při dané spotřebě - tedy poměr výkon/spotřeba
2. výkon při dané ceně - tedy poměr výkon/cena
3. absolutní výkon v porovnání s konkurencí
Opravdu někdo čekal, že AMD najednou vydá karty, které budou opravdu zásadně efektivnější, nebo výkonnější, než nVidia, která AMD v TOP modelech utekla již před několika lety?
AMD je dobře nastartovaná a nabrala správný směr do budoucna. Ale nečekejte zázraky. Buďme rádi, že AMD nVidii dohání, to je důležité. Ne dokonalost, ale pokrok je důležitý.
Za mě bude husarský kousek pokud bude AMD v highendu konkurenceschopná. Nepotřebuju mít grafiku, která bude "heč lepší než tvoje RTX whatever". Budu absolutně spokojený, když bude k nVidii alternativa s podobným výkonem ve všech segmentech.
https://videocardz.com/newz/amd-radeon-rx-6800xt-alleged-3dmark-scores-hit-the-web
vypadá to nadmíru dobře. I ta spotřeba by mohla být o dost lepší tím pádem, protože pro 6800XT by se mohla pohybovat okolo těch 250W max. No ale pak by to taky znamenalo pohřeb jak RTX3080, tak 3090... ????
U mě spotřeba také hraje roli ale došel jsem k závěru že už nebudu čekak stačí když mě nas... Intel s Ice Lake.
Možná by mě stačila i RTX 3070 ale chci to na 4k tak proto RTX 3080.
Co se týká letních teplot(30°+) jak tu nekteří píší, pokud už budu hrát v takovém horku tak můžu přepnout na 1920x1080 snížit TDP a omezit výkon, jedná se o nekolik dnů v roce a nebo si zapnu jiný počítač.
Mám tu takovou (dobrovolnou - nikoho nenutím odpovídat) anketu...
Mějme 2 grafické karty. gkA a gkB a tyto výskedky v benchmarcích (rasterizace; základem budiž výsledek gkA):
Firestrike Extreme 4K:
· gkA 100 bodů
· gkB 82 bodů
=> gkA je rychlejší ca o 22% (resp. gkB je pomalejší o 18%)
Time Spy Extreme 4K:
· gkA 100 bodů
· gkB 97 bodů
=> gkA je rychlejší ca o 3,1% (resp. gkB je pomalejší o 3%)
Které tvrzení vám přijde (na základě výsledků výše) blíže pravdě?
a) gkA dýchá na záda kartě gkB
b) gkB dýchá na záda kartě gkA
Kristove ľavé oko....256-bit a priepustnosť VRAM jak na upchatom vodovodnom odtoku...V AMD načisto rozum potratili, takéto sprostosti si nekúpi ani nemenovaný stachan....
Prekrásnu básničku venujem všetkým dobrým ľuďom so širokým srdcom a zmyslom pre hi-tech:
77 sukien mala,
za Ryzen sa neprovdala.
nVidia rozum mala,
s Intelom si rande dala.
Výkon je to mohutný,
hry to drtí raz-dva-tri...
nejak tak. Za mna to zatial vyzera OK, ak to niecim AMD nepokazi. Za mna bude uplne v pohode ak budu vediet pokryt vsetko low-endu az po skoro high-end pri rozumnych parametroch a cene. To je podla mna nielen pre AMD dolezitejsie ako sa vyrovnat/prekonat NVIDII v max. vykone za kazdu cenu. To by som bral ako necakany bonus. To cakam mozno az v dasej generacii.
Dokonale výstižné.
Beru lidi, kteří si tipnou, že bude nVidia lepší, nebo AMD. Obzvlášť když to podloží nějakou (třeba i chybnou) teorií, pořád se o tom dá mluvit. I když se nakonec nemusí(m) trefit, je to tip.
Pak jsou ti, kteří v podstatě jako jediní na světě přesně ví, že to bude takový a makový a jiné názory neakceptují. A když už neví kudy kam, tak vymyslí cokoliv, budou místo argumentů oponentům nadávat, vysmívat se, ponižovat, poukazovat na nesouvisející nesmysly. Nesnesou pomyšlení, že by se mohli mýlit, nebo to přiznat.
Prostě komunikace s otevřenými lidmi, kteří dávají prostor pro názor druhých, je úplně něco jiného, než se sebestřednými narcistickými egomaniaky. A je mi úplně ukradené, jestli je tím hovadem fanoušek AMD, Intelu, nebo nVidie.
2ratha
napsal jsi to docela dobre, tak ja jen pro zajimavost.
Me zajimaji pouze body 2 a 3.
Mel jsem to tak vzdy. At s HD7970GHZ Edition, ktera byla o 3% vykonnejsi nez moje soubezne tehdy vlastnena gtx680@1420MHZ. Bylo mi jedno, ze ta Mars Edice HD7970 zrala jako tank. Mela vetsi vykon? Mela a ja jsem gamer...
Problem pozdeji nebyl ani modifikovany Titan X s TDP Bios 475W :)
Zajimalo by me, komu z Vas tady jde o co nejnizsi spotrebu.
20% lidi? 5%?
Udelal bych anketu.
Já v létě mívám běžně kolem 30 stupňů v bytě když jsou horka (panelák sice 4p ale pod střechou). Takže v takové době zapínám klimatizaci a jestli jede nebo nejede počítač už nepoznám, nechávám klimou udržovat příjemných neledových 25 stupňů, v US to pak bude ještě menší problém, mají klimy běžně na 21-22 stupňů :)
Mě osobně by RTX3080 s 320W TDP přišla fajn, hraju s FPS capem, 2560x1080, RTX2070S ve většině her v max detailech, včetně RT, pokud je to aplikovatelné, nejede naplno a typická spotřeba je někde kolem 70-80% (jak podle monitoringu karty, tak monitoringu zdroje - Corsair RMi a tomu pak +- sedí i měřák do zásuvky), takže tak 150-175W a to je po 2080S nejméně efetivní Turing. RTX3080 by jela tak cca na půl plynu v nejnáročnějších titulech, takže spotřeba by mohla být ještě nižší, počítám 120-150W, v titulech jako Destiny 2 bych čekal spotřebu pod 100W. Před 2070S jsem měl GTX1080, ta jela mnohdy na max a aby nethrotlovala, měla navýšený power limit, takže spotřeba šla často nad 180W a končila na 200W, před ní jsem měl GTX980, tu jsem taktoval do mrtě a jela na max snad pořád. Spotřeba s navýšeným power limitem zase kolem 200W ale mizernějším výkonem než 1080.
Mít výkonnou kartu a nevyužívat její výkon na max. přináší nižší spotřebu, ale jen kvůli té spotřebě a potažmo tiššímu provozu (u Destiny 2 bych očekával zcela pasivní chod) si ji kupovat nebudu.
No aspoň přestanou řeči okolo žravosti jen na jedné nebo na druhé straně. Pěkně se to vyrovná. V obou případech je to na mě moc... Grafiky mě netlačí takže zůstávám na svém. Ta 256 sběrnice... no uvidíme třeba to fakt nějak AMD udělalo, že to nebude vadit. Tohle mě jako HW zaměřeného člověka opravdu zajímá.
Jinak pokud bude výkon kolem 3080 tak to podle mě stačí teď záleží na cenách.
Myšleno to bylo tak, že pokud tam bude datové rozhraní, tak spíše mi vychází TB3, a navazoval jsem na Honzovu myšlenku rušení USB-C u nvidie. Použít USB-C konektor jako rozhraní pro prostý DP mi připadne ichtylní - už proto, že miniDP i DP konektory mají lepší provedení a redukovat DP na USB-C alt DP není problém (pasivní přechodka či kabel)
edit: notabene, když USB-C je za dlouhé roky jeden z nejdebilnějších konektorů s mizivou kvalitou a výdrží.
"Zajímalo by mě, co budeš psát až se třeba ukáže, že radeony budou na úrovni 3090…"
A co budes psat ty, kdyz to tak vubec nebude? Ze je to zajimavy pocin, jako jsi psal u Vegy? :-D
Hele v pohode, at si ma kazdy nazor jaky chce, ne? Nebo Ampere neni zamerene na vypocty? Ikdyz mas pravdu v tom, ze ta vypocetni verze je od herni dost odlisna...ale proc hned LOL? :-)
Mě ta spotřeba zajímá hlavně z důvodu vyzářeného tepla do prostoru. Opravdu je rozdíl, jestli v létě paříte v místnosti, která má 27°C, nebo třeba 32°C :)
Takže primárně budu pošilhávat po kartě kolem 250W.
Ale kdo ví? Třeba bude cena RX 6900XT tak výhodná (čemuž nevěřím), že se plácnu přes kapsu a pořídím jí :) Ale spíše ne. Jak stárnu, mé priority se stávají komplexnější.
2tynyt
a vsiml sis u tech peknych grafu, kde to amd jako vede, ze je tam napsano - ESTIMATION
Takze podle ODHADOVANYCH vysledku je ta karta prvni, aspon podle Igora.
Taky na dalsi tabulce je cervene malym pismem dole napsano, ze nikdo nevi, jake CPU bylo pro test s amd pouzito. Karty NV byly testovane s i9 10900K@5GHZ. Tudiz to nemuzeme prozatim uplne spravne porovnat ze.
Uvidíme. Pak je druhý extrém, když spousta lidí (většinou ti, co si AMD "nekoupí nikdy") tvrdí, že aby AMD stálo za to, tak musí být lepší, než nVidia nebo max. stejně dobré, ale přitom podstatně levnější.
Takže charitu neočekávám, ale zároveň doufám, že AMD ty marže nepřepálí a zohlední přípdné nižší výrobní náklady.
Já nebudu psát nic, protože nic takového netvrdím. Já stále čekám - na výkon, ceny, spotřebu, ale třeba i technologické řešení.
Vega byla a je zajímavý počin, protože ve všech ohledech vybočovala z řady. Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím.
Co se Ampéry týká, má AFAIK ECC pouze A100, a to díky HBM, takže tolik k výpočtům (pokud chceš opravdu počítat, a nikoli odhadovat)
2tombo
Taky jsem koukal jako vyvorana mys kdyz vysla rada nv 3000 na tu spotrebu.
Ale je tu vykon, ktery tu nikdy pred tim jeste nebyl. Tak dejme tomu.
Radeon XT - nekde jsem zahledl tabulku s komponenty, zahrnujici dokonce i ztraty skrz pcb a vyslo jim 325w na Radeon XT.
Takze asi jo, kde chce mit wopici, musi mit i na bananany.
Ja napriklad kdyz vidim ten vykon, asi mi bude stacit i rtx 3060 a mozna dokonce i 3050ti (jestli bude).
Vzdyt je to sileny, rtx 3070 vyhrava nad 2080ti!
proto píšu, že to vypadá - komentuju článek, ve kterém WhyCry (který si dává pozor, co přesně uveřejní) popisuje, že leaky jsou jen od AIB, kteří mají k dispozici jen 6800XT.
Nemá smysl pitvat konkrétní čísla, spíše sledovat, kde přibližně výkon bude (asi někde těsně pod/nad 3080).
Podstatné je, že by se tím posunulo vnímání spotřeby - pokud má mít 6900XT spotřebu přes 300W, ale slabší 6800XT je výkonem srovnatelná s 3080, pak lze očekávat spotřebu oněch 250W. To je podle mě to nejdůležitější zjištění. Že budou hry, kde to bude 3080 válcovat, to je prakticky jisté.
Moje ASUS Strix 1080Ti OC v zátěži atakuje 300W a přesto věřím, že málokdo z obou táborů (příznivců Geforce/Radeonu) by ji označil za nepovedenou kartu. Růst spotřeby o pár desítek wattů není problém pokud je kompenzován slušně provedeným chlazením. Nakonec die size GP102(471mm2) bylo o více než 10% menší než očekávané Navi21(536mm2?). Neznámou zůstává případné rozdílnosti v rovnoměrnosti produkce tepla na ploše die s ohledem na změny v architektuře.
K rathanuvielovým hodnocením z hlediska úspěšnosti na trhu bych přidal další ne méně rozhodujcí
4) schopnosti (pro někoho může být rozhodující podpora CUDA, výkon RT)
5) dostupnost na trhu !!!
To nemusí stačit, midrange se prodává násobně více než HighEndu. Jakkoli bude marže u HighEndu zajímavá, obrat dělá především =<midrange.
https://store.steampowered.com/hwsurvey/videocard/
jinými slovy, proč osazovat podivný USB-C konektor, když v něm bude jen DP, který má vlastní konektory. Nicméně pokud tam bude i datové rozhraní, tak hned další otázka je k čemu. A tam pak zase vyvstává otázka, jakou šířku pásma potřebuješ.
Jde totiž o to, že TB3 integruje mj. PCIexpress a k tomu má 2x takovou rychlost jako nejlepší USB. Pokud bych stavěl nový standard (ať je to nějaká evoluce CF/SLI, apod., nebo podpora VR atd.), stavěl bych na nejlepší možné technologii, která poskytuje nejvyšší výkon,tedy TB3. Ale samozřejmě to taky může znamenat, že si někdo z marketingu vydupal USB-C s DP, protože má smlouvu s nějakým výrobcem monitorů, co do toho svého "produktu" vymyslel tenhle "moderní" trapný konektor a BFUčka to prostě chtějí.
Já nVidii neobhajuju. 3080 doma pár dní mám a zatím smíšené pocity. Působí to na mě šité horkou jehlou s vlastnostmi, na které u nVidie nejsem zvyklý.
Všichni nadávají na samsung a výrobní proces, proti kterému je TSMC o generaci a půl jinde, tak bych očekával, že to podle toho bude u Radeonů vypadat.
Pokud radeon neporazí žravou nvidii, která ani není evidentěně primárně herní, tak je to opět fail.
@Tynyt: "Vega byla a je zajímavý počin, protože ve všech ohledech vybočovala z řady. Z technologického hlediska byla zajímavější, než všechny Pascaly a Ampéry. Za tím si stojím"
Vega byla zajímavá možná tak v Koduriho prezentacích a to díky featurám, které jak se ukázalo nakonec vůbec nefungovaly nebo nešly zapnout/zprovoznit nehledě na vysokou spotřebu, kterou se podařilo trochu zkrotit díky uv.
Jinak myslím, že se většina lidí shodne na tom , že Vega byl největší průser AMD od vydání R600
Přesně to je ten důvod - francouzská okna na jih. Já to řeším komplet vodním okruhem. To mi sice rapidně zlepšilo teploty GPU a CPU, ale celkové vyzářené teplo do místnosti je ve finále stejné. Např. v zimě mám v pokoji s PC teplotu o ca 1.5°C vyšší. Takže PC si v létě spokojeně vrní, ale já se peču.
250W těžko. IMHO (úplně jen čistá tipovačka/intuice) AMD původně cílilo na 300W a je jenom otázka, jestli se to povedlo nebo to nepřehodnotili.
BTW. Pokud je pravda těch 255 W TGP, tak pro referenci tolik žerou jen paměti a GPU, takže s VRM a větrákama to tak nějak na 300 W sedí.
Jako veřejně obchodovatelná společnost je v rámci ochrany zájmů investorů přísně dohlíženo na to jak a jaké informace společnost společnost vypustí (viz soudní omezení Elona Muska promlouvat za společnost Tesla). Proto zveřejnění výsledků neurčeného zástupce rodiny karet RX6000 je jediný možný postup pokud bylo i cílem nechat konkurenci v nejistotě. Informace sice není přesná, ale ani nepravdivá a všichni akcionáři AMD stávající/potenciální k ní mají přístup. Jako vedlejší produkt fanouškům značky pomohla přežít další měsíc (do výsledné euforie/zklamání). ;-)
Fail je relativni pojem. Ano, mzues to tak brat, pokud je opravdu 8nm Tamtungu o tolik horsi nez 7nm TSMC. Teda aspon ciste technicky.
Pokud ale beres srovnani toho, jaky vykonostni level nabizela AMD posledni roky od prichodu Pascalu, kdy byla nekolik let silny 'underdog" (mozna i driv), a ted vyda soubezne s NV generaci, ktera je na tom vykonove podobne, tak bych to failem nenazyval. Stejne bude do jiste miry rozhodovat i cena.
Tak jeste jednou, proc davat TB3 na dedikovanou grafiku, kdyz mam jine moznosti primo v PC (tedy i ten TB3)?
Chapu jej jako rozhrani pro vice zarizeni najednou u notebooku (sam ho mam), tam to dava smysl, ale na co u dedikovane grafiky?
O novem standardu pro multi GPU doted nebyla zadna zminka, takze to je jen spekulace, ktera se podle me vubec nepotvrdi.
Tady IMHO nejde o obhajobu, ale o akceptaci. Já osobně třeba neakceptuji nic se spotřebou přes 200W TDP - to ale neznamená, že ty karty jsou špatné, jen potřebují nějaké prostředí (klima, case, chlazení, hlučnost). Nemyslím si, že 3080 je šitá horkou jehlou, zvlášť když si vyhráli s konektory na napájení, designem, apod. To je spíše důsledek snahy udržet nějaké politiky (výkonnostní král apod.) a kdo chce ticho, bude muset tunit (podobně jako u AMD karet se daly dosáhnout lepší provozní vlastnosti).
Co se žravosti týká, tak si myslím, že to bude asi plichta (0-30W rozdílu tam či onam nehraje roli, je to do 10%), spíše jsem zvědavý na ceny - ony agresivně vypadající ceny nvidie taky nakonec můžou ještě dopadnout jako "předražené" - ale to ocení asi nejvíce zákazníci. Jako Fail spotřeby to nevidím, pokud i bude výkon srovnatelný - není co řešit, prostě to asi teď líp nejde.
Osobně bych si přál, aby došlo k souboji obou výrobců a padly ceny, protože ty minulých pár let bez adekvátní konkurence vyšroubovalo neuvěřitelně vysoko. Mně více vyhovují Radeony, považuju je za méně problematické, než jsou nvidie, ale zatím měnit svou 5600XT nehodlám.
leppard: třeba proto, že to rozhraní využije samotná grafika?
Donedávna jste uchcávali z VR (která se ukázala jako další slepá cesta a hype, stejně jako 3D brýle apod.) Co když bude chtít pro změnu zase AMD něco hypovat?
Výše uvedené CF a VR jsem uvedl jako příklady, kdy by to smysl dávalo. RDNA2 vypadá celá podivně a našišato (sběrnice, atd.), takže já bych klidně nějaké další překvápko čekal - už jen proto, že s tím dělají takové tajnosti, které si fakt v takovém měřítku nepamatuju.
Jo, jenže i ta R600 by se dala označit za zajímavou - ringbus, poslední 5D uarch, první karta s unifishadery a ještě na 80nm.
Že to z mnoha důvodů nedopadlo, OK, beru. Ale to neumenšuje technologickou nálož, kterou R600 měla (a kterou nedokázala prodat). Podobně vidím i tu Vegu - hybrida výpočetní a herní karty, pokračovatele Fury, první herní grafika s HBM2 (když si odmyslíme P100) plus spousta nedotažených featur (kde se vývojáři HW a SW zjevně nedokázali dohodnout - a btw i tohle tu kartu činí zajímavou). A koneckonců taky první 7nm respin GPU v podobě VegaII. Na nějakou řadovou GTX660/680 nebo HD7850/7950 si dnes už ani nevzpomenu, ale tyhle dvě výše zmíněné GPU jsou svým způsobem milníky, byť třeba vnímané negativně. Ani jednu z nich jsem neplánoval koupit, protože byly nevýkonné, drahé a užrané, prostě mimo mé zorné pole.
"třeba proto, že to rozhraní využije samotná grafika?" - to nerozporuji, akorat to zatim na nic takoveho nevypada.
Ja z VR nikdy neuchcaval, to si me s nekym pletes, takze jsi mimo a dost nesikovne mi podsouvas veci, ktere jsem nikdy nenapsal...
Ale hlavne, uz jsem to psal, TB3 by tu kartu vyrazne zdrazil, proto je to hodne nepravdepodobne.
Ale jo, klidně si rejpni, mě to nevadí. Psal jsem co tím myslím. Lidské dějiny jsou lemovány pokusy a nezdary, které dnes vypadají směšně, ale ve své době představovaly zajímavé technické řešení. Taková (problematická a neúspěšná) Mazda s wankelem je tisíckrát zajímavější než třeba nudný Superb, který je jen technologický kompilát bez kapky invence.
2gogo
Vim to dobre kolik je 36C v obyvaku. Obvzlast v srpnu je u nas horko, 35C na terase ve stinu neni vyjimkou.
Nastesti je loznice uplne na druhe strane domu. Tam je i v lete prijemne a nejchladneji.
Jedno leto jsem musel snizit OC o 200mhz na CPU. Teploty byly proste na muj vkus az moc. Okolni prostredi ma jasny vliv take. To beze sporu.
věta na wcc ... myslím že sedí dobře ... "Most of these rumors and supposed benchmarks fall into the category of stories amounting to, "My best friend's sister's boyfriend's uncle knows this guy who has an RX 6800 XT, and he says..." Again, what drivers are these cards using? What GPU are they running? Take a few spoonfuls of salt, in other words.