Myslím že většina z nás se shodneme na tom (až na jednoho nejmenovaného který je teď na pokraji zhroucení :-D), že se nová architektura Nvidii povedla a ten nárust výkonu tam je dost slušný a taky jsem zvědavý na DLSS jak se to s ním bude vyvíjet protože už teď ve 4K předvádí dost slušný nárust výkonu navíc. Jsem zvědav co předvede AMD a před Vánoci by to mohlo být zajímavé, kéž by se jí povedlo něco podobného jako s řadou HD4000, ale zatím jsem docela skeptický ;-)
já bych to tak černě neviděl ... spotřeba vyšší, cena o třetinu nižší (vs 2080ti) .. ta kdyby dorovnala výkon, buď se roztaví, nebo bude spotřeba ještě mnohem vyšší, než má teď 3080 ...
AMD půjde se spotřebou pravděpodobně taky hodně vysoko ... řekl bych malinko pod tuto kartu ..
"větší rozšíření se dá čekat až pár let po dostupnosti GPU"
To bzlo u RTX IO. Aktuálně stojí podpora hlavně na podpoře systému, ta by měla přijít příští rok. Určitě to bude tlačit i AMD protože je to dobrá věc.
Tady ale stojí za zmínku že grafiky už rozšířené jsou RTX IO budou podporovat i RTX grafiky z generace Turing.
Takže, v priemere v 4k rozlíšení nejakých 30% nad 2080Ti a masívnych 60% nad 2080 Super. Výkon je prosto excelentný a za tie €€€ je to super karta. Perfektný generačný skok ako sa patrí, dovolím si tvrdiť že pre majiteľov 1080-Ti-RTX2080 karta vhodná na upgraid...
Chladič je aspoň podľa mňa celkom slušný a nie veľmi hlučný. Jeden veľký mínus je spotreba, 300-350W podľa recenzie je ohromné číslo, áno vzhľadom k výkonu je efektivita oproti RTX2000 lepšia ale to samotné číslo je priveľké na kartu ktorá nebude „vrcholom reťazca“... ...to sa potom vynára otázka koľko bude žrať 3090ka – 450W ?
Každopádne, + nejaký príplatok za nereferenčnú MSI/ASUS/GB verziu a má človek mega kartu len je otázka ako mega to bude až vyjdú silné AMDčka... toť ukáže čas.
Je to spatny, cekam na AMD.
RTX3080 se nepovedla, respektive se nepovedl system chlazeni, kdy u Founders karet, Asus karet, Gigabyte karet fouka grafika primo pred procesor a narusuje airflow ve skrini a zvysuje teploty procesoru. Je to vazne spatne a je to velke zklamani.
V podstate jedina custom grafika, ktera je jiz ve vychozim stavu ok, je MSI Gaming Trio, jenze ta zase stoji 24.000 Kc a to proste nemohu akceptovat, je to proste prilis a radeji pockam na AMD az co predstavi oni.
Velka skoda, protoze vykon grafik vypada super, ale chlazeni teda zvrzali enormne. Ach jo.
Ta celá debata kolem 2x výkonu je asi o tomhle slidu https://www.cnews.cz/wp-content/uploads/2020/09/Odhalen%C3%AD-grafik-Nvidia-GeForce-RTX-3090-RTX-3080-a-RTX-3070-s-architekturou-Ampere-54.jpg
Ano, je to "reklamština" a mohlo to být uvedeno přesněji, tahle generace má tolik výkonu, že nebylo třeba to přikrášlovat.
3080 20GB a 3070S 16GB (prý s extra CUDA) asi hotová věc https://cdn.videocardz.com/1/2020/09/GIGABYTE-GeForce-RTX-3080-20GB.png
Počkám jak Redmarx :D
"Podle ComputerBase, techPowerUpu a Tom’s Hardware – uvádíme hodnoty pro všechny v tomto pořadí – vychází RTX 3090 o 60 %/56 %/58,8 % rychlejší než GeForce RTX 2080 Super a o 31%/32%/32,7 % rychlejší než GeForce RTX 2080 Ti (mělo by jít o verze Founders Edition, 2080 Ti je tedy přetaktovaná)."
Asi bylo myšleno RTX3080... Opravte si to Honzo
Tak jsem si chtel koupit novou grafiku, abych vam to tady nandal, ale bohuzel:
"GEFORCE RTX 3080 JIŽ OD 18.999,00 KČ
ZOBRAZIT VŠECHNY MOŽNOSTI NÁKUPU
Founders Edition 18.999,00 Kč
Není na skladě"
Takze nic no, ale co vim, ze vic jak 20K nedam, predrazena smecka vyrobcu karet si necham klidne ujit. Bud NVidia bude FE mit a zakoupim nebo treba tu driv bude Navi 20 RDNA2 a ukaze se, ze je plne konkurencni a levnejsi a pak koupim tu.
Kazdopadne to vidim tak, ze presto ze 20K na grafiku mam, tak minimalne mesic mozna dva mam cas. Proste pohodicka. A je teda moc pekne, ze nakonec ma AMD necekane sanci porad uspet hned od vydani, staci vydat normalni grafiku, na jejiz napajeni nepotrebuju jadernou elektrarnu a s takovym chlazenim, ktere nebude narusovat airflow PC skrine.
Někdo tady řešil výhodnost použití 8nm Samsungu vs. 7nm TSMC. Zamyšlení na toto téma vyšlo na AdoredTV:
https://www.youtube.com/watch?v=tXb-8feWoOE&t=1050
Je to spekulativní výpočet, nicméně spočítali, že při použití 8nm Samsungu ušetřili na jednom čipu ca 25 dolarů.
Apropos: RTX3090: pouhých 10% navíc, za dvojnásobnou cenu a skoro 400W. Thermi fail číslo 2. RTX3080 si svou pozici obhájí, 3090 ne.
https://wccftech.com/nvidia-geforce-rtx-3090-teclab-review-leaked/
Pro mne je nová generace zatím zklamáním. Po bombastickém oznámení šedá realita. Zvyšovat výkon karet jen na úkor spotřeby není umění. Energetická efektivita se posunula jen nepatrně.
Reputaci může napravit 3060 a 3070, které na daný výkon (třeba) nebudou tak žravé...
Jediné pozitivum (zatím) vidím v ceně. Nvidia dokázala správně stanovit cenu... Je možné, že s novými tituly se nový výkon karet ještě zvedne (platí pro hry). Pro práci je nárůst výkonu větší již teď...
Výkon je excelentní, ale za cenu brutální radeonizace celé produktové řady (320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD) a hlavně vůbec nedosahuje slíbených hodnot navýšení výkonu - ukazuje se, že to byly jen pečlivě vybrané a praxi vzdálené extrémy.
Soudit RTX3000 řadu budu až podle toho, co předvede AMD.
Tohle mne znepokojuje "cena o třetinu nižší (vs 2080ti) ". Jestli je tomu tak co vede Nvidii k tomu aby šla s cenou dolů? Já mám rád nízké ceny. Jenomže Nvidia potřebuje vydělávat.
To si myslí, že AMD je bude ohrožovat novými grafikami?
Co když má pravdu Stach, že skuteční cena díky karet nedostatku na trhu bude vysoká?
?
Nechme se překvapit. Brzy to uvidíme.
No, musíš ho chápať, už už staval total highendové PC na komplet AMDD platforme a ono to už vyzerá že nVidia tie peniaze netlačí len do marketingu ale aj predsa len do vývoja a po tom čo predviedla 3080ka je jasné že 3090ka bude absolútna drvička (áno aj elektrickej prípojky :D ).
Naviac, tá nVidia nie a nie krachnúť či aspoň padnúť na kolená i keď sa to už toľko krát malo stať...
Povedl se jim určitě produkt (protože tady ještě ta spotřeba není tak daleko od Vega 64, RTX 3090 bude ještě o kus dál). Ale nejsem si jistý, jestli se dá říct, že se povedla úplně architektura. Přijde mi, že Turing byl větší pokrok/změna, a to přesto, že byl na skoro stejném procesu (16nm a 12nm je v rámci stejné 16nm generace, jen dílčí zlepšení). Kdyby Nvidia napálila spotřebu tenkrát, tak je možná o dost zajímavější.
Kdežto teď Ampere by měl být schopný dát o dost lepší výsledek aniž by se spotřeba zvýšila proti Turingu, protože je to generační rozdíl v procesu (vylepšená 16nm versus vylepšený 10nm proces). Taková generační změna by měla mít potenciál k vysokému zvýšení výkonu bez růstu spotřeby - jako má Polaris nebo Pascal. A místo toho Ampere musí půlku nebo většinu svého zvýšení výkonu udělat spotřebou...
Je možné, že je to vina procesu, který je horší, než Nvidia čekala a nepřináší jí moc velké zlepšení efektivity, ale může to být i tou architekturou.
Ono bych to možná řekl takhle - architektura Turingu byla velký pokrok, ale produkty byly oceněné tak, že poměr cena/výkon při vydání nebyl nic moc pokrok. Takže produkt, samotné karty, vypadal ne zas tak atraktivně (když člověk nepřistoupil na to ,že se platí extra ne za výkon, ale za RTX).
Tady u Ampere to vypadá přesně opačně. Přijde mi, že to architektonicky proti Turingu ani není tak zajímavé (asi až na to 2xFP32, ale zase se nezdá, že by to byla taková revoluce v herním výkonu, jenom v OpenCL/Cuda). Jenže poměr cena/výkon u RTX 3080 je nastavený velmi dobře a za RTX už se navíc neplatí, takže karta samotná vypadá atraktivně velmi.
Trošku paradox, no, ale pochopitelný.
Na teplotu CPU to dopad nemělo, mělo to dopad na teplotu paměti, světe div se... pozitivní.
Nezapomeň že klasické řešení chlazení ten teplý vzduch nijak nevyhání z bedny ale jen ho tam výří, z jedné strany naráží do desky, z druhé do bočnice (předpoklad horizontální umístění, u vertikálního je to kapku jinak, že :))
3080 a 3090 mají na straně u konektorů blower, takže odvádí teplo mimo skříň a nevýří ho po ní. Zrovna v těhle místech z mé zkušenosti často zůstávají horké kapsy vzduchu protože ho nemá moc co odvádět.
Na druhé straně to téměř bez restrikce prohání vzduch chladičem, ten vzduch se rozhodně nijak závratně nezahřeje, takže fakticky CPU neovlivní a část toho vzduchu dojde k pamětem a ty, světe div se z toho benefitují.
Je to asi jako u vodníka a radiátoru v předu. Vzduch se ohřeje o 0.1-0.5 stupně v závislosti na rychlosti a tloušťce radiátoru. To není nic co by mělo změnit účinnost chlazení, jestli je radiátor na intake nebo exhaust je fakticky jedno.
Navíc mi řekni co je správné airflow. Víš že záleží na skříni a její konstrukci? Víš třeba že některé skříně chladí lépe grafiku než CPU a naopak, nebo přidání dalšího ventilátoru do skříně může znamenat zhoršení teplot komponent protože naruší ideální flow vzduchu? Víš že některé skříně fungují lépe s pozitivním a některé s negativním tlakem? Skříně s negativním tlakem třeba lépe chladí grafickou kartu, která podtlakem nasává vzduch i zezadu přes perforace krytek extension karet? Přidáš ventilátor na intake a ouha, teplota jde nahoru protože vyrovnáš tlak a grafika už si ten vzduch nenasaje tak jak před tím...
Doporučuji nějaký generátor kouře a foukat to do bedny a sledovat jak ten vzduch ve skříni pracuje.
Tady to ani není reklamština, tohle je závěrečný slajd prezentace, ano mohlo tam být "up to" které bylo v předchozích slidech zmíněno a bylo ukázáno že tam 2x výkon je i není. Blbý je když někdo vezme jen ten jeden slide a zapomene na 30 minut povídání a mnoho dalších slidů, tak nezná kontext toho co na tom slidu je. Je normální že při nějaké prezentaci na konec shrneš klíčové vlastnosti toho co si prezentoval. Ten kdo to slyší celé ví že 2x výkon platí v Bledneru a V-Ray a že v žádné hře takové číslo nikdy NV neuvedla - a to se dokonce šidili, protože recenze takový výkon zachytily.
Blbý ale bude když AMD nebude mít výkon který očekáváš a ani cenovka nebude odlišná, pak holt budeš čekat další dva roky na další generaci :D
A o airlfow skříně si přečti, komentoval jsem ti to podrobně výše. Ta karta teplotám neškodí, naopak jim pomáhá. Můžeš třeba na recenzi LTT, CPU je na tom stejně, ale pamětem to dělá dobře. Ten vzduch v té kartě se moc neohřeje, navíc velkou část toho tepla karta odvede mimo skříň vlastní silou, tudíž v bedně pro systémové fany zůstane méně tepla.
Redmarx 18.9.2020 at 10:42
"Velka skoda, protoze vykon grafik vypada super, ale chlazeni teda zvrzali enormne."
https://www.youtube.com/watch?v=32GE1bfxRVo&feature=youtu.be&t=1012
Pockejte. Myslim, ze pockate i na RTX 4000 a pak budete cekat dal ;)
Dragonie a žlutej, vy jste se hledali, až jste se našli.
https://i.insider.com/5241c367eab8eadd0a22a3a0?width=545&format=jpeg
Přesně tak, těch zmínek o 2x byla přehršel, dokonce i úplatní trubkaři tyhle fámy hypovali, takže tahle "reklamština" poměrně rezonovala. A já tohle hypování chápu, protože se tím zakryl brutální nárůst spotřeby.
A to je taky odpověď komplíkovi, protože po nějaké prezentaci ani pes neštěkne. Běžní zákazníci čtou jen bullety s klíčovými informacemi.
To je omyl, v linku máš podstatné navýšenie výkonu RTX 3080 proti RTX 2080Ti pri stejnej spotrebe:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Netuším o čem mluvíš? Já někde psal něco o zastaralém 3 větrákovém chlazení? Jo ty se bavíš o Radeon VII a to co ukázalo AMD. Já ale u Radeonu VII nezpochybňuju tři ventilátory ale pasivní část chladiče. To co ukázalo AMD je zase jen dvoslotová karta s třemi ventilátory. Je rozdíl mezi 2 slotovým a 2.7-2.8 slotovým chladičem i když budou mít 3 stejné ventilátory.
Také jsem napsal že na fotce už to nevypadá tak špatně jako na renderech. Ale to je chyba AMD že ukazují něco co nedělá dobrý dojem.
jakých slíbených? Kde jsi slyšel že bude dosahovat všude a za každých okolností 2x 2080? Já jsem zvědavý na ty prezentace big navi ... jak se trefí a jaký bude revanš za tyhle s prominutím kecy ...
a ano, poslední věta sedí, takže ty soudy předtím ... :D
(taky by se mi líbil tenhle výkon při třeba 200 wattech, ale ...)
Já slíbený výkon vidím, viděl si ty grafy v keynote? Některé recenze dokonce v těch hrách naměřily i o něco více, třeba RTX Quake ani Minecraft neukazuje 2x vyšší výkon v keynote ale hodně recenzentů k 2x vyššímu výkonu dospěla, dokonce dospěli i v hře bez RT k 2x vyššímu výkonu a o blenderu nebo v-ray ani nemluvě, tam je to o pěkná procenta nad 200.
Výkon je přesně takový jaký byl vidět v keynote, někde i vyšší, spotřeba je taková jaká padla v keynote. V keynote nebylo nic co by se nepotvrdilo, ok 1.9x efektivitu jsem testovat neviděl, pokud víš kde mají změřenou spotřebu 2080S vs 3080 v Controlu s RT+DLSS v UHD při 60FPS, uvítám zdroj, počítám že to skutečně bude ~240 vs ~126W což odpovídá 1.9
Neviděl jsem tě křičet když Koduri říkal že 2xRX480 za méně jak 500 dolarů překoná 700 dolarovou GTX1080, dyť si patřil k těm kteří to myslím chválili a už pomalu stáli frontu na dvě karty. To že ten výkon platil jen pro demostrovanou hru a nikde jinde to už takového výkonu nedosáhlo jsi určitě neřešil. A 2x480 taky znamenala 320W spotřeby v mainstreamu když 1080 na to stačilo 180W a problém to pro takové jako ty to taky nebyl
Zajímalo by mě, jestli nereferenční 3090 budou mít stejný chladiče jako 3080. Dávalo by to smysl z hlediska nákladů na výrobu. Otázka jestli je stejný PCB. Ale 3090FE mě přišla mnohem masivnější, než 3080 FE. Pokud je 10% rozdíl ve výkonu chlazenej o tolik větším chladičem, tak by mohly být u 3090 lepší provozní vlastnosti.
1. "320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD" - osviežim ti pamäť, AMD si dovolila 300W u Vegy 64 čo oproti o triedu výkonnejším 1080Ti/Titan takisto nebol highend.
Ak 320W u jednoznačne najvýkonnejšej karty na trhu je "prostě masakr" tak 300W u Vegy 64 bolo čo ? No... s tvojho pohľadu asi nič, veď AMD že ?
2. "slíbených hodnot navýšení výkonu – ukazuje se, že to byly jen pečlivě vybrané a praxi vzdálené extrémy" - lebo to sa prvý krát v histórii prezentácií a marketingu stalo že v praxi sú sľubované výkony/nárasty menšie než tie z reklamy a v priemere sa nedosahuje hodnot z jedného správne vybraného testu... neuveriteľné !
btw. dva mesiace, dva... sa AMDD fanúšici obháňali tým že RTX3080 ani nedorovná 2080Ti ale teraz je +30% nad ňu sklamanie... no, hlavne že už teraz sa dá s istotou PRED-povedať že s nových AMD grafík budú všetci totálne unesený a nadšený.
btw. a páči sa mi ako keď dôjde na ten bájny marketing nVidie tak skoro všetci - nehovorím že práve aj ty - vykrikujú ako sú oni imúnny a ako by tej hnusnej nVidii veril len hlupák zrazu tak veľmi operujú s jedným, jedným marketingovým tvrdením nvidie a sú strašne sklamaný a zronený :D
to budeš asi jediný, koho ta cena znepokojuje .. já chápu, že sen konkurence byl, aby ty ceny byly alespoň o 50% vyšší než u předchozí řady a Jensen všechny zklamal (podle nejmenovaného klamal) ... realita je takováto ... kdyby měli čipy od TSMC, dočkal by ses těch vyšších cen ...
"DedekHrib 18.9.2020 at 9:09
Tohle mne znepokojuje „cena o třetinu nižší (vs 2080ti) „. Jestli je tomu tak co vede Nvidii k tomu aby šla s cenou dolů?"
To co tu tvrdím celou dobu... nové konzole. Podívej se, co nabízí PS5 za 10790,- Podívej se na novinku PS+ Collections, pro koho je asi tak určena, koho má přivábit k přechodu na PS. V ceně PS+ (něco přes litr za rok) máš kolekci špičkových her včetně exkluzivit God of War, Bloodborne, Uncharted 4, Last of Us Remastered, Fallout 4, Final Fantasy XV, Fallout 4, Detroit: Become Human atd..
Jensen není blbej, ví, že pokud ztratí část zákazníků, kteří přejdou na konzoli, ty bude už jen velmi těžko získávat zpět na PC. Každopádně ten kdo z toho těží jsme my zákazníci, protože se nám tuto zimu dostane velký výkonnostní posun na všech platformách za velmi dobré ceny.
"pro majitele GTX1080 a GTX1080Ti je RTX 3080 upgrade na 2x-3-5x vyšší výkon a to se bavíme jen o rasterizaci"
Koukl jsem se na ten ComputerBase a proti GTX 1080 FE (která tehdy nebyla OC model a měla horší chladič) je nárůst 2,5× a proti GTX 1080 Ti je to jenom 1,87×. To je ve 4K a ten test myslím měl pro AMpere relativně nejlepší výsledky z TPU a THW, takže se nedá říct, že "červený we"b, myslím.
komplik 18.9.2020 at 7:27
"pro majitele GTX1080 a GTX1080Ti je RTX 3080 upgrade na 2x-3-5x vyšší výkon a to se bavíme jen o rasterizaci"
Dobre fandovstvi, kdyz ty grafy ukazuji ani ne dvojnasobny narust, pri zvyseni spotreby.
Jinak ja jsem jeden z tech, co prave stale nevidi smysl upgrade, protoze GTX 1080 Ti je v 1440p porad dostatecne dobra (RTX 3080 ma v tomto rozliseni narust vykonu jeste nizsi) a ve 4k to stale neni dostatecna hitparada (cileno na 144Hz monitory), s DLSS budiz. No a pak je tu ta spotreba, ktere spouse lidem nevadi, ja uz se s 300+W GPU nesmirim. Ale tohle jsou me osobni preference, podle kterych se rozhoduji, nevydavam to za obecnou pravdu, jak tvrdite vy o majitelech Pascalu.
Presne tak, ako ukazuju testi undervoltingu 3080 dokaže bežať aj na 280W a ma len o 3% nišši vykon, ako pri spotrebe 330W. Mohla to biť vykonna usporna karta za super cenu, teraz to je ako s RX5700 tam AMD tiež strašne prepalilo spotrebu, taka RX5600 nema o vela nišši vykon ale spotreba 150W je podstatne lepšia ako 230W.
Fakt nechapem Nvidiu nestačil jej vykon vyšši od 2080S o 54% so spotrebou 280W ale kvoli 57% to museli hnať na 330W?
Nabídku NV pak zase vykupovali spekulanti, kteří na její shopy poslali boty. Sledoval jsem nějakého YTubera, říkal že by si chtěl tu kartu koupit, tak před 15h refreshuje co pár sekund stránku. Tam vidí pořád "těšíme se" nebo co to tam NV shop v en verzi má a po jednom z těch refreshů to skočilo na "vyprodáno", tak to okomentoval že bude fajn, když příští várka karet vydrží víc než 500 milisekund :D
Bot to zvládne rychleji a zvládne to pak hned zalistovat na ebay za 12-15 stovek :)
NV chce ale nějak ručně ty objednávky vyhodnocovat.
Redmarx
Jak tu popisovalo vice lidi, a pokud byste se obtezoval treba kliknout a poslechnout si JayZ, Linuse, potazmo prispevky tu, tak byste naopak zjistil, ze ta FE edice dopadla skvele - z pohledu CPU. Dokonce se mluvilo i o zlepsenem airflow na RAMkach, pokud mate vodnika na CPU napr.
Ale pockejte jeste. Po AMD grafikach budete cekat na RTX 4000 a pak zase dal ;)
Takhle, potreboval bych letos neco koupit. Obava z moji strany je, ze tech grafik nebude dostatek a ze nekoupim proto, ze to nesezenu.
V opacnem pripade neco koupim, vykon a cena RTX 3080 FE mi vyhovuje, takze pokud AMD nic konkurencniho nenabidne, tak bych bral tuhle grafiku a chlazeni si nejak upravim doma na kolene.
Pokud si ale vyrobci custom karet zatim chteji rict o 3.000 - 5.000 Kc vic, navic za design karet, ktery se mi nelibi a stejne bych ho musel predelavat, tak si myslim, ze to nezbastim a pokud FE edice nebude realne k sehnani, tak asi budu ochoten tolerovat konkurenci i mensi vykon nez, ktery bych ted ocekaval.
Takhle to proste je postaveny a budoucnost ukaze, kdo nakonec vyhraje to misto v mem pocitaci. :-)
nepamatuju se, že bych chválil jakoukoli CF/SLI konfiguraci, natož abych na ně stál frontu. ????
Efektivita se měří v Controlu (což je btw nv hra)? ????
hele promiň, já tyhle hrátky fakt nehraju. V keynote jasně zaznělo 1,9x (kteréžto číslo někteří zelení roztrubovači hypovali bez bázně a hany jako univerzální koeficient) bez jakýchkoli upřesnění - a to prostě nesedí. Byla z toho nějaká očekávání, a ta se prostě nenaplnila. To tu kartu nediskvalifikuje, jen to prostě není taková bomba, jak se čekalo.
Oni v podstatě napíšou "up to" v Controlu 4k RT DLSS to udělá dvojnásobek a mají splněno. Všichni víme, že prezentace samotný firmy jsou marketingově zaměřený a nikdy to není tak růžový. Kdo čekal 2x 2080 napříč všemi testy, tak je naivní. Ryzeny 3000 taky často neboostujou tak, jak by papírově měly, lidi pindali ale stejně je kupujou, protože jsou to dobrý procesory.
https://youtu.be/32GE1bfxRVo?t=973
btw osobne bych sel do ASUSu nez do MSI co jsem se dival, kdybych ted kupoval
Konzole? Protože různé předplatné na hry jsou i na počítačích tak Vám napíšu tohle.
PS5 = AMD Zen2 + RNDA2
Takže to jsme u toho co jsem už psal tedy konkurence od AMD. Nic nového jste mi tím neřekl. Navíc tahle rovnice tak trochu popírá to Vaše tvrzení "Jensen není blbej,". To že nedodávají chipy do PS5 je doklad toho, že to moudře nevedou. Tuhle prohru si také u Nvidie bolestně uvědomují a rádi by udělali v budoucnu tuhle rovnici.
PS6 = ARM + RTX
Držme jim palce.
Podle fotek to vypadalo, že nereferenční chladiče jsou typicky stejné u RTX 3090 i RTX 3080, protože je GPU a PCB stejné. Nějaké speciální modely by asi mohly mít chladič vlastní, který pr RTX 3080 nebude prodávaný.
Dává to smysl, protože rozdíl příkonu není tak velký, chladí se o pár fází a paměťových čipů víc (ale 12 navíc jich chladí backplate), a na těch + 30 W mají ty chladiče podle recenzí rezervu, akorát se toršku zvýší otáčky nebo teploty.
Chladič FE je výjimka a je větší, ale taky FE u RTX 3080 nemá tu rezervu co 3xvětrákové nereferenčky.
1. Jo jo, proti Vega 64 není těch 320 ještě tak moc. I když si říkám, že kdyby Nvidia tu spotřebu stlačila na stejné číslo (Vega 64 měla TDP 295 W), možná by to za to snížení výkonu stálo. Ale je pravda, že Vega 64 měla "nefér" výhodu v tom, že ji míň žraly paměti.
2. No chtělo by to podívat se, jak vzdálené byly ty ukazované "up to čísla" v minulých generacích a jestli se tem rozdíl proti realitě nezvětšil. Mě trošku přijde, že jo, ale možná se pletu, čas na to studovat starší prezentace jsem si nenašel...
Ono před těmi zprávami Igora o 320/350 W se nečekalo, že Nvidia zvýší tolik TDP proti Turingům, protože to nebyl její styl, takže by se ti lidi možná tak drsně nepletli (i když tam samozřejmě mohlo být přání otcem myšlenky), kdyby ty karty měly TDP 220 a 250 W a ne 320 a 350. Víc wattů je u GPU vždycky víc výkonu.
Já tvrdil že nárust výkonu je cca 2-3.5 násobný proti Pascalu, samo jsou tituly kde to hlavně pro 1080Ti nebude tolik. Taky nevím proč zmiňuješ nějakou spotřebu, když jsem o spotřebě nepsal.
Pokud GTX1080 brala 180W a 3080 má dvojnásobný výkon minimálně a má spotřebu 320W, tak je to pořád méně než 360W co by byl dvojnásob 1080.
Tady máš recenzi, kde záměrně testuje 1080 vs 3080 s i7-7700k!
https://www.youtube.com/watch?v=VQmife767u0
RDR2 4k:
25.1 pro 1080
32.4 pro 1080Ti
70.6 pro 3080
2.81x pro 1080
2.18x pro 1080Ti
COD:MW
35.7FPS pro 1080
59.0FPS pro 1080Ti
96.4FPS pro 3080
2.70x pro 1080
1.63x pro 1080Ti
R6:Siege, 1440p
85.7 pro 1080
124.2 pro 1080Ti
229.4 pro 3080
2.67x pro 1080
1.84x pro 1080Ti
MSFS, 1440p:
16.1 pro 1080
22.7 pro 1080Ti
42.4 pro 3080
2.63x pro 1080
1.87x pro 1080Ti
https://www.youtube.com/watch?v=csSmiaR3RVE
vezmu jen 14 games average 1440p
80 FPS 1080
108 FPS 1080Ti
171 FPS 3080
2.13x u 1080
1.58x u 1080Ti
14 games average 4k:
44 FPS 1080
64 FPS 1080Ti
108 FPS 3080
2.45x pro 1080
1.69 pro 1080Ti
Tady https://www.youtube.com/watch?v=AuGoel96Ym4 ne všechny hry testuje na max detailech, takže se ty čísla docela liší a je tu několik testů kde 3080 má víc jak dvojnásobek výkonu 1080Ti, například COD:MW v 2160p, v Horizon Zero Down je to dokonce 2.51x víc - 35 vs 88 FPS v 2160p, Death Stranding bez DLSS v podstatě taky 2x víc než 1080Ti. V RDR2 2.75x víc v 2160p. Proti 1080 by tady byly snadno víc jak trojnásobky.
U RT a DLSS pak ani nemý smysl o použití 1080 uvažovat, nárust byl násobný už u Turingu, to pak znásobuje kombinace s DLSS. A to zas znásobuje Ampere...
Jenže Vega(64) byla profi karta "náhodou" uvedená jako herní, a ještě v době největšího finančního temna u AMD . Krom toho, už v době uvedení bylo všem jasné, že výhodnější je Vega56, protože její TDP bylo daleko snesitelnějších 210W a výkonově to o třetinu horší nebylo. Mimo to Vega jako čistě herní karta nedávala moc smysl, pokud jsi ji nedokázal zaměstnat i jinak, než hraním.
"Efektivita se měří v Controlu (což je btw nv hra)? ????"
Samozřejmě že ano když ti někdo ukáže konkrétní scénář kde dosáhneš takové efektivity a nikde ti netvrdí že v jiném to nemůže být jinak, tak bys měl přeměřit ten konkrétní případ. Nikde nepadlo že 1.9x ale AŽ 1.9x to je podstatný rozdíl, dokonce ten samý graf na kterém stálo to 1.9 jasně ukázal že je to nějakých 1.2 pokud ta karta jede na plný kotel, jen sis tu hodnotu musel dopočítat, nikdo ji ale nezatajil. Když holt neumíš pochopit význam jednoduchého grafu o dvou osách a křivce na ní, tak to není chyba té prezentace ale tvoje.
A k tomu CF... výtažek z diskuze z ddw:
Marucs [Zobrazit profil] [Poslat zprávu] 2016-06-01 07:43:25
To mi chcete říct, že AMD nabídne kartu (2x RX 480) za cca 13 tisíc (tedy 1070 GTX) a budu mít výkon podobný 1080?
tynyt [Zobrazit profil] [Poslat zprávu] 2016-06-01 17:58:10
prakticky někdy vyšší, někdy o dost nižší - pokud nepředvedou nějaký zázrak, kterým by stoprocentně zfunkčnili CF na všech herních titulech.
"někdy vyšší" to tvé někdy bylo přesně 1 hra. Takže to evidentně nijak nevadilo. Dokonce v té prezentaci neukázali žádný jiný výkonnostní test., jen jednoznačné tvrzení 2x480 > 1080. Když NV udělá něco podobného, kde ti dokonce ukáže srovnání výkonu v několika hrách, které jen slepý nemůže vidět že tam žádná hra nedělá 2x vyšší výkon je tu neskutečný hate.
Buď trošku konzistentní
"DedekHrib 18.9.2020 at 11:41
Tuhle prohru si také u Nvidie bolestně uvědomují "
:D :D :D
Wow tak ty jsi taky dobrej fanatik... zřejmě kvalitní očkování od DDemagoga. :D Příště až půjdeš s Jensenem na pívo, tak mu poraď jak to má dělat, chudák je z toho asi celej nešťastnej. :D
Já ani nikde netvrdím, že na PC neexistuje předplatné (cenově dost jinde), já jen uvádím, že PS+ Collection je novinka pro tuto generaci, která má nalákat na AAA klasiky z PS4 lidi, kteří předtím Playstation neměli. Je to něco navíc a grátis ke stávajícímu PS+, které samotné ti přináší každý měsíc nějaké hry zdarma.
Já ti vysvětluju proč je cena jaká ja a ty tu začneš cosi blábolit o AMD. :D
PS5 není čístá RDNA2, ale něco mezi RDNA a RDNA2, takže nějaká tvoje rovnice je úplnej blábol, stejně jako většina tvých ostatních příspěvků.. :)
"Moudře nevedou". Malinko bych si dovolil nesouhlasit, s ohledem na hospodářské výsledky. V desktopu prodají 3x víc karet než AMD a daří se jim diverzifikovat portfolio směrem k lukrativnějším segmentům. Jestli si bolestně uvědomují nebo jestli to berou jako prohru, to fakt netuším. Na jednu stranu je fakt, že i když objemově je těch APU pro konzole hodně, pak podle všeho to velká sláva nebude. A na druhou stranu buďme rádi, že to AMD nějaký příjem generuje, bez toho by se jim v grafické divizi asi dýchalo hůře (potřebujem konkurenci, ne?).
Jinak to o tom, jaká to je katastrofa, že Nvidia nemá nic v konzolích, jak se bude vše optimalizovat na AMD, protože konzole, o tom čtu už asi deset let.
V čem můžu souhlasit, že klidně může být nějaká nextgen konzole, nějaký SuperShield od Nvidie na bázi armu a jejich gpu. Ale vsadil bych se, že si to Nvidia nechá pod palcem, potřebný background umí, vč. herní streamovací služby.
Ono že těch 1,9× je zavádějících, to se dalo vyčíst hned už z toho grafu podle toho, jak to bylo vytvořené (podtaktujeme Ampere na efektivnější frekvence, aby měl stejný výkon jako Turing, takže se úplně obrátí reálná situace, protože reálně Ampere běhá na neefektivních taktech... jak to asi dopadne, že).
Ono taky, nesedělo to ani k tomu tvrzení, že RTX 3080 má být 2× rychlejší než RTX 2080, protože už jsme věděli, že TDP je skoro o 50% výš. Už z toho vyplývalo, že nárůst efektivity bude jen 1,33× (a teď když je reálný průměrný výkon nižší než to, to samozřejmě vyjde ještě hůř).
určitě může být vše zcela jinak, ale pak proč utrácet peníze na model grafiky ve hře, k tomu vydat kvalitní 3D render který až na omezení kvality ve hře řekněme ukazuje to samé a pak se objeví fotka která se, v některých detailech liší.
Třeba z té fotky mi přijde že ta karta je o něco větší než 2 slot, ze hry to zase vychází přesně jako 2 sloty a 3D render, z toho se to velice špatně odhaduje, vzhledem k inspiraci u 2000 řady FE, které byly dvouslotové se dá uvažovat že i tyhle budou dvouslotové. A to že ty FE chladiče nebyly zrovna nej, byť nebyly ani tragické víme. U Turingu ale odbourávaly méně tepla než kolik očekávám že budou odbourávat u 6900XT.
Tak existuji custom chladice jako Arctic Accelero Xtreme IV pro predchozi generace karet, pocitam, ze bude neco i pro soucasne. Je moznost tam hodit vodni chlazeni, bloky pro graficke karty existuji. Da se vyrobit tunel, at uz pro odvod ohrateho vzduchu z procesoru a nakonec i z grafiky by to mohlo jit take. Daji se i dovnitr skrine napasovat ventilatory, ktere budou usmernovat odvod vzduchu z grafiky.
Az podle toho, jakou grafiku poridim, tak budu vymyslet, jak to vylepsit. U te Founders me napadlo jako prvni, ze pod SilentiumPC Fera nalepim vodorovne zabranu, ktera bude branit ventilatoru pred chladicem procesoru nasavat primo ohraty vzduch z grafiky.
Nebo bych si na procesor poridil AIO, cimz bych presunul chlazeni procesoru jinam a pak by mela grafika prostor se chladit bezproblemovy. Akorat to jsou vsechno penize navic, ktere do toho budu muset narvat a se kteryma musim take pocitat.
Tak pochopitelne, protoze si potrebuji ospravedlnit, ze nekoupi a snazi se o sve pravde presvedcit vsechny kolem. Naopak ti co koupi, zase budou nakup obhajovat, aby nevypadali jak blbci. Jen male procento z obou skupin je schopno podivat se realite do tvare a rici v obou pripadech opak, pokud to tak skutecne citi.
"Vega(64) byla profi karta „náhodou“ uvedená jako herní, ...že výhodnější je Vega56" - Tynyt, takéto reči si nechaj na stretnutie "priateľov a fanúšikov AMD", mne ich vážne nepíš.
Hore si písal "320W u nehi-endu, to je prostě masakr, tohle si nedovolilo ani AMD" a ja som ti jednoducho kontorval s Vegou 64 ktorá žrala 300W, ešte raz v xy teyxtoch nájdeš jej hernú spotrebu okolo 300W a bola 25-30% pod 1080Ti teda ani pri tej veľkej spotrebne nebola dokonca highend.
Vega 64 bola v nereferenciách, bola to normálna hrená grafika s 300W spotrebou a tie tvoje reči na tom nič nezmenia.
...ale opakujem chápem, 300W u Vegy 64 ktorá bola 30% pod konkurenciou je pre AMD fanúšika pohoda, 320W u RTX3080 ktorá je 2x tak výkonnejšia než 5700XT a 1,8x výkonnejšia než VII je neospravedlniteľné :D
jo STRIX bude cca o 2.3k drazsi cekam, nicmene ta Tufka je dobra a pokud si snizi powerlimit na -10 az -15 procent tak je to paradni karta ... jedou totiz nadoraz jak drive AMD, takze zadne pretaktovani, spise doporuceno podvoltovani :D se tu tise smeju, pac z tohoto si nVidiaci delali srandu driv :D
ach jo, když ty takhle :D já se nevymlouvám, ale z toho, co tady vypisuješ řadu dní, se dá lehce vydedukovat, že ta zášť o které jsem psal, je u tebe prostě realitou. Nepsal jsem o nenávisti a nevím čem, to sis zase vydedukoval ty ... je to tvoje realita, nemůžeš jinak ... kdyby byla ta karta drahá, řval bys, jaký je Huang zloděj, když předražená není, zase se ti to nezdá ... 2080 ti byl mnohem větší čip a karta byla od začátku předražená ... to není můj výmysl, je to prostě tak ... nemel tady nesmysly o jiném výrobci a mysli ... já neřekl, že je jiný výrobce o třetinu dražší, jen že je dražší a to taky není můj výmysl ... další věc jsou výrobní kapacity ... u Samsungu třeba nvidia dostala slevu, je to možné z mnoha důvodů ... samozřejmě to není jen o tom ... 3090 má stejný čip(velikostí samozřejmě, ne konfigurací) a je jednou tak drahá ... opět ... předražená, jako byla 2080ti ...
Mám ji objednanou https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX3080-O10G-GAMING/specifications/ snad bude do měsíce doma.
Redmarxi, to reseni nicemu nevadi, nebudes mit rozdil mezi klasickym nebo prufukem, mozna bych se i stavil, ze ten prufuk je lepsi, protoze to teplo odvede rychleji pryc, kdezto ty klasicky si to tam hezky nahnaj a teplota v case bude jeste vetsi, sam vidim jak mi klasicky grafiky ohrivaj CPU a toto neni horsi, mozna i lepsi pac ten vzduch uz ma pohyb smerem nahoru a CPU to jen odfoukne smerem dozadu k vyfukovymu vetraku, kdyby ten pohyb nebyl, tak se ti to teplo tam drzi a stejne to pak prijde na CPU ktery to odfoukne. Fakt se nemusis bat, ze by to bylo horsi nez klasika, bude to minimalne stejne spatne ne li lepsi jako jakakoli jina vykona grafika v kejsu
teď jsem se docela nasral ... budu se držet zpátky ... nerozumíš slovu "PŘEDRAŽENÁ"? Pak ale nerozumíš asi ničemu ...
Aznohh ti psal o konzolích, že při jejich cenách a výkonu, když bude nvidia zbytečně nadsazovat cenu, odejde spousta hráčů ke konzolím ... ty začneš plácat o rovnicích a meleš něco úplně od věci ... jedno s druhým, cena je jaká je a že ji trefili dobře, se vidí a uvidí v obchodech
dle tebe by asi bylo v pořádku, když 1060 stála 8k, 2060 11k, 3060 by měla mít cenu 15k a 4060 třeba 20k?
Naopak to zahřívání CPU se oproti 2080Ti FE zlepšilo i přes výrazný růst spotřeby https://youtu.be/AG_ZHi3tuyk?t=428
Vy to porad nechapete, grafika je na tom dobre, lepe nez driv, ale zhorsila se teplota procesoru, protoze driv to na ten procesor nefoukalo primo a vetsi cast odesla zebrovanim dole u grafiky. Navic ten vyfuk pred procesorem zhorsuje celkove airflow.
Proste jedinej, komu to pomohlo, je grafika a to ja neakceptuji.
No řekl bych, že jedinej kdo to tu nechápe jsi ty.
Aznohh 18.9.2020 at 11:56
Naopak to zahřívání CPU se oproti 2080Ti FE zlepšilo i přes výrazný růst spotřeby https://youtu.be/AG_ZHi3tuyk?t=428
BTW z jedné předchozí debaty s Redmarxem :D Aneb historie se opakuje.
"Aznohh 21.8.2020 at 0:41
Zrovna ty jsi se tu asi rok prsil, jak koupíš Turing hned jak vyjde a pak když vyšel, tak jsi tu každej den pod článkem brečel, že je drahej a že tě Nvidie zklamala. ???? Nakonec jsi skončil u bazarovek Pascalu za pár tisíc. ???? Tak raději nic nepovídej o grafikách za 35k. "
Cena je nízká protože AMD dalo nižší ceny. Pochopte, že vůbec nezáleží je-li ta technologie zabalená v krabici se značnou Sony nebo někoho jiného.
No snad si nemyslíte, že Nvidia má radost z toho že nedodává grafiky do PS5? To že z toho v Nvidia toho nemají radost je holý fakt který vidí a chápe každý i fanda Nvidie. Kvůli tomu mne srovnávat se Stachem to si opravdu nezasloužím.
To jste opravdu tak nerozumný a myslíte si, že mám radost z toho jak AMD dělá všechny konzole. Tohle mi náramně smrdí tím, že by tady mohl vyrůst nový monopol. Uvědomte si prosím, že takto AMD vyšachováná konkurenci i přes vývojáře. Bude tak díky jejich technologiím snadné portovat hry mezi PC a konzolemi. A z toho může být veliký problém.
ty neznáš ceny čipů a to, co si "myslel" pod tou vyšší cenou od jiného výrobce, na to nemohu reagovat jinak, než tě nazvat velkým "myslitelem" :D vidíš, tohle je tvůj problém, ty píšeš "myšleno", myslíš tím, ty sis myslel ... hovno tě zajímá, jak to myslel oponent ... raději nemysli
Aznohh jj tak ten je dobry..dneees se podivame zpatky do minulosti na tooo, jak si chtel redmarx koupit novou grafiku :) Je to jednoduché, kdyby mu tolik neslo o penize tak si ji davno koupi, na druhou stranu ho chapu, ja bych za grafiku pres 20tis taky nedal, ale nikomu to tady necpu do diskuzi jak v jeho pripade :)
Ano s tím co píšete souhlasím. Z pohledu hospodářských výsledů máte pravdu. Víte on ani Intel to nevede moudře výrobu vývoj high end procesorů ale ceny akcií stoupají.
Ano dělají třikrát více karet. Ale AMD má i procesory a hlavně zkušenosti s chiplety která jestli Nvidia nepřipraví něco podobného by ji mohli hodně zamotat hlavu.
Tohle co píšu jsou i pocity které se mohou a nebo nemusí potvrdit. To že AMD má silný růstový potenciál dokazuje i vývoj jejich akcií.
Api je jenom most a tento most vede ke stejným HW funkcím na grafické kartě od stejného výrobce. Ten konec (prováděný kód.) je pak v obou případech velni podobný ne li stejný a v tom je to usnadnění.
Vzpomeňte jak demonstrovali Epicové nový Unreal engine. Bylo to na PS5. To něco už napovídá. https://www.youtube.com/watch?v=qC5KtatMcUw
Redmarxi, my to chapeme dobre, ano ty grafiky foukaji do prostoru CPU chladice, ale stejne tak klasicky grafiky tim ze rozfukuji teplo kolem sebe tak to teplo prijde k CPU chladici, tady to ale bude rychleji a s proudem vzduchu, tudiz to je snad i lepsi, kazda grafika v kejsu ti ohriva okoli, tady tyto tomu davaji jeste pohyb, takze neni vubec treba se obavat, ze chlazeni CPU na tom bude hur nez kdyz tam das klasiku, bude to stejne nebo lepsi
gogo1963 18.9.2020 at 12:50
Proste fabulujete logicky neobhajitelné. To Vás šetřím. Přesto máte potřebu tady ty výmysly obhajovat. Normální člověk by uznal chybu ale vy vyrážíte do útoku. Don Quijote de la Mancha je proti Vám břídil ale hlavně na rozdíl od Vás bojoval na straně pravdy.
Myslím, že tak 95% lidí čekalo 200%, já taky a chtěl jsem 3080 kupovat, ale teď jsem na vážkách. Efektivita taky byla jen marketingové číslo a je mnohem nižší.
A ceny? Toho se bojím nejvíc, že to neseženu pod 23 v lepší OC edici, což je o 5 tisíc víc, než jsem počítal... a to už není málo
Hřibe - Stachu, vyříkali jsme si to u tebe na webu, pak ještě na Facebooku, pokud máš pro mě něco navíc, klidně piš ... pokud nerozumíš psanému, jsi buď nevzdělaný, nebo dement ... kde že fabuluji? Ani nevíš, co to slovo znamená ... kdybys měl tušení, nepoužiješ ho ... házíš tady slovíčky, kterým sám nerozumíš doufaje, že tě někdo bude žrát ... ne jednou jsem ti napsal, že děláš ze sebe vola ... možná jsem se mýlil a ty nic ze sebe neděláš ... nevím, co je pro tebe horší ... ty splácáváš dohromady takové konstrukce, že se rozum zastavuje ... na jedné straně vykládáš, že fuze nvidia arm je ještě ve hvězdách, na druhé straně očekáváš, že nvidia nové karty osolí tak, že si je koupí jen naprostý debil jen proto, aby nvidii zaplatil akvizice ... a tak je to u tebe s každým "novým nápadem" ... nech si poradit někým, kdo nepřednáší na "dd", pak snad přestaneš psát takové bludy ... povykládej nám tady, co že je podle tebe logické na tom, když nvidia navalí na nové karty ceny o třetinu vyšší a prodá jich setinu, když může při své obvyklé marži udělat cenu přívětivou a prodat karet násobně víc? Kdo bude chtít zbytečně připlácet, koupí 3090 ... jinak má skoro každý mimo majitelů 2080ti důvod na upgrade ...
v podstatě jsem napsal to samé, co Casper ... já jsem DOn, s ním souhlasíš ... kromě těch blábolů o ARM ...
gogo1963 18.9.2020 at 13:39
Já vím že toho po Vás budu chtít moc ale zkuste si uvědomit dvě věci.
1. Ano to je pravda ale CPU a GPU jsou velice podobné a proto to má logiku mluvit o chipletech i u GPU.
2. Kurz akcií je nejhmotnějším vyjádřením skupiny lidí že dané společnosti věří. Proto to sem logicky patří.
Nechte si ty výlevy. Nechápu kde v sobě berete tuhle potřebu do všeho tak vztekle kousat.
Stach nejsem ale mám pocit, že Stach je stejný neotesanec jak Vy. Nechápu co Vás vede k takovým konstrukcím. Jenom se tady deklasujete tohle další fabulací. To Vám ale nevymluvím. Zklidněte se už prosím.
DedekHrib
Já právě nevidím cenové snížení.
V generaci 2xxx došlo k cenovému zvýšení. Nyní to je cenová stagnace (aspoň u 3070 a 3080). Ceny jsou stejné jako u minulé generace. Takto to chápu já.
A přeci to tak vždycky bylo (až na pár drobných odchylek a samozřejmě minulou generaci) Následnovník předchozí generace měl vyšší výkon za stejnou cenu...
Stachu, já jsem klidný na rozdíl od tebe ... hraji si tady s kocourem, koukám na tour a divím se sám sobě, že ztrácím čas s hlupákem na tvém levelu ... promiň, musel jsem, aby bylo jasněji ... chvíli jsem ty tvoje žblebty toleroval, snažil jsem se nebýt nepříjemný, ale podej hlupákovi prst...
já vím, že od tebe chci nemožné, ale cpu a gpu si nejsou podobné ani náhodou ... zkus si o tom něco najít, víc se ti už věnovat nebudu, nemá to žádný smysl ... jeden blábol za druhým ještě větším ... logicky by ses měl nechat vyšetřit ... mít tohle doma, nechám se utratit ...
jako obvykle, jsi opět vedle ... u tebe je to už pravidlem ... nepamatuji, že bych takhle někoho nazval, dneska jsem po létech psal o jeho webu v souvislosti s mým telefonem ... že mi na googlu vyskakují články právě z "DD", že to nechápu ... ten imbecil je mi úplně ukradený a byls to ty, kdo tady vyblil jeho jméno v souvislosti s cenami nových geforce ... na tebe jsem ho hodil proto, že tvoje chování někdy navlas kopíruje to jeho ... reklama na pravdu ... já nejsem neomylný a kdykoliv to přiznám ... od tebe se podobná věc čekat nedá ...
gogo1963 18.9.2020 at 14:33
Našel jsem tady. Běžte ten rozdíl vysvětlit těmhle lidem že to nemůže být fáma. Jistě se pobaví tím co jim sdělíte. Ano je to spekulace nebo únik ale kdyby to bylo z designu nemožné tak by ho už dávno roznesli na kopytech. Zkuste to Vy.
https://www.tweaktown.com/news/74274/amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia/index.html
"DedekHrib 18.9.2020 at 12:34
Cena je nízká protože AMD dalo nižší ceny."
DDědku kua ty jsi machr, nejen že s Jensenem u píva řešíte jak je NV bez konzolí v prdeli, ale s Lisou na kávičce probíráš, zřejmě jako hlavní poradce AMD, cenové podmínky. :D Ty jseš vlastně takovej dvojitej agent Hříb.
z čeho že jsi vycházel? :D To jen potvrzuje, že nerozumíš psanému ... já jen napsal, že je spotřeba vyšší, cena o třetinu nižší, zapoměl jsem ještě výkon o 30% vyšší než 2080ti ... nic víc, nic méně, nepsal jsem že tu kartu nahrazuje, jen že i přes tu spotřebu je mnohem výhodnější, než "ti" ... ty tvoje dedukce ...
já jen napsal, že u GPU to tak jednoduché není ... propojit 8 jader, resp. 5 a víc tisíc asi nebude jen tak ... proč se asi zrušilo sli, cf? Protože to nefungovalo jak by mělo ... věřím, že se to jednou povede, ale pokud si myslíš, že to, co má AMD nemá i nvidie, pak jsi k té nechytrosti ještě i naivní ...
Teď jsem koukal, ComputerBase měřil Gears Tactics, Doom Eternal, Control, THW a PCper Metro Exodus, Guru3D neuvádí. Všude to vychází těch 300-340, nezdá se, že by se to lišilo podle použitých technologií. GPU má automatické řízení taktů/boost, které by případné snížení spotřeby mělo vykompenzovat. Nižší spotřeba by mohla být, když CPU vyloženě nestíhá u nějaké nenáročné hry a GPU není plně využité.
gogo1963 18.9.2020 at 15:17
Tomu se říká vylévat dítě s vaničkou. Víte já na DD chodím a rád si to přečtu protože když z toho odstraníte adoraci AMD tak tam jsou zajímavé myšlenky. Stach má ego že by možná zastínilo i to ego Jen-Hsun Huanga. Nesnese jiný názor a proto mne z diskusí odstranil. Nemám potřebu být součástí tak pochlebovačského diskusního fóra. Po svém tvrzení, že AMD bude muset jít cestou zvyšovaní výpočtového výkonu stejně jako Nvidia Stach toto prohlásil za blbost mne za kacíře a od té doby jsem tam exkomunikován. Přiznávám, že mi to jejich fórum opravdu nechybí.
DedekHrib 18.9.2020 at 13:02
"Vtipy to nejsou ale to asi nepochopíte nebo nechcete chápat."
Tak tohle radeji ani nerikejte, zlvaste po tom, co jste tu psal API, konzolich, cenach Nvidia cipu a "smutku" Nvidia nad nemoznosti mit GPU v PS5 a XSX.
Ale musim se priznat, ze me to take rozesmalo a udelalo mi to lepsi den :)
Ano přesně tak situace pro ty co hrají s FPS lockem nebo si zapnou Vsync třeba na 4k TV s HDMI2.0 kde stejně víc FPS neprotlačí.
Když si koupím auto s maximálkou 250km/h ale budu jezdit jen dle pravidel v ČR, tak max rychlost bude 130km/h, ale to neznamená že to auto neumí jet 250km/h. Že to není právě můj use case nic nemění.
Prostě kdo nebude hrát Control v 4k na zamčených 60FPS holt 1.9x vyšší efektivitu neuvidí, stejně tak kdo nehraje V-Ray nebo Blender asi taky jen tak nebuvidí 2x vyšší výkon.
DedekHrib: API je jenom most, který vede k HW funkcím grafických karet osazených čipy různých výrobců, přičemž se lze max. bavit o tom, zda čip danou funkci podporuje či ne a s jakou efektivitou. DirectX 12 je furt jen jedno, nebo existuje nějaký AMD edition či Nvidia edition?
Co se týče dema Unreal 5 enginu, tady vám běží na rtx kartě - https://www.youtube.com/watch?v=_MdcTYq23Ag&t=163s, tak nevím, co jste tím chtěl demonstrovat.
gogo1963 18.9.2020 at 15:32
Ale rozumím. že " já jen napsal, že je spotřeba vyšší, cena o třetinu nižší, zapoměl jsem ještě výkon o 30% vyšší než 2080ti …" a o tom píšu že jdou takto s cenou dolů a navíc prodávají i vyšší výkon. A proto tvrdím že to je AMDčkem tedy konkurencí na trhu. To jsou prosté tržní mechanismy.
@wendak nevím jestli 95% lidí čekalo 2x větší výkon v každé hře a kažédm use case, bohužel můžu mluvit za sebe.
Já v té prezentaci chvíli taky vylít "wow" 2x? Bomba, ale pak jsem se na ten graf podíval pozorně a bylo jasné že 2x všude to rozhodně nebude, čekal jsem 2x větší výkon v Blenderu a V-Ray, což jde mimo mě, jinak ve hrách dostanu řádově 60-80% nad výkon 2080, v 4k...
Tohle jsem přesně viděl v recenzích
Stejně tak s tou efektivitou, prve si říkám, to není možné, tak hodně? pak koukám pozorně a docvakne mi pro jaký scénář to platí a že realita je cca 20% (100FPS při 320W vs 60FPS při 240W)
Ale to tvrzení 1.9x proti Turingu je pravdivé, protože byl jasně specifikovaný scénář, do kterého si záměrně nevybrali RTX2080 ale RTX2080S, která je v Turing RTX kartách ta nejméně efektivní, nakreslili dvě křivky a vypíchli rozdíl mezi dvěmi body na ose X při stejném bonu na ose Y. To že při max výkonu je tomu jinak na tom grafu také je, jen to nikdo nezdůraznil.
U reklamy prostě člověk má koukat pozorně, lhát se v tom nesmí a taky se to nedělá, ale je třeba vidět všechny informace, ne jen ty které prezentující vypíchne. Samozřejmě vypíchne to nej.
DedekHrib - Na stejném webu, odkud odkazujete, vyšel i tento článek - https://www.tweaktown.com/news/69186/nvidia-next-gen-hopper-gpu-arrives-ampere-smash-intel-amd/index.html
A tady máte ukázku jednoho experimentálního čipu Nvidie z r. 2018, který testuje některé technologie použitelné i v mcm gpu - https://www.pcgamesn.com/nvidia/nvidia-rc-18-ai-deep-learning-accelerator-mcm-multi-gpu
Hrib - Máte pravdu, CPU i GPU jsou si velmi podobné. Jsou to takové placaté čtverečky...
Velmi zhruba řečeno, zatímco cpu provádí co nejlépe nějakou náhodnou sadu instrukcí na základě nějakého množství úkolů na relativně malém množství dat, tak gpu provádí menší počet konkrétně stanovených instrukcí na velkém množství dat. Ano, má logiku mluvit o čipletech i u gpu, ale představa, že prostě naplácám vedle sebe gpu čipy a pospojuju je nějak podobně jako u cpu, je slušně řečeno velice lichá.
"komplik 18.9.2020 at 16:42 proč utrácet peníze na model grafiky ve hře,"
Když pominu, že tu už několik dní zbytečně řešíš Fortnite jak blázen stále dokola... tak opět další z tvých mnoha fabulací... dej zdroj, že za to AMD dalo nějaké peníze. IMHO to byl barter s Epicem, AMD reklama, Epic noví hráči. Demagogie jako vždy.
https://www.cnews.cz/amd-referencni-radeon-rx-6000-chladic-tri-ventilatory-usb-c-fortnite#comment-235588
komplik 15.9.2020 at 11:38
"A to neberu v potaz 1.9x lepší efektivitu při normalizovaných FPS, ale při max výkonu."
komplikoova konzistence++ ;)
mikymauz 18.9.2020 at 17:24 Hm to je zajímavé tyhle články mi unikly. Rád jsme si je projel. Tak trochu mne to uklidnilo protože vidím, že Nvidia na tomto polí něco dělá a doufám, že i nyní dělá. AMD potřebuje mít chipletovou konkurenci jako sůl.
Je potřeba si uvědomit, že tahle situace je ale jiná. Tehdy Nvidia dělala něco co nebylo ověřeno a mohlo to působit utopicky. Nyní AMD najelo chiplety a je to prošlapaná cesta.
mikymauz 18.9.2020 at 17:55 ano zní to směšně ale je tomu tak z pohledu chápání funkcí . Neshodnu se s Vámi v tom, že "že prostě naplácám vedle sebe gpu čipy a pospojuju je nějak podobně jako u cpu, je slušně řečeno velice lichá." je to Vás názor na která máte samozřejmě právo ale právě z pohledu GPU je přibližně CPU si myslím, že nemáte pravdu.
Největším nepřítelem těchto zařízení je elektřina co se v nich mění v teplo. Doposud se eliminovalo její množství zmenšováním. Nyní jsme se dostali na hranice a nejde to. Proto AMD začalo pracovat izolací tepelných zářičů tím, že budou dále od sebe (když je ty nové výrobní procesy ta k sobě nahustily) a vydalo chiplety. Jak jste mi dodal ty odkazy i Nvidia to rozjela ale si to ještě nemají ve stavu aby to spustili. Logicky neexistuje důvod proč by to nemohli rozdělit i u GPU když na CPU to funguje.
Nedržte se tak při zemi a popusťte uzdu fantazii.
Aznohh 18.9.2020 at 17:55
Nerozumíte mi hovořím o tomhle. http://ekonomie.topsid.com/index.php?war=trh_a_jeho_zakony
Nvidia dává nižší cenu díky AMD ale platí to logicky i obráceně AMD dává nižší cenu díky Nvidii.
hřibe, přečti si co jsem napsal pár postů nad tvým posledním ... číst neumíš, plácat hlouposti umíš do aleluja ... a taky to, co jsem napsal předtím nijak nekoliduje s tím, co jsem napsal potom, nebo co na psal Casper ... tvoje ubohost rýpat a dělat ze sebe debila za každou cenu, nezná hranic ... klidně v tom pokračuj ... místo aby ses začal omlouvat za ty ptákoviny, co jsi psal na mojí adresu, opět tvoje pseudoego nepustí a jedeš dál ve svých kolejích ... klidně se u toho poser, lžeš, jak když tiskne ...
hřibe ... cpu má 2 až 64 nebo něco víc jader, propojit je není takový problém, počítají sériově ... gpu má5 a víc tisíc jader, počítá paralelně, dva čiplety vedle sebe, to je 5x5 tisíc jader, 25 milionů cest ... pokud je propojíš několika málo cestami, bude z toho v podstatě SLI, resp. CF, které nepřináší skoro nic ... zkus myslet, génie ...
DedekHrib 19.9.2020 at 8:26
Nekdy proste clovek S NEKYM na argumentovani nema cas, nebo naladu. Vcera jsem byl docela z prace unaveny a ty vase s odpustenim zvasty me pobavily, tak jsem to sem napsal. Argumentovat jsem nemel chut. Navic tech prispevku, kde se vam asi 5 lidi snazilo neco vysvetlit je tady spousta.
Ono kdybyste mene mluvil a vice poslouchal (cetl), mozna byste se dobral poznani a treba jeste ziskal respekt u ostatnich. Takhle jste tu akorat za troubu, co tvrdi, ze "CPU je vlastne GPU", "expert" na ekonomiku a marketing a jeste dalsich par krasnych perel.
Myslete si o mne, co chcete, vase obecna prohlaseni a soudy jsou mi celkem volne.
k tom u méme tvrzení ... napsal jsem jasně, bylo to jen srovnání (pro Hřiba) že 3080 má vyšší spotřebu, vyšší výkon a o třetinu nižší cenu, žež top karta předchodí generace 2080ti ... to, co meleš kolem toho už druhý den, je naprosto irelevantní ... nikde jsem nenapsal, že 3080 je náhrada za 2080ti ... že to tím svým pidimozečkem nemůžeš pobrat, s tím já už nic nenadělám ... a ty bláboly o lži ... podívej se do zrcadla a mluv ...
A uvědomujete si, že ta FE edice podle testů naopak prospívá chlazení CPU? A že případné accelero funguje stejně jako nereferenční modely? Vzhledem k tomu, že nechcete dávat za grafiku 20k+, tak možnost vodníka je asi nereálná. Osobně bych to nechal na tom, jak se to bude chovat a pak bych vynášel soudy a dělal nějaké úpravy. Ale dokud to nemáte doma a nevyzkoušíte to, tak prakticky nevíte nic.
"Az podle toho, jakou grafiku poridim, tak budu vymyslet, jak to vylepsit."
Jinak teda jak pomuze procesoru, ze mu pred ventilator nasavajici studeny vzduch pozenu ohraty vzduch z grafiky? :-D
Nenechavejme se prosim strhnout PR vyrobcu a pouzivejme vlastni rozum.
Zatim si bohuzel muzu prohlizet jen obrazky a videa novych RTX 3080, ktere byly zverejnene.
Za nejlepsi a jedinou na pohled hezkou a efektivni grafiku bych si predem troufl oznacit MSI Gaming Trio, ale jejich 3x8PIN me nechava klidnym a vim, ze tuhle grafiku neporidim.
MSI Ventus si taky neporidim, at je jakakoli, Ventus je pro me synonymem low-endu a u tak drahe grafiky, chci neco extra a ne nejakou blitku.
Ostatni vyrobci se prilis nevycajchnovali, nevim proc jsou proti minulym radam grafik tyhle tak osklive, vidim tam od pohledu radu chyb nesmyslnych prekazek proudeni vzduchu, spoustu levneho plastu atd.
No uvidime, kazdopadne ted uz vim, ze si pockam na konec rijna s cim se vytasi AMD a nekdy potom se teprve budu s grafikou rozhodovat, jakou poridit. Zadny unahleny nakup rozhodne delat nebudu.
gogo1963 19.9.2020 at 13:36
Tak nejak.
Treba ja jsem strasne davno kupovalu notebook Asus EEE 701, ten uplne prvni, s vidinou co vse na nem nebudu delat a jak moc mobilne. Problem nebyl ani tak v CPU a RAMce (tu jsem si dokonce i rozsiril), jako v ukrutne malem monitoru a klavesnici a diky tomu jsem to prakticky nepouzival. Ve vysledku jsem na tom odpracoval jen par hodin a pak to za par let prodal za cca 10% puvodni ceny. Vlastne asi nejhorsi koupe elektroniky, co jsem kdy udelal. A presne to jsem si pak rikal - skoda penez, to jsem ale blbec, ze jsem to koupil ;)
No a pak ten druhy priklad, ktery je z pohledu investice vlastne v poradku - treba Redmarx, ktery stale ceka na neexistujici produkt, se muze v kterykoliv okamzik rozhoupat a proste si rici "to jsem ale trumbera, ze jsem to nekoupil, resi to muj problem" a koupit to. Tedy pokud produkt bude dostupny ;)
@Redmarx nic proti vam, neznam vsechna vase kriteria, jen jsem vas vzal za priklad, protoze se mi to tak jevi, ze cekate na neexistujici.
Já to vidím tak, že model té grafiky vzali z CAD/CAE, takže tvůrce mapy měl velmi málo práce. A je taky otázka, odkud co vzali - třeba vrchní, víceméně nepodstatný, plastikový dekl s ventilátory mohl být z Navi2x, kdežto zbytek modelu už je ze staršího modelu. S ohledem na to, že AMD je v poslední době důsledné v utajování, není to až tak nepravděpodobné. Ovšem stejně tak to může být komplet finální RX6900...
Dál bych velmi polemizoval o tom, že počet slotů určuje, jak efektivní a výkonné to chlazení je. Jako příklad můžou sloužit mé "bývalky" - R9 280X a RX480, obojí v provedení MSI Gaming X. Obě byly 2-slot a jednoznačně přebíjely všemi svými parametry jiné značky výše uvedených modelů, zejména různé Strixy apod. Navíc je patrné, že samo MSI umí dělat jak vysoce kvalitní 2-sloty, tak chladicí odpad (MSI Mech/Armor).
Alich 19.9.2020 at 9:10 Tak
Tomu se říká demagogie co jste mi předvedl. Proste není pravda že jsem napsal že jsem napsal "„CPU je vlastne GPU“" snažil jsme se gogovi jenom vysvětlit, že je logické použít chiplety u GPU když u CPU se už používají proto oboje jsou podobné tedy jsou processor unit.
Když jste unavený a nemáte ochotu něčemu porozumět tak jste opravdu neměl do diskuse zapojovat.
ničím jsem tě neurazil, pablbe, já můžu srovnávat škodovku s Ferrari, můžu srovnávat cokoliv s čímkoliv ... ty se tady pasuješ na všeznalého, přitom ti unikají základní věci, nedokážeš rozlišit vůbec nic ... jak se dá s takovým retardem diskutovat? Opakuji po několikáté, nikdy a nikde jsem nenapsal, že ta nová karta nahrazuje tu srovnávanou, jen jsem chtěl naznačit tobě podobným debilům, že se určitě vyplatí pořídit si ji ... pořád nic? Pak tedy nic ... už si o mě neotírej tu svoji slizkou tlamu, prosím.
casper: jak může prospívat CPU, když na něj pere proud horkého vzduchu? To mi prosím vysvětli, ten tvůj zázračný termomechanický děj. ????
Redmarx má v tomto ohledu pravdu, teplo vyvedené konvekcí z grafiky bude přímo ohřívat chladič CPU, takže tento ztratí poměrně hodně účinku (delta teploty čipu a chladiče bude menší), takže ventilátor bude muset dodávat větší objem vzduchu. Výsledkem bude to, že jednak nevyhnutelně stoupne teplota CPU a zároveň se zvýší hlučnost. Ale ono to je ve své podstatě jedno, těch >300W tepla z grafiky skončí z valné většiny ve skříni, takže počítače s "Ampérem" budou hlučné tak jako tak.
aaha hahaha tak co jsi zjistil? Zjistil si, že na tom nvidia pracuje už roky a že to jaksi nejde zprovoznit, že pokud se někdy ukáže schůdná cesta, že u toho nvidia určitě bude ... tedy nic v dohledu ... kde jsou jablka a hrušky, když ty nerozumíš ani tomu, co jsi sám nabídl k nahlédnutí? Přečteš si nadpis a myslíš, že je vymalováno ... ono ale není ... čiplety u cpu a čiplety u gpu to je naprosto jiná kategorie
mikymauz 18.9.2020 at 16:56
To je pro mne novinka, že může běžet na RTX. Ale demo je udělané na PS5 tedy na AMD technologiích běží tam bez jakékoliv potřeby cosi upravovat a je plně optimalizované. odpadá i problém s optimalizací na AMD PC technologie.
To mlže být do budoucna problém pro technologie Nvidia protože se vývojáři budou primárně zaměřovat na AMD technologie a Nvidia bude v jejich vleku.