"A GeForce RTX 3090, kterou inflace žravosti u herních GPU začala..."
- S týmto sa nedá súhlasiť. Už Turing bola nenažraná architektúra. GTX 1060 skočila z 120 W na 160W u RTX 2060. To je o 50% W viac. A to aj napriek prechodu z 16nm procesu na 12nm. Odvtedy to ide s Nvidiou dole vodou, jedine Ada to trochu zabrzdila.
Hmm... u těch karet v nižším segmentu se to posuzuje hůř oproti tomu top modelu, kde je implikace jasná, protože to může být "inflace", ale i posun té řady o kus výš na relativním žebříčku výkonu v té generaci. Taky se to u té RTX 2060 hůř kritizuje, protože zprvu jí konkurovaly grafiky Polaris co měly spotřebu podobnou nebo vyšší.
RTX 2080 Ti téměř nešla na vyšší spotřebu než GTX 1080 Ti, pokud si pamatuju dobře - obě 250 W, i když FE edice měla 260 W a Titan RTX, pokud ho bereme za top model, měl TDP 280 W. I ten je ale těžší kritizovat, když proti tomu byla ta grafika Vega 64 se spotřebou 295 W (později Radeon VII, ten měl 300 W nebo teď koukám na databázi TPU 295W), takže Nvidia na tom byla líp než konkurence.
Další důvod, proč je to posunování nejzávažnější u top modelů: Kdyby si výrobci grafik nedovolili přelézt tu 300 W hranici (jednu dobu to dokonce bylo ve specifikacích PCIe ×16 jako maximum pro karty, aby mohly mít certifikaci, už nejspíš není) a pořád se museli držet v ní, tak to v podstatě omezuje i nárůst spotřeby nižších karet. Ty by se třeba postupně také tlačily výš z těch 150 na 200 až i trošku víc wattů, ale kdyby už na 300 W byl strop pro highend, tak to omezuje možnost hnát zas tak moc nahoru ty nižší modely. Přinejmenším jim to zamezí v tom, přelézt eventuálně přes 300 W také, což když highend žere 600 W, je asi otázka čsu. Zatím přes tu hranici šel jenom model "80", ale už 5070 Ti má mít TDP 300 W a časem tam třeba může dolézt model "70"...
Vymyslel jsem takovou konspirační teorii. Prý to podobně dělají politici, že politici něco plácnou do éteru a pak probíhá těžba dat z internetu a servery vyhodnocují jak to rezonuje v internetu a podle toho pak upraví svou rétoriku.
A já si myslím, že účet "Kopite7kimi", není žádný leaker, ale jedná se přímo o účet marketingového týmu nVidie, který vypouští takové testující obláčky, a pak skenují jak na to lidi reagují. Objevují se i různé jakoby scalpovací úniky cen. Však marketingové oddělení nemusí mít jen jeden účet a může několik lidí takhle spolupracovat a na různých místech internetu vypouštět různé ceny od $1200 do $2000 a sledují jak na různé částky lidi reagují, pokud ví parametry té karty.
Protože mě fakt přijde divné, že napřed se vypustí informace o procesorech aby se napřed karty daly výkonem někam zařadit, pak se objeví velikost VRAM a její rychlosti aby se dal vypočítat výkon, nakonec se objeví příkon. A z těchto informací vzniknou křivky nabídky a poptávky, které budou nejvíc u sebe v nějakém bodě ceny, kterak bude ve finále cena karty. Tudíž věřím tomu že nVidie ještě sama neví cenu, protože potichu skenuje naše názory aby nastavila cenu tak akorát do nejlepšího středu, kdy se karty budou prodávat a lidi na ni budou mít.
Chlazení je teď lepší, než za dob Vegy. Stejně tak litografie. Každopádně s tou spotřebou to taky moc není pravda, protože třeba 5070 zase tolik topit nebude. A 4070 Super při 220W má luxusních 35TFLOPS (jako 3090 při 350W).
Tolik omylů v jednom postu.
1) Vega používala blower, který žene teplý vzduch ven z case. Spolu se vzduchem šel ze skříně i rámus. Takže uživatelé nadávali. Ale technicky je to lepší řešení než točit teplý vzduch ve skříni.
2) Litografie je lepší. Takže při stejné spotřebě roste výkon. Nárůst spotřeby je známka, že má litografie problém.
3) Spotřeba 5070 je zatím jen spekulace.
4) 4070 se vyrábí u TSMC na 5nm
3090 používá 8nm od Samsungu.
220W vůbec není luxusních při tak velkém skoku litografie.
EDIT:
Jediné co se změnilo je konektor.
Protože menší = horší.
4. 1. 2025, 08:18 editováno autorem komentáře
What? Omyly píšeš ty :-D
- Blower je pro normální lidi nesmysl, musí se točit na 3500rpm, aby to trochu chladilo. Tehdy byly skříně koncipovány jinak, zdroj nahoře apod, takže problém se vzduchem byl, to už nyní není, když to má člověk jakž takž správně. A to jsem měl v case i 2x3090 v nvlinku, bez bloweru.
- 5070 už víme s velkou jistotou kolik bude mít, maximálně bude rozdíl 20W.
- jestli ti nepřijde ok na 31 TFLOPS 220W a velký AI výkon (tensor a RT jádra jsou mezigeneračně většinou +100%), tak by mě zajímalo na jaké planetě žiješ :-D Výkon GPU není jen procesor, ale asi jsi nějaký odborník na litografii třeba Onsemi, když takovou věc můžeš prohlásit :-D
Klid. Však si jen povídáme.
Takže kvůli nové GPU potřebuji nový zdroj. (Výkon a konektor)
Novou skříň. Velkou. (Blower šetří místo. )
Mám malý byt a nechci velkou skříň.
Ale máš pravdu že 3500 RPM nikdo nechce.
Papírovou spotřebu víme, ale provozní vlastnosti jsou spekulace.
Znalosti ohledně litografie čerpám zde na cnews.cz.
Například tady:
https://www.cnews.cz/clanky/tsmc-spusteni-vyroby-technologie-euv-7nm-proces-druha-generace/
Jedná generace sníží spotřebu o 10%
Mezi 8nm a 5nm jsou asi tak 3 generace.
Vyrobit 3090 na 5nm TSMC, tak bude mít spotřebu cca 240W. To znamená že nV zlepšila architekturu jen o ubohých 10%.
Takle to vypadá, když má firma monopol.
Žiju na planetě Zemi a nerad bych jí oteplil hraním her.
ano jenom
"2) Litografie je lepší. Takže při stejné spotřebě roste výkon. Nárůst spotřeby je známka, že má litografie problém." - Litografie nemá problém ten je designu chipu.
4. 1. 2025, 10:22 editováno autorem komentáře
Takže intel neměl problém s 10nm ale počátek úpadku intelu zapříčinil design chipu?
Chápu jak jsi to dědku myslel/nepochopil.
Napíšu to lépe:
Problém s litografii nebo s designem se dá řešit zvednutím spotřeby.
Já nechápu tvůj mozek.
máš čip na 10nm se spotřebou 100W a výkonem 1000FPS
uděláš čip menší na 5nm, dostaneš se na spotřebu 50W a výkon 1000FPS
jenže ty ten čip uděláš stejně velkej jako byl ten 10nm, tudíž na plochu toho 10nm se ti vejdou 4x5nm čipy, ale to samozřejmě úplně idealně nejde, takže tam dostaneš tak max 3čipy.
takže máš 3x5nm se spotřebou 150W a výkonem 3000FPS
(část čipu ale použiješ na RT efekty, takže máš dva čip na rasterizaci a jeden čip na RT)
3x5nm = 150W a výkonem 2000FPS+RT efekty.
pokud bych to převedl zpět na 10nm čip, tak při použití třech čipů této řady budeš mít:
3x10nm = 300W a výkon 2000FPS+RTefekty.
A ty tady furt něco meleš o tom, že nVidie nezvládá zmenšování čipů. Nechápu tě.
nVidia se veze na úspěšné vlně TSMC.
Design upravuje jen kosmeticky.
Nemusí ani hnout prstem, jen stávající grafiky nechá vyrobit na lepším procesu.
Přidání RT je taky jen díky tomu, že na chipu je více místa. Takže zásluhy nV jsou opět 0.
A když TSMC náhodou nedodrží Mooreho zákon, tak to dožene přes spotřebu.
Protože novou generaci a stejném výkonu jako předešlá by nikdo nekoupil.
EDIT
Uvidíme kam se dostane RDNA 4.
Čekám slušný pokrok i kdyby byla vyrobená na stejném procesu jako RDNA 3.
4. 1. 2025, 23:53 editováno autorem komentáře
Myslím, že neznáš tu technologií a myslím, že i tady o tom byl článek (nebo na diit). Popisují tam jakým způsobem tensor a rt funguje. Jinak vůbec to nefunguje tak, že když je k dispozici lepší proces, jenom to zmenšíme a bude víc místa... To by pak dopadlo jako... třeba ty EV, které byly jen předělané spalováky. A ve srovnání s čistými EV jsou příšerné. A kdyby to tak NV dělala, nemají mezigeneračně na těch jádrech +100%. Jinak nevím proč by se měla vézt na vlně úspěchu TSMC. To jim přeci jen vyrábí. Ale nVidia jim musí dát to zadání :-D Podle schématu už je to "jednoduché" vyrobit, ale vědět co vyrobit, návrh, testování atd., to je ten problém, to je to know how a proto je NV tam, kde je :-D Stejně jako AMD s CPU.
Jak funguje RT opravdu nevím.
Nezajímá mě to.
Jistě že zmenšení není úplně triviální.
Musí se vyrobit nové masky. Někdy.
"...mezigeneračně na těch jádrech +100%..."
Jak jste k tomu číslu došel?
Vždyť to je díky lepšímu procesu.
3090 vs 4090
82.58 TFLOPS vs 35.58 TFLOPS
Takty
2230 MHz vs 1395 MHz
Spotřeba
450W vs 350W
CUDA cores
16,384 vs 10,496
"...takže máš 3x5nm se spotřebou 150W a výkonem 3000FPS..."
Nemáš.
Spotřeba bude méně než 150W.
Měla by být opět 100W, kdyby se dařilo držet Mooreho zákon. Ve skutečnosti bude někde mezi 100 a 150W.
Menší tranzistor má menší spotřebu než větší tranzistor.
Jestli toto nechápeš, tak se ani nesnaž pochopit můj mozek. Je to marná snaha.
už jsem to pochopil, ty neumíš počítat, o tom to celé je.
když ty procesory zmenšíš, ale necháš stejnou plochu tak na tu stejnou plochu naskládáš víc tranzistorů, sám to říkáš. Takže když ti klesne příkon, ale naskládáš tam ten příkon třikrát, tak máš třikrát větší ten zmenšený příkon.
5. 1. 2025, 17:41 editováno autorem komentáře
Mooreho zákon drhne.
Takže výrobci se to snaží kompenzovat spotřebou (intel a nVidia) a nebo makají na architektuře jako AMD. (ZEN se jim daří. RDNA je slabší ale snad se 4ka povede)
Drhne to protože FinFET je u konce s dechem. Ale GAA je za dveřmi.
GAA pro příštích 10 let zajistí zastavení růstu spotřeby.
Moje Vega blower nemá. Sapphire Nitro 64: https://www.sapphiretech.com/en/consumer/nitro-rx-vega64-8g-hbm2 . Větší kravál dělají civky, než chlazení. Ale těžký je to jako sfině, je k tomu pribalenej držák, aby to nezničilo slot.
Áno, chladenie je dnes lepšie ako u Vegy, o tom nie je pochýb. Lenže problém je v niečom inom (a bolo to spomínané aj v článku). To že dnešné chladiče dokážu pomerne bez problémov pol megawattu neznamená, že to teplo pri tom niekam zmizne. Takže mne viac ako to, že človek dnes bežne potrebuje 1000W+ zdroj, vadí to, že všetko to teplo z grafiky ide potom do izby. A to pritom práve Nvidia bývala etalónom efektivity a AMD ukazovala, aký výkon dokáže vyždímať z 250W.
Souhlas.
Teplo jde do místnosti. Ale nejprve se chvíli bude točit v case. Podle toho jak je dobře odvětraná.
A z 1000W zdroje bude dalších 100 až 200W tepla. Protože má 80% účinnost.
To už je za mňa fakt podružné, že sa to teplo bude točiť chvíľku v skrini. Skôr či neskôr bude z tej skrine vyfúknuté do izby, kde sa k nemu ešte pridá teplo z procáku. Pričom ak tam človek má nejakú Intel i9, tak to teplo z neho rozhodne nebude zanedbateľné. Takže toto je to, čo na na tejto honbe za výkonom štve. Zdroj si človek kúpi (aj keď teda za pekný balík) raz, ale to teplo do izby pôjde furt, keď sa človek začne hrať. Plus to samozrejme zo sebou ťahá aj zvyšné modely a dnešné mid range grafiky žerú viac, ako high end nie tak dávno v minulosti...
Lepší bude neblábolit. 1000 W zdroje s tak mizernou učinnosti ucinnosti 80 % neexistují. A pokud ano, tak je nikdo nekupuje, protože není blb.
Pro ty kteří neumí počítat to upřesním. V ideálním případě (80 PLUS Titanum) to je 90% a tedy 100W.
Všechny ostatní zdroje budou v rozsahu 100 až 200W.
https://a.storyblok.com/f/281110/1180x1180/ec4b7c4378/80plus-body-2.png/m//1200x0/smart
Lepší bude neblabolit a říkat fakta.
Na 600W GPU + 400W intel bych dal 2k zdroj.
Pojede v 50% zatížení. Takže ideální účinnost.
Samozřejmě málokdo jede GPU a CPU současně na 100%. Takže 1,5kW by mělo stačit.
5. 1. 2025, 23:07 editováno autorem komentáře
Ale ta křivka není linární. Účinnost je v závislosti na zátěži.
Jinak myslel jsi GAA nebo GaN nebo SiC? Ty taky zlepší účinnost karet/sestavy. Nevím, jestli to teď už třeba ve VRM používají, spíš ne. Doporučuju:
https://www.youtube.com/watch?v=MY1I8MdcIzM&t=1696s&ab_channel=Science%26TechnologyClub
6. 1. 2025, 09:34 editováno autorem komentáře
@redakce "Radeon RX 7900 XTX, což byl nejrychlejší model AMD v předchozí generaci"
Je to karta AKTUÁLNÍ generace.
Když " Spotřeba a zahřívání ale budou nejhorší v historii" pak to znamená jediné a to, že Nvidia zase odsunula radikální změnu designu a nakročila k tomu aby skončila jako Intel. To je hodně špatná zpráva.
Také se nemohu zbavit dojmu, že se nv snaží za co nejmenších nákladů (musí se dotknout vývoje) snaží vydělat co nejvíce peněz.
Kdyby zůstali na stejné spotřebě co je nynější generace, tak by se ten výkon změnil jen kosmeticky. Tedy budeme-li věřit konspiracím ohledně toho co nás čeká.
Ano ten dojem je správný. Šetřit by u Intelu na vývoji mohli ale to by musela být konkurence za nimi a ne před nimi tak jako je nyní AMD.
Musíme počkat, než opadne humbuk kolem AI. V tom se dnes točí takové prachy, že gamesy nikoho nezajímají.