Tolik omylů v jednom postu.
1) Vega používala blower, který žene teplý vzduch ven z case. Spolu se vzduchem šel ze skříně i rámus. Takže uživatelé nadávali. Ale technicky je to lepší řešení než točit teplý vzduch ve skříni.
2) Litografie je lepší. Takže při stejné spotřebě roste výkon. Nárůst spotřeby je známka, že má litografie problém.
3) Spotřeba 5070 je zatím jen spekulace.
4) 4070 se vyrábí u TSMC na 5nm
3090 používá 8nm od Samsungu.
220W vůbec není luxusních při tak velkém skoku litografie.
EDIT:
Jediné co se změnilo je konektor.
Protože menší = horší.
4. 1. 2025, 08:18 editováno autorem komentáře
What? Omyly píšeš ty :-D
- Blower je pro normální lidi nesmysl, musí se točit na 3500rpm, aby to trochu chladilo. Tehdy byly skříně koncipovány jinak, zdroj nahoře apod, takže problém se vzduchem byl, to už nyní není, když to má člověk jakž takž správně. A to jsem měl v case i 2x3090 v nvlinku, bez bloweru.
- 5070 už víme s velkou jistotou kolik bude mít, maximálně bude rozdíl 20W.
- jestli ti nepřijde ok na 31 TFLOPS 220W a velký AI výkon (tensor a RT jádra jsou mezigeneračně většinou +100%), tak by mě zajímalo na jaké planetě žiješ :-D Výkon GPU není jen procesor, ale asi jsi nějaký odborník na litografii třeba Onsemi, když takovou věc můžeš prohlásit :-D
Klid. Však si jen povídáme.
Takže kvůli nové GPU potřebuji nový zdroj. (Výkon a konektor)
Novou skříň. Velkou. (Blower šetří místo. )
Mám malý byt a nechci velkou skříň.
Ale máš pravdu že 3500 RPM nikdo nechce.
Papírovou spotřebu víme, ale provozní vlastnosti jsou spekulace.
Znalosti ohledně litografie čerpám zde na cnews.cz.
Například tady:
https://www.cnews.cz/clanky/tsmc-spusteni-vyroby-technologie-euv-7nm-proces-druha-generace/
Jedná generace sníží spotřebu o 10%
Mezi 8nm a 5nm jsou asi tak 3 generace.
Vyrobit 3090 na 5nm TSMC, tak bude mít spotřebu cca 240W. To znamená že nV zlepšila architekturu jen o ubohých 10%.
Takle to vypadá, když má firma monopol.
Žiju na planetě Zemi a nerad bych jí oteplil hraním her.
Já nechápu tvůj mozek.
máš čip na 10nm se spotřebou 100W a výkonem 1000FPS
uděláš čip menší na 5nm, dostaneš se na spotřebu 50W a výkon 1000FPS
jenže ty ten čip uděláš stejně velkej jako byl ten 10nm, tudíž na plochu toho 10nm se ti vejdou 4x5nm čipy, ale to samozřejmě úplně idealně nejde, takže tam dostaneš tak max 3čipy.
takže máš 3x5nm se spotřebou 150W a výkonem 3000FPS
(část čipu ale použiješ na RT efekty, takže máš dva čip na rasterizaci a jeden čip na RT)
3x5nm = 150W a výkonem 2000FPS+RT efekty.
pokud bych to převedl zpět na 10nm čip, tak při použití třech čipů této řady budeš mít:
3x10nm = 300W a výkon 2000FPS+RTefekty.
A ty tady furt něco meleš o tom, že nVidie nezvládá zmenšování čipů. Nechápu tě.
nVidia se veze na úspěšné vlně TSMC.
Design upravuje jen kosmeticky.
Nemusí ani hnout prstem, jen stávající grafiky nechá vyrobit na lepším procesu.
Přidání RT je taky jen díky tomu, že na chipu je více místa. Takže zásluhy nV jsou opět 0.
A když TSMC náhodou nedodrží Mooreho zákon, tak to dožene přes spotřebu.
Protože novou generaci a stejném výkonu jako předešlá by nikdo nekoupil.
EDIT
Uvidíme kam se dostane RDNA 4.
Čekám slušný pokrok i kdyby byla vyrobená na stejném procesu jako RDNA 3.
4. 1. 2025, 23:53 editováno autorem komentáře
Myslím, že neznáš tu technologií a myslím, že i tady o tom byl článek (nebo na diit). Popisují tam jakým způsobem tensor a rt funguje. Jinak vůbec to nefunguje tak, že když je k dispozici lepší proces, jenom to zmenšíme a bude víc místa... To by pak dopadlo jako... třeba ty EV, které byly jen předělané spalováky. A ve srovnání s čistými EV jsou příšerné. A kdyby to tak NV dělala, nemají mezigeneračně na těch jádrech +100%. Jinak nevím proč by se měla vézt na vlně úspěchu TSMC. To jim přeci jen vyrábí. Ale nVidia jim musí dát to zadání :-D Podle schématu už je to "jednoduché" vyrobit, ale vědět co vyrobit, návrh, testování atd., to je ten problém, to je to know how a proto je NV tam, kde je :-D Stejně jako AMD s CPU.
Jak funguje RT opravdu nevím.
Nezajímá mě to.
Jistě že zmenšení není úplně triviální.
Musí se vyrobit nové masky. Někdy.
"...mezigeneračně na těch jádrech +100%..."
Jak jste k tomu číslu došel?
Vždyť to je díky lepšímu procesu.
3090 vs 4090
82.58 TFLOPS vs 35.58 TFLOPS
Takty
2230 MHz vs 1395 MHz
Spotřeba
450W vs 350W
CUDA cores
16,384 vs 10,496
"...takže máš 3x5nm se spotřebou 150W a výkonem 3000FPS..."
Nemáš.
Spotřeba bude méně než 150W.
Měla by být opět 100W, kdyby se dařilo držet Mooreho zákon. Ve skutečnosti bude někde mezi 100 a 150W.
Menší tranzistor má menší spotřebu než větší tranzistor.
Jestli toto nechápeš, tak se ani nesnaž pochopit můj mozek. Je to marná snaha.
už jsem to pochopil, ty neumíš počítat, o tom to celé je.
když ty procesory zmenšíš, ale necháš stejnou plochu tak na tu stejnou plochu naskládáš víc tranzistorů, sám to říkáš. Takže když ti klesne příkon, ale naskládáš tam ten příkon třikrát, tak máš třikrát větší ten zmenšený příkon.
5. 1. 2025, 17:41 editováno autorem komentáře
Mooreho zákon drhne.
Takže výrobci se to snaží kompenzovat spotřebou (intel a nVidia) a nebo makají na architektuře jako AMD. (ZEN se jim daří. RDNA je slabší ale snad se 4ka povede)
Drhne to protože FinFET je u konce s dechem. Ale GAA je za dveřmi.
GAA pro příštích 10 let zajistí zastavení růstu spotřeby.
Moje Vega blower nemá. Sapphire Nitro 64: https://www.sapphiretech.com/en/consumer/nitro-rx-vega64-8g-hbm2 . Větší kravál dělají civky, než chlazení. Ale těžký je to jako sfině, je k tomu pribalenej držák, aby to nezničilo slot.
Áno, chladenie je dnes lepšie ako u Vegy, o tom nie je pochýb. Lenže problém je v niečom inom (a bolo to spomínané aj v článku). To že dnešné chladiče dokážu pomerne bez problémov pol megawattu neznamená, že to teplo pri tom niekam zmizne. Takže mne viac ako to, že človek dnes bežne potrebuje 1000W+ zdroj, vadí to, že všetko to teplo z grafiky ide potom do izby. A to pritom práve Nvidia bývala etalónom efektivity a AMD ukazovala, aký výkon dokáže vyždímať z 250W.
To už je za mňa fakt podružné, že sa to teplo bude točiť chvíľku v skrini. Skôr či neskôr bude z tej skrine vyfúknuté do izby, kde sa k nemu ešte pridá teplo z procáku. Pričom ak tam človek má nejakú Intel i9, tak to teplo z neho rozhodne nebude zanedbateľné. Takže toto je to, čo na na tejto honbe za výkonom štve. Zdroj si človek kúpi (aj keď teda za pekný balík) raz, ale to teplo do izby pôjde furt, keď sa človek začne hrať. Plus to samozrejme zo sebou ťahá aj zvyšné modely a dnešné mid range grafiky žerú viac, ako high end nie tak dávno v minulosti...
Pro ty kteří neumí počítat to upřesním. V ideálním případě (80 PLUS Titanum) to je 90% a tedy 100W.
Všechny ostatní zdroje budou v rozsahu 100 až 200W.
https://a.storyblok.com/f/281110/1180x1180/ec4b7c4378/80plus-body-2.png/m//1200x0/smart
Lepší bude neblabolit a říkat fakta.
Na 600W GPU + 400W intel bych dal 2k zdroj.
Pojede v 50% zatížení. Takže ideální účinnost.
Samozřejmě málokdo jede GPU a CPU současně na 100%. Takže 1,5kW by mělo stačit.
5. 1. 2025, 23:07 editováno autorem komentáře
Ale ta křivka není linární. Účinnost je v závislosti na zátěži.
Jinak myslel jsi GAA nebo GaN nebo SiC? Ty taky zlepší účinnost karet/sestavy. Nevím, jestli to teď už třeba ve VRM používají, spíš ne. Doporučuju:
https://www.youtube.com/watch?v=MY1I8MdcIzM&t=1696s&ab_channel=Science%26TechnologyClub
6. 1. 2025, 09:34 editováno autorem komentáře
80% účinnost? Měl jsem jen Gold zdroje, třeba RMi od Corsairu, 850W byl plánovaný pro SLI 980, nakonec jel s jednou 200W grafikou, takže při hraní byl na cca 30-40% nominálu (přetaktovaný intel), účinnost 92% (hodota ze zabudovaného monitoringu ve zdroji - ičková řada, xková neměla), i white zdroj bude účinností na té zátěži někde přes 85% a platinový bude na 96% účinnosti . Jinak ten corsair byl na 84% účinnosti když to sedělo v idle pod 10% nominálního výkonu