Celkem by mě zajímalo. Byly by takové paměťi využitelné i u low end GPU? Místo 128bit 18Gbit třeba 256bit 10,5Gbit. Kolik by to stálo křemíku? Co jsem se tak mrkl, 32bit LPDDRX blok by měl být menší, než GDDR, ale možná jen blbě počítám.
Jde mi o teorii, ne jestli to je dobrý nápad. :D
Určitě by to někdo zvládl vysvětlit lépe, ale je docela rozdílné použití těch pamětí. DDR jsou optimalizované na nízké přístupové doby, GDDR na přenosové rychlosti. DDR se tak hodí na náhodný přístup k menším blokům a GDDR spíše na přenosy větších bloků dat.
Hlavně by to ale dost zdražilo to GPU, sběrnice dnes zabírají většinu obvodu čipu a tím vlastně definují jeho velikost. Na čip velikost 4060, se nevejde ani 192b sběrnice jako u předchůdce, pokud by takovou šířku sběrnice zvolili, tak by se tam vešlo mnohem více výpočetních jednotek, ale nárůst plochy by zvýšil cenu . Proto dnes máme tak úzké sběrnice v kombinaci s rychlejšími paměťmi, ty se ale vyrábí na straších procesech, aktuálně většinou 12nm...
Nevysvětlil jste nic. Mi jako chcete říct, že DDR nezvládne velké bloky jako GDDR? Co je to za blbost?
Očekával jsem nějaké blázny, co by to dokázaly spočítat, protože jak říkám, když jsem si lehce změřil 32bit bloky GDDR6 co mají Radeony s LPDDRX bloky v Ryzenech, vycházelo mi to, že ty LPDDR byly o něco menší.. Každopádně, i kdybychom započítali 2x více bléků paměťových sběrnic, opravdu by výsledná karta byla o tolik dražší? LPDDRX jsou většinou levnější, než GDDR čipy a navíc mají větší kapacitu.
Navíc na DDR jsme jeli před GDDR a jela na nich i Xbox One. Určitě by to nějak šlo. Ale záleží, jestli by výhody převážily nevýhody potřeby větší sběrnice.
Ne že nezvládne, ale každá je optimalizovaná na trochu jiné použití a bude dávat trochu horší výsledky. Proto tenkrát došlo k rozdělení a každá se optimalizuje dále jiným směrem.
Co se mi podařilo najít,
tak pro (LP)DDR4/5 to vychází:
12-13mm2 128b PNY + 3mm2 řadič = pro 256b nějakých 30mm2
GDDR6:
32b PNY 5mm2+1,5mm2 řadič = celkem 26mm2
výsledek je stále o maličko lepší pro GDDR.
A pak jak to dát celé dohromady, dnes už jsou nízké kapacity takřka nedostupné, nebo cenově velmi nevýhodné. Uvedené ceny jsou spíše na porovnání jaký podíl v ceně karty ta paměť bude mít (jsou pro nízké objemy od distributora, výrobce
přímo od výrobce je bude kupovat třeba za třetinu) cena PCB bude také vyšší pro širší sběrnici...
GDDR6 mi stačí 4x32b modul: 4x1GB čip po 11$, ale spíš 2GB 18000MT kolem 20$ a mám 8GB které pro ten lowend "stačí" a jsem na 80$
LPDDR5 už musím použít 8čipů(32b): nejlevnější je 4GB 6400MT kousek za 18$, takže 32GB lowend s pamětí za 144$.
DDR5 tady už budu muset použít minimálně 16-32čipů(16/8bit), opět nic menšího než 2GB kolem 10$ asi neseženu, takže min 32GB za 160
Takže vcelku ty nevýhody asi převáží...
Ono z určitého pohledu je to taková levnější náhrada HBMx, Nvidia je tím stylem používá na svých serverových CPU (a Apple u těch výkonnějších procesorů). Je to asi kompromis, kdy je výkon nižší než s GDDRx (aspoň teda grafický, v CPU úlohách může GDDRx asi být nic moc), ale spotřeba nižší.
Pravděpodobně to bude tak, že při snaze dostat stejně vysokou propustnost to bude dražší (2x širší sběrnice) na výrobní náklady, ale v notebooku by to nejspíš fungovalo líp, takže třeba GPU s 512bitovou pamětí LPDDR5X ideálně na pouzdru kvůli další úspoře energie (pokud by to teda neznemožnily chladící požadavky) by mohlo být realizovatelné. Ale špatně by se pak uplatňovalo v desktopu.
První samostatná grafika od Intelu (to 10nm Iris Xe Max, ještě před Arcem) používala LPDDR4, ale pravděpodobně to bylo z toho důvodu, že přebírali elementy designu z procesorů (Ice Lake / Tiger Lake).
18. 4. 2024, 12:57 editováno autorem komentáře