No nevím mvladar (a nejen on) tady pořád šířil poplašné zprávy o AMD:
- jak ZEN2 nejede (ukázalo se že se to nazakládá na pravdě)
- procesory ZEN2 jsou špatné hned zdegradují (je to šunt) - no nevím je to možné, ale evidentně opakovaně řeší tento problém Intel viz https://bit.ly/2kC47GT
No aspoň že tu zůstaly ty zprávy o problémech s turbem (to že ty problémy měl svého času i Intel radši opomeneme...). No a už tu jsou i první testovací vzorky nového BIOSu, který má problém řešit. Takže možná zmizí i poslední "problém" který je tu byl v #hateAMDtrain zmiňován.
Nicméně moje skepse k turbu 4,7GHz u Ryzen3950X stále přetrvává.
jen do toho, rybníček dvou a nějaký čas vlastně jen 1,5 výrobce chce rozhýbat. Ještě kdyby VIA s čínským kapitálem to nějak rozběhla, konkurence je zdravá pro všechny spotřebitele. Kam vedla hegemonie Intelu je krásně vidět na létech po Core2Duo, FX byla sice zajímavá věc, ale nedotažená takže jen hráli druhý part a ještě poloviční. Labutí písní té doby byly čipy Sandy/Ivy, pak už jen natahovaná nuda až do ryZen.
A není to v případě užití GPU jako koprocesoru jedno? Podle mě ano, protože to pak předpokládá použít nějaký middleware, prostě si celou GPU člověk musí zabalit do nějakého API a to se pak bude chovat jako černá skřňka - to je ale v tomto ohledu krok zpět.
Vždy jsem žil v tom, že pro klasické užití koprocesoru (a to platí od dalekého pravěku Atárek, C64, Amig, etc., etc.) až k moderním jednotkám v x64 CPU je naprosto nutné znát správný výstup na adekvátní vstup. A pozor, ty registry jsou "interní" jen z pohledu grafiky jakožto zobrazovadla. Ochudit se o přístup k nim z hlediska lowlevel programování, je IMHO chyba.
Jistě, pro roli grafického akcelerátoru, který vyžaduje driver, to klíčové není. Ale zdá se mi, že takto Intel bojuje již dávno vybojovanou bitvu.
JJ, já myslím, že tohle koherentní propojení celého GPU a CPU na úrovni pamětí (a cache) neohrozí, jen to holt bude ovlivňovat programovací model - když člověk nepoužije přímo k tomu určený kompilátor, tak bude (v asembleru) muset zachovat nějaké zásady navíc. A když kód běžící na tom GPU bude správně zkompilovaný, tak si tohle pohlídá a koherentní logika nebude mít na úrovni pamětí problém.
Intel přišel s vlastním standardem koherentního propojení přes PCIe (CXL) a určitě ho bude chtít s těmito GPU používat.
Tady je to asi o tom, že se ukazuje, že "udělat to pořádně už v hardwaru, ať se zjednoduší software" není na rozdíl od x86 CPU výhodný přístup, protože vám to nakonec omezí celkový dostupný výkon. Naproti tomu když se na kód (kompilátor) uvalí určitá omezení, která musí zachovávat a hardware se zjednoduší, aby už některé věci nemusel nadále řešit, tak to dovolí z něj vyrazit víc výkonu.
Ta základní jednotka shaderu/ALU v GPU prostě musí být hodně jednoduchá a efektivní (takže žádná out-of-order execution například). Když ji bude člověk chtít udělat "víc pořádně" aby byla robustní jako CPU, tak spotřebuje moc energie, moc tranzistorů, omezí si takt, a celek nebude mít dost výkonu.
U 4,6GHz tak nějak vidím strop. Možná, že pozdější čipy, jak budou mit výrobní proces odladěnější, budou zvládat 4,6 i 4,7 v klidu. Ostatně budou odladějější i BIOSy. Kde stále ze svých zkušeností vidím rezervy.
Jinak 3700X je dobrý procesor ostatně ho mám a nebál bych se ho... Tak za 2 roky vyměním 1700 za 3950. To už tu budou nové Ryzeny a cenově bude dostupnější. Naštěstí i moje X370 tuto výměnu umožňuje.
abych rekl pravdu, tak ja cekal, ze cpu a gpu v teto dobe uz budou davno propojeny nejakou interni logikou na bazi treba infinity fabric aby z hlediska vyvoje cpu a samostatna grafika se tvarili jako APU a pametovy prostor byl sdileny ... zatim mam pocit to splnuje snad jen profi Vega ktera ma infinity fabric pres PCIE a az bude PCIE5 uz budou rychlosti docela dobry a nebude to prilisny bottleneck kdyz se pamet bude "sdilet" coz by mohlo hodne pomoct fyzice, AI .. v lescem by mohlo pomoct i cpu treba u nejakych filtru ci efektu .. ale nejak se tak nedeje a stale se ty dve zarizeni tvari jako samostatne .. fakt by me zajimala nejaka analyza u konzoli jak jinak se tam programuje a jaka je efektivnost kdyz je to propojeny a maji sdileny pametovy prostor a jak to zlepsuje efektivitu ... ale tam je to jednoduchy pac u APU se nemusi delat slozity sync a data nejak presunovat mezi dvema pametma
Jak už jsem psal výše - to ale znamená, že bez "intelova rukovodítělja" je použitelnost na cokoli mimo grafiku vysoce sporná. Chápu pohnutky, chápu výkonové výhody, ale tak nějak si stále myslím, že to bude do budoucna přítěž, zejména pokud konkurence (v tomto případě AMD) to má vyřešeno a v podstatě směřuje k (téměř) baremetal implementaci a inkluzi GPU do instrukčního setu CPU (myslím, že u nových Epiců/TR řady 3000 už bude jeden chiplet GPU v podobě koprocesoru). Tím spíše, že gen12 bere Intel jako svého druhu restart.
no takhle: (h)UMA existuje poměrně dlouho, ale má kromě pozitiv i negativa. Krásně se to dá ilustrovat na mé oblíbené Amize, kde tzv ChipRAM, která je krásným příkladem pro UMA, byla díky tomuto konceptu "zpomalena" z hlediska CPU na 1/2 nominální rychlosti, protože CPU se dostal "k lizu" jen každý 2. takt (další takty byly rezervovány pro jednotlivé obvody chipsetu přes DMA controller Agnus). Pokud počítač neměl reálnou FastRAM (což do řady A1200 nebylo moc časté), tak jeho procesorový výkon mohl v řadě případů degradovat. Na druhou stranu toto řešení umožňovalo použít čipset jako koprocesor, čehož se nadmíru využívalo ve hrách (různé efekty s blitterem, apod.).
Dnes samozřejmě máme kopec několikatierových cache a situace se může zdát diametrálně odlišná. Nicméně právě zajištění koherence alespoň na úrovni paměti se stává úhelným kamenem a poměrně efektivně bourá výhody cache. Zjednodušeně řečeno, v takovém prostředí si na cache a "vlastní píseček" moc hrát nemůžeš, naopak je spíše snaha mít jedno velké a synchronizované pískoviště.
Já bych se nedivil, kdyby tuhle věc dělalo AMD i Nvidia stejně (ale nezjišťoval jsem to).
Obecné výpočty na GPU jdou typicky přes kompilátor, takže není problém. Když se nějaký kód napíše ručně, tak je to typicky specializované a ten programátor o tomhle bude vědět a přizpůsobí se.
To je propojení na vyšší úrovni, a koherence by se měla týkat pamětí a cache. Že přímo výpočetní jednotky a jejich registry potřebují speciální programovací model, aby si potichu nezkorumpovaly data, je proti tomu ortogonální věc (a v tom citátu se o tom nikde nemluví) a jde to určitě skloubit.