Toto bude pravdepodobne len dočasná záležitosť s touto novou kriptomenou (ak dobre vidím, vzniklo to len minulý rok).
Nechce sa mi veriť, že by GPU s tisíckami jadier a množstvom registrov a pamäte nedokázalo vypočítať to isté a 10x efektívnejšie. Len to je ťažšie naprogramovať keďže rôzne klastre jadier na grafike zdieľajú rôzne registre/pamäte a treba to synchronizovať.
13. 3. 2024, 23:06 editováno autorem komentáře
Kde to bude efektivnější přece záleží na tom, co se vlastně počítá. Pokud je algoritmus napsaný na tělo AVX-512 instrukcím, tak na GPU to zřejmě moc dobře nepojede a naopak AMD bude v této pochybné disciplíně vítězit.
S ohledem na to, že GPU bývají optimalizovaná na zpracování 8-, 16-, 32- a max. 64-bitových instrukcí (a s rostoucí bitovostí se proces znatelně zpomaluje), je zpracování 512-bitových (na které se naopak už z názvu orientuje AVX-512) poměrně obtížné - znamená to reálně ekvivalent 8 cyklů v 64-bit přesnosti, stejně jako je prakticky nemožná paralelizace (např. protože nebudeš schopen efektivně ošetřit přetečení výsledku operace do "vedlejšího" procesoru/registru
Ony se tam ale nepočítají čísla o přesnosti 512 bitů. Co vím tak maximum, co teoreticky existuje jsou: IEEE 754 quadruple a
IEEE 754 octuple tedy 128 a 256 bit, ale ani není povinnost, aby to procesory fyzicky uměly.
Těch 512 bitů jsou vektory a ty můžou být složeny s patřičného počtu čísel od 8 (teoreticky i 4) bitů do 64. Takže s tím by grafika problém mít neměla. Ale shadery jsou silné jen v početních operacích a třeba logické a hlavně rozhodovací už moc nezvládají, takže jde o algoritmus, který na nich běží a tady může mít AVX své výhody.
Taky proto AMD udělalo i variantu MI300A kde jeden blok shaderů nahradily 3 procesorové s 24 jádry ZEN 4.
JJ, Nedíval jsem se tedy, ale o té vysoké přesnosti to nebude, protože jestli jsou to zase nějaké kryptografické algoritmy, asi se bude počítat s normálními integerovými datovými typy?
Pokud chtějí zamezit tomu, aby se to dalo těžit na GPU, tak stačí, aby tam bylo hodně větvení, je hodně algoritmů, které se na GPU převádějí těžko. (Za předpokladu, že necílit na GPGPU implementaci je jejich cílem.
Taky úplně nevím, jak by GPU zvládala, kdyby se tam hodně používaly shuffle operace.