Neni pravda, ze AI je jen o specifickych maticovych operacich (FMA). Typicky musite nejdriv zpracovat vstupy - u pocitacoveho videni zpracovat obraz - a nasledne zpracovat vystup z neuralni site pouzit v praxi - v automotive nasadit do modelu jizdy, spocitat reakci auta na povel AI, spocitat rychlosti a smer objektu, identifikovanych v obraze, atd., takze cisty ASIC opravdu zadnou zvlastni vyhodu nema. Porad je potreba mit dostate mnozstvi univerzalnich jednotek. Navic Tensor Cores ve Volte jsou ASIC. Jsou navrzeny jen pro jednu konkretni operaci. Jen jsou doplneny dalsimi (univerzalnimi) prvky v cipu.
Abychom předešli dalšímu zbytečnému zklamání navrhuji uvádět střízlivější parametry:
*Navi bude pravděpodobně jen lehce vylepšená Vega na jiném výrobním procesu
*chip bude podporovat DX13
*takty budou 1790MHz ( turbo 2000MHz )
*kvůli problémům s HBM3 bude uvedení o 3/4 roku opožděné, takže Srpen 2019
*drivery od počátku pouze v alfa stavu, spousta feature bude nefunčních včetně obvodů pro snížení spotřeby a tiled rasterizéru
*TDP čipu bude 470W, se zapnutým chill omezovačem a power profilem spotřeba klesne 310W
*chlazení bude formou dvou vodních okruhů, takže cena Liquid Cooling verze bude vysoká.
*nároky na zdroj budou 1500W pro vzduchem chlazenou verzi
*výkon v 3D marku bude na úrovni GTX2080, ve hrách bude výkon slabší.
Bude i duální verze od ASUSU, ke které bude přibalovaná malá vodní elektrárna a dvě "holo CUBE" místo noční lampičky
:-D
Tensor cores jsou podobná věc jako ty specializované ASIC. I Huang to řekl v konferenčním hovoru, bylo to něco jako 'Volta je jako TPU, ale umí toho mnohem víc'. Ta univerzalita je samozřejmě dobře, protože s to GPU dá použít pro mnoho dalších úloh (důležité třeba když ho nabízíte v cloudu).
Jenže v momentě, kdy jde někomu čistě o tu AI zátěž a má takovýhle univerzální čip na jedné straně a "ASIC jen pro AI" na druhé, tak ten AI čip vyhraje na energetické efektivitě a ceně právě proto, že bude mít jenom ty "tensor cores", kdežto Volta nebo jiné GPU má tensor cores, ale ještě k tomu táhne 600-700mm2 balastu z highendového GPU. Čili nějaký konkurenční ASIC může být při stejném AI výkonu mnohem menší, protože na svůj účel dává většinu plochy. A když je mnohem menší, tak se od něj dá udělat větší verze, která bude výkonnější...
S tym spracovanim obrazu to nie je uplne pravda. Su AI, ktore napr. Triedia trxty na webe do kategorii ako samovrazda,stastie a pod. No a na toto je vstup text. Akurat sa AI uci na zaklade vzorky a spetneho porovnavania, ci sa mylila, alebo nie. Teda vstup moze byt v podstate z api, respektive inak predspracovane data