Tensor cores jsou podobná věc jako ty specializované ASIC. I Huang to řekl v konferenčním hovoru, bylo to něco jako 'Volta je jako TPU, ale umí toho mnohem víc'. Ta univerzalita je samozřejmě dobře, protože s to GPU dá použít pro mnoho dalších úloh (důležité třeba když ho nabízíte v cloudu).
Jenže v momentě, kdy jde někomu čistě o tu AI zátěž a má takovýhle univerzální čip na jedné straně a "ASIC jen pro AI" na druhé, tak ten AI čip vyhraje na energetické efektivitě a ceně právě proto, že bude mít jenom ty "tensor cores", kdežto Volta nebo jiné GPU má tensor cores, ale ještě k tomu táhne 600-700mm2 balastu z highendového GPU. Čili nějaký konkurenční ASIC může být při stejném AI výkonu mnohem menší, protože na svůj účel dává většinu plochy. A když je mnohem menší, tak se od něj dá udělat větší verze, která bude výkonnější...