Nehádzál by som "flintu do žita" s touto výpočtovou Vegou....čas a potenciálny zákazníci ukážu, či Deep Learnig pôjde cestou INT8/INT4 alebo je to schodné iba iba cez tradičné FP32/Fp16 (angličtina nieje môj silný obor, ale nejaký článok o tom je tu https://nervanasystems.github.io/distiller/quantization/ ). A navyše to pre istú časť trhu má zaujímavý výkon v FP64... má vyšší výkon ako má Tesla V100 PCI-e... a to nehľadiac na plochu čipu (aj keď vďaka 7nm).