To je jednoduche - deep learning se na ASICy nepresune. FMA je sice spolecna operace pro vetsinu deep learning uloh, ale porad jsou tam i dalsi operace (napr. na spravocani obrazu). Predpokladam, ze Cloud TPU of Googlu tohle bude muset predpocitavat na CPU. Kombinace primo v ramci vypocetniho GPU mi prijde vyhodnejsi.