Volta je taky krok směrem k ASICu (ty tensor cores). já bych se vůběc nedivil, kdyby jeden z těch ASICů, co GPU v machine learningu eventuálně zahrabou, udělali právě oni, teda Nvidia. Trošku jsem se na téma bavil s nějakejma programátorama a taky si mysleli, že v tom oboru převládnou ASICy. Z mý strany je to ale jenom nezávaznej odhad, tak podle toho neinvestujte na burze :)
Edit: teda takhle - ty ASICy nejspíš GPU převálcujou v těch aplikacích (inference), kvůli poměru spotřeby a výkonu. Na učení by se mělo používat celkově menší množství hardwaru než potom na inferenci, a tak je tam asi talk na efektivitu menší. Takže tam by se asi GPU nebo třeba i procesory asi mohly dál používat, pokud budou proti ASICům (a FPGA) nabízet nějaké výhody.