Odpověď na názor

Odpovídáte na názor k článku Nvidia studuje vícečipová GPU. Budoucí highendové čipy by mohly být slepence. Názory mohou přidávat pouze registrovaní uživatelé.

  • Tento text je již více než dva měsíce starý. Chcete-li na něj reagovat v diskusi, pravděpodobně vám již nikdo neodpoví.
  • 8. 7. 2017 9:29

    Lukáš Fiala (neregistrovaný)

    Téměř přesně před devíti lety jsem na ExtraHardware napsal takový prognostický článek, kde jsem předpovídal světlou budoucnost multi-GPU řešením, v podstatě z důvodů jmenovaných zde: nároky na výkon si žádají stále větší čipy, ty ale nelze zvětšovat donekonečna, u menších čipů se ušetří za návrh (protože se použijí i do masovějších jednočipových karet) a pro dvou- nebo vícečipové karty se dají vybrat ty nejlepší kousky.

    No a jak to dopadlo? Dvoučipové karty dneska ani AMD nedělá a výkonu je pro hry dost a dost. Se SLI/CF byl totiž vždycky nějaký problém, že něco s více čipy neškálovalo (třeba paměť u AFR), vznikal input lag, a obecně ztráty výkonu byly v desítkách procent a funkčnost hodně závisela na ovladačích a podpoře her.

    V HPC nasazení by to ale mohlo být zajímavější, tady nás netrápí neduhy AFR/SFR, prostě jen rozdělíme práci a jede se. A sice by čip byl asi pořád malosériovka, protože rychlá sběrnice, NUMA a double precision by herní čipy zbytečně prodražovaly a naopak výpočetní čip nepotřebuje TMUs a ROPs, ale i to by oproti mamutům jako V100 mohla být zajímavá úspora.