Snížení spotřeby tleskám!
Nedávno jsem vyřknul teorii, že nejdůležitější je výkon na 1W, protože pokud dnes hrajete hru na 60 FPS, tak nová karta s vyšším výkonem na 1W ji bude zvládat na stejné FPS s nižší spotřebou. Logicky by se zdálo, že když je karta silnější díky architektuře, bude zvládat stejnou práci na nižších frekvencích a bude pracovat méně shaderů.
No, jak teď tak hezky spadly ceny karet a nVidia straší, že budou ty nové až příští rok, tak jsem před pár dny vyměnil již postarší 1070 za 3080. A jelikož mám zásuvkový měřák spotřeby, zkusil jsem mou teorii s výkonem na 1W ověřit.
Měřil jsem tedy výkon celé sestavy, takže čísla neberte jako absolutní hodnoty, ale jde o porovnání mezi stejnou sestavou s 1070 (TDP 150W) a 3080 (TDP 390W).
Spotřeba v idle 1070: 80W
Spotřeba v idle 3080: 90W
Spotřeba v OctaneBench 1070: 190W
Spotřeba v OctaneBench 3080: 430W
Spotřeba v renderu (3dsmax + Redshift) 1070: 220W
Spotřeba v renderu (3dsmax + Redshift) 3080: 430W
Spotřeba ve hře (Assassin's Creed Odyssey) 1070: 270W
Spotřeba ve hře (Assassin's Creed Odyssey) 3080: 400W
Zavěr 1: Co se týká mé teorie, šeredně jsem se zmýlil. I když běží hra s totožným nastavením a totožným FPS, Nová karta si vezme o 130W elektřiny navíc. Uměle jsem podtaktoval jádro o -200Mhz, ale spotřeba klesla asi jen o 40W při zachování stejných FPS ve hře. Udělal jsem i undervolt o nějakou tu desetinku a spotřeba opět klesla o nějakých 30 W, ale stále jsme ve vyšších číslech než 1070.
Závěr 2: Potěšil mě ale render v Redshift. Spotřeba je sice skoro dvojnásobná, ale stejnou úlohu zvládne 5x rychleji, takže ve výsledku spotřebuje méně energie a já méně kávy :-)
Zajímalo by mě čím to je, že si opravdu vezme ve hrách více. Jestli to je tím, že i když shadery pracují jen na půl plynu, stejně se jim všem dodává stejný proud? Nejsem odborník, takže jen hádám. Zkusím změřit spotřebu ve hře na minimální a maximální detaily a doplním.