Analog vs. digitál = 10 wattů?!

22. 1. 2009

Sdílet

 Autor: Redakce

Věřili byste, že PC posílající obraz na analogový výstup spotřebuje citelně více elektrické energie? Na tento pro některé jistě ne až tak překvapivý objev jsem kápnul docela náhodou. V testech procesorů pravidelně měřím odběr PC v idle a zrovna při testování nového procesoru AMD Phenom II jsem pro focení BIOSu přepojil z analogového Mitsubishi Diamond Pro 930SB na digitální HP LP3065, abych vyfotil změny týkající se Phenomu II v BIOSu desky Gigabyte GA-790GP-DS4.

Poté jsem se bezděky dostal do Windows a po chvíli si na wattmetru všimnu stálé hodnoty 103 wattů. Přitom chvíli předtím jsem u PC s Phenomem II naměřil 113 wattů v idle a i to mi přišlo ve srovnání s Core 2 Quad a hlavně předchozí generací Phenomů (Agena) jako skvělá hodnota. Najednou ale 103 wattů, spotřeba odpovídající Athlonům X2 (Brisbane). Jedinou změnou, kterou jsem v paměti vyšátral, byla skutečně jen změna výstupu. 10 wattů za analog (D-Sub) vs. digitál (DVI)? To se mi nezdálo, takže jsem za běhu přepojil na analogový monitor.

ICTS24

Windows Vista se s tím vypořádaly a po chvíli se na wattmetru opět ustálila spotřeba 113 wattů. Testovací grafickou kartou byla Nvidia GeForce GTX 280, která má myslím RAMDAC v externím NVIO čipu (a nikoli integrován přímo v jádře), máte-li tu možnost, můžete zkusit rozdíl spotřeby analogového vs. digitálního výstupu z grafiky ověřit na jiných modelech grafických karet s RAMDAC integrovaným přímo na čipu (což jsou například všechny GeForce 9 anebo Radeony od série 9000 dodnes).

Mohlo by vás také zajímat: Spotřeba GPU prudce závisí na teplotě!

Autor článku