Nechci moc rypat, ale neni to spis chyba vyrobcu grafik, ze i dnesni nejvykonejsi grafiky nedokazou vyuzit silnejsi procesor, jak kterekoli dvoujadro na 2,4GHz. Max vykon se prakticky za poslednich 18 mesicu nepohnul nahoru nebyt prichodu HD3870 X2, coz je ovsem jen prevlecene CF reseni a funguje jenom nekde. Na vetsine her sviti logo Nvidie, cili prave Nvidia za to nese nejvetsi zodpovednost. Vzdyt to ze hry nedokazi vyuzit dnesni procesory neni chyba vyrobcu procesoru, je to chyba vyrobcu grafik, protoze jejich produkty jsou tou brzdou a na praci vyvojaru her je znat prave jejich vliv. Cili Nvidie ma sice pravdu, ale moc bych se tim nechlubil, zvlast, kdyz porad tvrdi, jak jsou dnesni procesory pomale ve srovnani s GPU. Zajimave ze CPU svou praci u her odvadeji dobre, GPU naopak nestihaji a pro vysoka rozliseni je jedinou volbou dneska CF nebo SLI.
Je to jako s auty. Bezny kamion ma trojnasobek az ctyrnasobek vykonu dnesnich aut, ale presto je na dalnici a kdekoli jinde prave on tou brzdou. Grafiky jsou v soucasnosti presne jako ten kamion. Spousta vykonu, ale taky nesrovnatelne vic prace, ktery je tolik, ze je ten vykon ve skutecnosti naopak nizky.
Celá tahle debata o nedostatečnosti výkonu GK a ještě lépe neschopnosti GK využít dostatenčě procesor je postavená na hlavu ... lidi vzpamatujte se.
1) Ad ta nedostatečnost výkonu GK: Koukáte se na to naprosto obráceně, a to z toho důvodu, že zcela ignorujete, kde jsou v současnosti limity. Limit není hra (naprogramovaná grafika), ale limitem je GPU - resp omezený výkon GPU. Vždycky můžete naprogramovat složitější grafiku - detailnější ... scéna nemusí mít 5000-20 000 polygonů jako teď, ale také třeba 500 000 000 polygonů - složitost grafiky je tedy omezena jen "politickým" rozhodnutím návrháře. Můžete počítat spolygony o délce hrany třeba 1 .. můžete počítat pro rozlišení ne 1024*768 ale třeba pro 50000*35000 kvůli aliasingu atd... - v tom případě výpočetní náročnost vzroste na neuvěřitelné hodnoty. Tohle si může změnit každý vývojář - určí si že prostě chce takhle detailní scény a prostě to tak udělá (a nic dalšího ho nemusí zajímat). Naopak GK jsou limitovány odjinud - čip o určitém designu a určitém taktu může v daném čase spočítat jen omezené množství bodů/polygonů/stínů/paprsků. Abych toto spočítané množství zvýšil nezbývá mi než postavit větší čip nebo zvětšit frekvenci (pominu teď možnost lehce zoptimalizovat zpracovávající jednotku - pro tuto úvahu se dají "režijní" záležitosti ignorovat. A tady se naráží na technologická omezení - nemůžete postavit neomezeně velký čip - zarazí vás chyby ve výrobě a cena chipu, nemůžete zvyšovat frekvenci do nekonečna - zarazí vás výrobní proces, spotřeba a další problémy (přeslechy v čipu atd..) a opět cena.
Takže za daného stavu techniky se dá za přijatelnou cenu postavit grafický čip jen o omezeném výkonu schopný v přijatelném čase spočítat jen grafiku určité složitosti - na druhou stranu zatímco GPU je takto limitováno, návrháři grafiky nic nebrání zvolit grafiku složitější než odpovídá schopnostem chipu v daném čase (a to se běžně dělá). Není důvod se rozčilovat, že grafiky nejsou dost výkonné na hry .. jestli už, tak se rozčilujte, že grafika je příliš složitá na stávající hardware.
2) Ad to nedostatečné využívání CPU grafickými kartami: Počítačová grafika má teď určité postupy - vyznačující se masivní paralelizací se stále stejným typem operací - z toho důvodu je na to nejvhodnější speciální GPU s miriádou jednotek uspůsobených na rychlé vykonávání těchto jednoduchých (stejných) operací co nejrychleji a furt dokola. Univerzální CPU byť by se postavilo na hlavu nedosáhne v těchto operacích ani zlomek výkonu GPU a výkonová režie, která by padla na to, aby CPU pomáhal GPU v těchto para výpočtech + synchronizace by spolehlivě zabilo ten přínos ze strany CPU... (když to přestřelím za cenu 50% výkony CPU byste získali přínost 5% výkonu oproti GK.. s tím, že CPU je potřeba jinde - logika, fyzika, zvuk, příprava scény atd..) proto se to nechává čistě na GPU - protože to z principu nemá smysl.
No, nenahlížel bych na to zrovna takhle. Nevím jak vy, ale já jsem rád, že ke grafické kartě za 4000,- nemusím pořizovat procesor za ty samé peníze - jako tomu bylo dřív. Tím, že procesory utekly grafickým kartám, pouze nastala situace, že nákup procesoru se dnes stává téměř zanedbatelnou cenovkou na celém nákupu PC.
Pokud namítáte, že grafické karty jsou na dnešní hry příliš pomalé - řekl bych, že to není pravda, na mainstreamové hraní dnes nemusíte kupovat kartu za 9000,-, jen za 4000,-. Pokud někdo hraje ve vysokém rozlišení a potřebuje k tomu mít vyhlazování a vysoké detaily, pak to je luxus a za ten se platilo vždycky.
Mně připadá ATi jako správný nepodvádějící hráč v poli grafických karet. Je známo, že nVIDIE, jak to udává, spolupracuje s výborci her (CryTek ...) a optimalizují si hru pro svoje výrobky, je pak samozřejmě každému jasné, že "správný hráč" poběží a koupí si 2x 8800 GT jakožto nejlevnější řešení pro plné detaily. Jako politika je to sice dobré, ale na druhou stranu ATi vyrábí čipy, které jsou řekl bych "mnohem univerzálnější" a nepotřebují dodatečnou optimalizaci od výrobce. Kromě toho, ATi byla vždy silnější, než ji odkoupila AMD a nVIDIA nezačala se vnucovat vývojářům ... Dále jsem celkem odpůrcem hraní v obrovských rozlišeních, připadá mi ta "habaďůra" kolem toho lehce zbytečná. Hra slouží k pobavení a i třeba v 1280x1024 ... Rozhodně nechápu lidi, kteří by si dneska koupili QX9650 za nějakých 20 000 Kč a k tomu desku snad za všechny peníze světa atd ...
Nemyslím si, že by to byla chyba nVidie a ATi. To, jak hry zatěžují procesor, je dáno prostě nějakými tendencemi v programování her. Ten problém spíš pramení z toho, že hra má nastavitelné úrovně grafiky pro výkonnější i slabší modely, ale náročnost na CPU (pokud pomineme úkony spojené s detailnější grafikou) tvoří většinou fyzikální model, umělá inteligence... a to se nijak nastavit nedá, to je náročné pořád stejně. A tvůrci se snaží, aby to jelo i na pomalejších procesorech, jinak lze samozřejmě napsat hru která vycucne čtyřjádro (Supreme Commander).
Mno ja tak trochu souhlasim s tim,ze pro dnesni hry je nejdulezetijsi GPU ale to nic nemeni na tom ze dnesni graficke reseni jsou nedostatecna-jako priklad je crysis v teto hre ikdyby jste se na hlavu staveli tak snad ani nedocilite toho aby hardware mel rezervu a crysis frcelo na plno.Takze kde je problem? Muze to byt tady zminenou spolupraci vyrobce GPU s vyvojari her > kazdej hrabe na svuj pisecek > kdyz hra bude vyuzivat jen GPU tak je jasny ze nejvetsi rejzo bude mit vyrobce g. karet.Ale stacilo by hru postavit na spolupraci GPU s CPU a ejhle ono by bylo najednou mit Intel jako konkurenci velkej problem.Nvidia jen s grafikou proti Intelu s ctyrjadrovym CPU a vlastnim g.jadrem.No jsou to jen priklady proc by to tak mohlo byt :-) Jedno je ovsem jisty > prachy jsou az na prvnim miste :-)))
Hlavně si uvědomte jak se od dob Dooma a Wolfensteina změnila grafika počítaná GPU a jak se vylepšila umělá inteligence a další věci počítané CPU. Za tu dobu se objevilo spoustu nových věcí, které se musí počítat jako antialising, odlesky, stíny, kouř, mlha také se používají textury v mnohem vyšším rozlišení a některé otevřené scény jsou obrovské prostory jejichž grafika se musí nahrát do VRAM. Ale AI se skoro nezměnila a je ve většině her naskriptovaná, takže hráč projde dveřmi a skočí na něj nepřítel. I další věci co počítá procesor by se mohli zlepšit, ale asi na to vývojářům nezbývá čas/peníze.
Specializovaný chip (např. GPU) bude v oblasti své specializace vždy mnohem výkonnější než univerzální řešení (CPU).
Výkon CPU v grafické oblasti je znevýhodněn oproti GPU jednak díky své univerzalitě (resp. nespecializací na grafické věci - většina jeho součástí se při těchto výpočtech fláká - je vytěžována jen nějaká část chipu) a jednak si CPU ssebou nese něco co by se dalo nazvat jako "politická" brzda - trváme na tom, aby CPU bylo zpětně kompatibilní - pritom zcela odlišný design CPU by měl mnohem vyšší výkon nejen v grafice ale celkově ... s jedinou ...malou ... uplně malinkou vadou.. musel by se přepsat všechen software od základu.
Pokud by měl být budoucností grafiky třeba raytracing - tam by univerzální čip představoval jistou výhodu nicméně pouze oproti současným GPU, které jej nejsou schopny provádět, případně by ho musely složitě emulovat (s více průchody atd - pokud vůbec). Tato výhoda by ale opět byla zcela smazána příchodem chipu specializovaného pro RT... (to už by byla zase otázka obchodu... kdo dokáže postavit grafiku na hlavu a bude připraven prodávat pro ni specializované řešení tak asi docela vydělá - vzhledem k současnému stavu na trhu karet se asi nedá očekávat takový krok ze strany ATI ani nVidie ... takže bych sázel třeba na ten intel v tomhle směru.. každopádně pokud by se to stalo - velmi brzo by se ostatní přizpůsobili a nabídli své řešení.)
Ideální rozložení tedy i nadále zůstane na CPU pro skutečně univerzální záležitosti, a pak specializované čipy pro grafické záležitosti (případně třeba pro fyziku). (S tím, že je v zásadě jedno jestli se tyto specializované jednotky budou ve formě karty, čipu na placce vedle CPU a nebo to dotáhnou přímo do jádra CPU).