Hlavní navigace

Novodobá historie grafických karet aneb Episode IV

23. 7. 2012

Sdílet

Zdroj: Redakce

Úvod a pro koho je článek určen

Nedávno publikovaný seriál 20 let vývoje grafických karet: od CGA až po konec 3Dfx od Vlaska končí rokem 2001 a z pozdějšího období vyjmenovává jen několik kuriozit. Je pravda, že od krachu 3dfx je trh samostatných grafických akcelerátorů v režii pouhých dvou firem, Nvidie a ATI. Nesdílíme ale Vlaskův názor, že je kvůli tomu dění nezajímavé, a tak vám přinášíme tentokrát trochu detailnější pohled na vývoj v prvních několika letech duopolu. Článek je určen především těm mladším z vás, pro které je i doba před pěti lety dávnou historií.

Dávnější historie: cesta ATI do čela

Že je ATI (dnes již AMD) jednou ze dvou společností, které přežily velké „vymírání druhů“, už víte. Jak si svou pozici vybojovala Nvidia, dobře dokumentuje Vlaskův seriál. Pokud není dostatečně zřejmé, jak ke svému místu v duopolu přišla ATI, hezky vám to shrne Mirek Jahoda:

Nabízeli univerzální karty „špičce na dohled“, byli dobří v OEM a nesmíme zapomenout, že v té době měli ještě pověst krásného 2D (na rozdíl od Nvidie a nekvalitních low-pass filtrů na kartách jejích partnerů). Taky to byly karty BBA, tudíž měla ATI kvalitu pod kontrolou. Já osobně vzpomínám na Rage 128 Pro dost nerad (problémové drivery), ale třeba dříve karty jako Rage Pro Turbo nebo Xpert@Play byly dobrými univerzály, na nichž se daly tehdejší DirectX hry povětšinou slušně provozovat a ještě zvládly video v MPEG i s procesorem AMD K6.

Snad proto, pohledáte-li recenze z doby okolo roku 2000, najdete tam kromě Radeonu DDR (R100) zpravidla jen různé varianty GeForce 2, případně Voodoo 4 a 5. Tehdy víceméně platilo výše zmíněné: špičce na dohled a problémové ovladače. Jak vypadala situace kolem roku 2001 a jak se ATI vyšplhala na výkonnostní trůn, kde posléze několik let setrvala, ilustruje časová osa:

  • květen 2001 – Nvidia vydává GeForce 3. Čip NV20 je jako první vyráběn 150nm technologií a podporuje DirectX 8 (pixel a vertex shadery verze 1.1).
  • srpen 2001 – přichází odpověď od ATI, Radeon 8500. Jádro R200 přináší podporu pixel shaderu 1.4 a DirectX 8.1 a GeForce 3 poráží. Pověst mu ale pošramotil podvod ve hře Quake III (tehdy velice populární pro benchmarkování grafických karet), k ovladačům ATI měli uživatelé nedůvěru hlavně z dřívějška.
  • říjen 2001 – Nvidia kontruje s rychlejší GeForce 3 Ti 500. Veřejné mínění mezitím donutilo ATI k odstatnění podvodu v Quake III a Nvidia je tak opět o pár procent výkonnější. Navzdory tomu je jedna z recenzí Radeonu 8500 z této doby nadepsána výkřikem „Stal se zázrak!“ a přestože Radeon na GeForce pár procent ztrácí (exceluje ale ve 3DMarku, který nabízí složité scény s mnoha efekty náročnými na shadery), díky nižší ceně i dobrým ovladačům je z ní recenzent doslova nadšen.
  • únor 2002 – Nvidia stvrzuje svou pozici v čele s GeForce 4 Ti 4600 (NV25), v dubnu přichází níže taktovaná, levnější a tudíž populární varianta Ti 4200.
  • srpen 2002 – ATI uštědřuje Nvidii ránu v podobě Radeonu 9700 Pro. R300 má o 70 % více tranzistorů než NV25, díky tomu je výrazně výkonnější a podporuje DirectX 9 (které Microsoft uvede až v prosinci 2002). Nvidia se o měsíc později zmáhá jen na GeForce 4 Ti s podporou AGP 8X (NV28).

Radeon 9700 se svého pravého soupeře vlastně nedočkal. Než Nvidia stihla uvést řadu GeForce FX 5000 (stalo se tak v dubnu 2003), ATI už měla na trhu Radeon 9800 s čipem R350 (ten se od svého předchůdce ale liší vlastně jen vyšším taktem). Jak se GeForce FX 5800 (včetně odvozených modelů střední a nižší třídy) zapsala do historie, jste možná četli v našem článku 25 největších propadáků mezi grafickými kartami.

GeForce FX splnila snad všechny parametry núspěšné karty současně. Přišla pozdě. Nesplnila misi (být nejvýkonnější). Měla vysokou cenu, spotřebu a šílené chlazení. Alespoň výkon mohl být v pořádku, kdyby Microsoft nakonec místo FP16 či FP32 neukotvil v DirectX FP24. To sedělo ATI R300, nikoli NV30. GeForce FX 5900 pak už byla o něco rozumnější, přesto ale slovo FX o pár let později Nvidia raději pohřbila.

Aby to nevypadalo, že se podvádění v benchmarcích týká jen ATI: v pozdější době více „škváry“ nasbírala Nvidia. Její podvádění v 3DMarku03 potvrdila firma Futuremark, vybrané karty z řady FX si prý pomohly až o 24,1 %. Nvidia to znovu zkusila v roce 2005 s „optimalizací“ (to už je skoro newspeak pro podvádění) filtrování textur na GeForce 7, což se projevovalo tzv. shimmeringem (situaci vám shrne a jako rozcestník na články s videi poslouží např. novinka bit-tech.net). Když se na to přišlo, Nvidia promptně označila problém za bug a v další verzi ovladačů ForceWare jej „opravila“. První recenze ale už byly naměřené s chybou.

Podvádění je obecně ožehavé téma, v průběhu let padlo podezření mnohokrát na Nvidii, ATI a dokonce i Intel, ostatně stačí zadat do Googlu kombinaci názvu firmy, benchmarku a klíčového slova cheat či cheating. Kromě podvodů v ovladačích byly firmy podezřívány také z tlačení na vývojáře, kteří měli udělat hru tak, aby to na kartách jednoho výrobce běhalo lépe, nebo na kartách toho druhého hůře. Jak to tak bývá, spoustě z toho můžete a nemusíte věřit. Stejně tak k otázce, co je přípustná optimalizace a co už nikoliv, se každý staví jinak.

Když nejnovější technologie, tak pro všechny

Při pročítání starých recenzí z let 2000 a 2001 narazíte na jednu zvláštnost (tedy, oproti dnešním recenzím uvidíte víc zvláštností, ale právě tu jednu chci vypíchnout). Rozdíly mezi nejvýkonnějšími a nejslabšími kartami v testech jsou v řádu desítek procent. Dnes je to v řádu několikanásobku, a to i mezi low-endem a high-endem jedné generace. Nebývalo tomu ale tak vždy. Platilo, že co generace, to jeden čip, levnější varianty se od těch dražších lišily jen frekvencemi a případně velikostí paměti.

Nabídku nižší třídy tvořily zpravidla čipy starší generace, případně jejich die-shrinky nebo čipy sice nově vyvinuté, ale založené na minulé generaci (tento případ jsou například Radeony 9000 a 9200/9250, ale vlastně i pozdější Radeony X300–X600). Výjimkou byla GeForce 2 MX (NV11), odlehčená verze GeForce 2 (NV15) na stejné technologické úrovni (DirectX 7 s T&L).

Nvidia NV31, zdroj: The Tech Report

Teprve od roku 2003 můžeme soustavně mluvit o generacích a nikoliv čipech. ATI společně s Radeonem 9800 vydala Radeon 9600 (RV350) s polovičním počtem pixel pipelines a poloviční paměťovou sběrnicí. Nvidia vydala naráz hned tři čipy generace GeForce FX – kromě high-endového NV30 to byly NV31 (GeForce FX 5600) pro střední třídu a NV34 (GeForce FX 5200) pro nižší třídu. Sluší se ovšem zmínit, že vedle toho Nvidia stále udržovala úplně nejlevnější karty na bázi generace NV1x. GeForce 4 MX 4000 v cenících strašila ještě v roce 2005, jakožto GeForce PCX 4300 se podívala i na PCI Express.

 

Navzdory problémům s kompatibilitou s některými čipsety, zejména hojně rozšířeným VIA KT600 pro Athlony XP, se Radeon 9600 stal prodejním hitem. V následující generaci už ATI tento úspěch ve střední třídě nezopakovala, miláčkem davů se stala GeForce 6600 a posléze GeForce 7600. ATI získala střední třídu zpátky až na podzim roku 2006 s Radeonem X1950 Pro.

Fotografie výše nám poslouží pro malou odbočku. Vidíte na ní vlastně nikoliv čip NV31, ale jeho keramické pouzdro. Podobné (případně celé keramické, bez plíšku uprostřed) můžete znát například ze starších základních desek, které ještě mají jižní můstek a nemají na něm chladič. GeForce FX byly jedny z posledních GPU, které toto balení používaly. ATI R300 přišla jako první s balením flip-chip, kdy byl čip odkrytý a přímo přiléhal na chladič, což zlepšovalo odvod tepla. NV31 se ve vyobrazené podobě na trhu moc dlouho neohřál, neboť jej Nvidia nahradila variantou flip-chip. Výkonnější karty této generace používaly heatspreader, levnější pak měly čip odkrytý stejně jako Radeony.

Cesta ATI do popředí (po bok Nvidie)

Doba odemykací a taktovací, smrt AGP

Radeon 9500 a divoká doba odemykací a taktovací

Ještě před tím, než měla ATI hotový Radeon 9600, potřebovala vyplnit mezeru, která by jinak vznikla mezi modely 9700 a 9100 (přeznačený Radeon 8500 s nižšími takty). Pravděpodobně počítala s tím, že navzdory vyspělosti 150nm postupu zbydou z výroby (na svou dobu relativně velkého) R300 zmetky. Jádro bylo proto navrženo tak, aby se polovina pixel pipeline (což byl vlastně pixel shader napevno spojený s texturovací jednotkou) dala deaktivovat. Vznikl tak Radeon 9500, který se stal miláčkem hardwarových nadšenců. Obzvláště oblíbené byly varianty, u kterých výrobce zachoval šířku sběrnice 256 bitů.

Čtyři pipeline totiž byly deaktivovány pouze prostřednictvím ovladačů. Bez jakéhokoliv zásahu do hardware tak bylo možné je odemknout a získat tak teoreticky až dvojnásobný výkon. Nebylo nutné ani flashovat BIOS karty, stačilo nainstalovat upravené drivery. Ty byly (a stále jsou) k dispozici například na Guru3D. Vedle oficiálních Catalystů existovaly celkem čtyři řady těch modifikovaných, které kromě odemčení pipeline slibovaly například lepší memory management pro karty s 256 MB paměti.

Stejným způsobem jako Radeon 9500 šel odemykat také pozdější 9800 SE (kdo má ještě dnes doma Hercules All-in-Wonder 9800 SE, přihlaste se). Nemajetným hráčům udělala ATI v roce 2004 radost Radeonem 9550. Čip RV350 zde běžel na nízkých 250 MHz a prakticky všechny karty šly přetaktovat na 400 MHz, čímž uživatelé získali výkon téměř identický s daleko dražším Radeonem 9600 Pro.

 

V následující generaci se ATI rozhodla udělat odemykání přítrž, odemykat šly pouze některé varianty Radeonu X800, vyžadovalo to hardwarovou úpravu (v lepším případě spojování kontaktů tahem měkké tužky, v horším pájení rezistoru) a často to spíše nešlo.

Nvidia se zpočátku ještě nepoučila, a tak si nadšenci užili odemykání GeForce 6200 ze čtyř na osm pipelines a 6800 LE z osmi na dvanáct či šestnáct pipelines. ATI potom umožnila odemykání u Radeonů X800 GT/GTO/GTO2 – to už se však psal podzim roku 2005, kdy na trh přicházela další generace, a ATI se chtěla zastaralých čipů rychle zbavit (ke konci se řada modelů prodávala už s plně odemčenými jádry a nikoho to příliš netrápilo). S těmito kartami odemykací období v podstatě skončilo, možnost odemčení či potenciál pro výrazné přetaktování měl od té doby jen sem tam nějaký nereferenční model. Výjimkou v současné době je Radeon HD 6950, který lze odemknout na HD 6970 a získat tak až 20 % výkonu navíc.

Smrt Accelerated Graphics Portu

Rozhraní PCI Express vyvinul Intel s cílem nahradit AGP (to se mu podařilo) i PCI (to ani po osmi letech nejeví známky klinické smrti a současným tempem s námi ještě dalších osm let vydrží). První základní desky s podporou nového rozhraní se objevily v roce 2004. Abyste pochopili kontext doby, uděláme si malý exkurz do tehdy aktuálních platforem.

AMD nabízelo jednak starší (ale stále populární) Athlony XP a Semprony do socketu A, high-end pokrývaly Athlony 64 do socketu 754. Intel měl Pentia 4 do socketu 478. Dvě nové platformy, socket 939 a LGA 775, přišly na trh shodně v červnu. PCI Express ale nabízel pouze Intel na nových čipsetech řady i915P/G a i925X. Socket 939 odstartoval jako AGP-only, na PCIe si musel počkat do podzimu, kdy se na trh dostaly desky s čipsety Nvidia nForce 4 a VIA K8T890. A zatímco desku pro LGA 775 se slotem PCIe nebyl nejmenší problém sehnat, opačně to nefungovalo. Socketu 478, stejně jako socketu A, nebylo nového rozhraní dopřáno.

Na rozdíl od AGP, které bylo s PCI kompatibilní alespoň do té míry, že bylo v přechodné době možné vyrábět čipy podporující obě rozhraní, PCI Express tuto variantu neumožňovalo. Možné cesty byly jen dvě: mít dvě verze jednoho čipu, nebo karty pro nepodporovaný slot vybavit můstkem.

První grafické karty nové generace od ATI i Nvidie, tedy Radeony X800 Pro/XT a GeForce 6800 Ultra, vyšly už v dubnu a květnu. Čipy R420 i NV40 byly nativně kompatibilní se slotem AGP. Na příchod PCI Express ale byly obě firmy řádně připravené.

Radeon 9600 XT a X600 XT, zdroj: Firingsquad

ATI se vydala cestou nativních čipů. Jelikož architektura R3xx byla na rozdíl od soudobé NV3x rychlá v DirectX 9, pro nižší třídu ATI navrhla čipy RV370 (Radeon X300) a RV380 (Radeon X600). Ty vycházely z Radeonů 9600 a 9600 XT a vzájemně se lišily použitým výrobním postupem, který určoval dosažitelné frekvence. Vysoký takt (500 MHz i výše) umožňoval 130nm proces s low-k dielektrikem, cenově orientovaná 110nm technologie zvládala frekvence kolem 400 MHz. Pro high-end měla ATI Radeony X800 Pro/XT s čipem R423.

Nvidia šla druhou možnou cestou a vyvinula můstek, který nazvala HSI (High Speed Interconnect). Ten fungoval obousměrně, takže umožnil nejen relaunch GeForce FX jako GeForce PCX (s čímž se svezla i již zmíněná GeForce PCX 4300) a později vydání GeForce 6800 GT/Ultra pro PCI Express (HSI zde byl netradičně na jednom balení s čipem NV40, Nvidia tomuto ánsámblu říkala NV45), ale také GeForce 6600 pro AGP (čip NV43 byl totiž už nativně kompatibilní s PCIe). HSI se používal i v další generaci, poměrně populární volbou pro AGP tehdy byla GeForce 7600 GS/GT.

GeForce PCX 5750 s můstkem HSI. Zdroj: TigerDirect

ATI v březnu 2005 vydala pro AGP ještě nativní Radeon X850 Pro/XT s jádrem R481. Tou dobou už to ale i ATI přestalo bavit a společně s ním vyšly i Radeony X700 a X800 (XL) ve variantě pro AGP s novým můstkem Rialto. I v roce 2005 mělo AGP ještě poměrně velké zastoupení i v nově prodávaných PC a jeho (ne)podpora u chystaných GeForce 7800 a Radeonů X1800 byla docela významným tématem. Ještě v roce 2007, kdy už AGP bylo výrazně menšinovou záležitostí, existoval Radeon HD 3850 s můstkem Rialto.

Navzdory tomu, že by mnoho hráčů uvítalo obojetnou základní desku umožňující plynulý upgrade, takové prakticky neexistovaly. MSI na některých levných deskách s PCI Express nabízela parodii na AGP jménem AGR. To ale bylo jen nouzové řešení, ve slotu fungovala jen omezená množina karet a protože datově byl AGR připojen na pomalou sběrnici PCI, výkon byl poměrně tristní.

S plnohodnotným řešením, bohužel až v polovině roku 2005, přišla firma ULi, kde severní můstek M1695 s PCIe mohl být spárován s jižním můstkem M1567, který poskytoval konektivitu AGP (dva Radeony X700 takto dokonce dokázaly fungovat v tehdy čerstvě uvedeném CrossFire). Tato generace čipsetů ULi pro procesory AMD K8 byla vůbec hodně povedená, dobře na ni běhalo i SLI a to Nvidia nemohla dopustit, proto ULi odkoupila a prodej jejích čipsetů promptně zatrhla. ULi ani předtím nemělo nijak valné zastoupení, takže desky s jejími čipsety (a obzvlášť ty obojetné) má v Evropě asi jen málokdo.

Poznámka pod čarou: Radeon X800 XT PE a GeForce 6800 Ultra – karty s božskými atributy

Všichni věděli, že existují, ale kromě novinářů je nikdo na vlastní oči neviděl. Jako obecnější poznámku ke generaci karet roku 2004 zmiňujeme další trik, kterým si ATI a Nvidia vypomáhaly v recenzích. Kanadskou firmu reprezentoval zpravidla Radeon X800 (později X850) XT PE, což oficiálně znamenalo Platinum Edition, nikdo kartám ale neřekl jinak než Phantom Edition nebo Press Edition, protože karty prakticky nebyly k sehnání (koupit se dala jen o malinko pomalejší verze XT bez přídomku PE). Totéž platilo i o GeForce 6800 Ultra – běžně dostupná byla jen níže taktovaná verze GT. Po této generaci s tím obě firmy přestaly, Nvidia měla ještě jednoho podobného fantoma s jepičím životem – GeForce 7800 GTX 512 MB.

PCI Express, SLI už ne od 3Dfx, no a… CrossFire

PCI Express a doba hyperpaměťová

Už v předchozí generaci výrobci grafických karet objevili onen úžasný trik, kdy se na low-endovou kartu (třeba Radeon 9250) naplácá zbytečně velké množství paměti (v tomto případě 256 MB) a taková karta se prodá nějakému troubovi, který velikost paměti považuje za stěžejní parametr. S příchodem PCI Express se těmto výrobcům splnil vlhký sen: mohli na krabice psát hausnumera jako 512 MB, i když fyzicky bylo na kartě osazeno třeba jen 16 MB.

Umožnila jim to technologie, kterou Nvidia nazvala TurboCache a ATI HyperMemory a která byla přítomna na GeForce 6200 a Radeonech X300. Technicky to není zas tak zlý nápad, paměti DDR tehdy poskytovaly propustnost v řádu jednotek GB/s a PCI Express s teoretickými 4 GB/s by mohl v některých situacích pomoci. Jenže jak RV370, tak NV43 a později NV44 měly fyzicky 128bitovou sběrnici, karty s TC/HM používaly většinou šířku 64 bitů, někdy dokonce pouze 32 bitů. Minimálně HyperMemory se u nejlevnějších Radeonů používá dodnes, marketing už se tím ale nechlubí a karty jsou samy o sobě vybaveny dostatečným množstvím paměti.

TSMC jako žába na prameni

Jak možná víte, tchajwanská nezávislá výrobna (foundry) TSMC vyrábí veškerá dnešní GPU od Nvidie i AMD (a také APU architektury Bobcat). Nebylo tomu tak odjakživa. ATI/AMD už je dlouhou dobu věrným zákazníkem TSMC a pouze občas se pro výrobu levných čipů obrátila na konkurenční UMC. Toto se týká čipu RV280 (Radeon 9250) v roce 2003, v roce 2006 také UMC vypomáhala s výrobou Radeonů X1300. Další případy nám nejsou známy. AMD nadále zůstává u TSMC navzdory tomu, že je spolupodílníkem v Globalfoundries. Výrobna, která dostala věnem drážďanské továrny AMD, totiž technologicky zaostává za TSMC vždy minimálně o několik měsíců.

Nvidia je též u TSMC váženým zákazníkem. Pouze výrobu high-endových čipů NV30 a NV40 svěřila společnosti IBM. GeForce 7 a pozdější už jsou vyráběny výhradně u TSMC. S3 Graphics zkoušela 130nm postup u TSMC a 90nm postup u UMC, u zatím nejnovějších Chrome 540 a 5400E zakotvila u 65nm technologie japonské Fujitsu, který používá také její donedávna mateřská společnost VIA Technologies pro procesory Nano.

Kterak SLI z mrtvých vstalo, a do křížové palby se dostalo

S akvizicí zkrachovalého 3Dfx získala Nvidia mimo jiné i práva na obchodní známku SLI, jak se nazývala technologie umožňující zvýšit výkon ve hrách spřažením dvou a více karet Voodoo. Slot AGP mohl být na základní desce vždy jen jeden, tohle omezení ale pro PCI Express neplatilo. A tak Nvidia společně s vydáním nForce 4 vydala i nové SLI. Zkratka už oficiálně neznamenala Scan Line Interleave (což vyjadřovalo způsob vykreslování, které Nvidia SLI nepoužívá), ale Scalable Link Interface asi podle propojení, kterým karty komunikují. Stejně jako dnes, i v roce 2004 se karty spojovaly interním můstkem.

Podporované režimy vykreslování byly (a vlastně pořád jsou, jen k nim mezitím přibylo SLI AA) AFR (alternate frame rendering), známý už z ATI Rage Fury MAXX, a SFR (split frame rendering), kdy je scéna rozdělena na horizontálně na dvě nestejně velké poloviny.

 

Ve svých počátcích mělo SLI typické dětské nemoci, škálování ještě nebylo tak dobré jako dnes a recenzenti a uživatelé si stěžovali na občasné pády. Jedním z problémů byla nutnost, aby obě karty zapojené ve SLI měly identický BIOS. Na to se dalo jakž takž spolehnout při pořízení dvou nových karet stejné série od jednoho výrobce, ne už u karet pořízených s časovým odstupem nebo dokonce odlišných karet. Flashování BIOSu pak mohlo, ale také nemuselo fungovat.

Za nevýhodu se dala považovat i svázanost s čipsety Nvidie. Společnost v ovladačích obětavě blokovala fungování na jiných platformách (kterým jinak nic nebránilo), proto i testy na čipsetech ULi musely používat neaktuální nebo hacknuté ovladače. Pro čipsety AMD nic lepšího než nForce na trhu nebylo, nekompatibilita s čipsety Intelu zejména v době Core 2 ale hráče příliš nepotěšila. Omezení padlo až v době, kdy byla Nvidia z trhu čipsetů vytlačena a neměla jinou možnost, než fungování na cizích čipsetech povolit.

Ačkoliv Radeony X800 XT v testech pohodlně vítězily nad GeForce 6800 GT a i levnější Radeon X800 XL se kartám od Nvidie víceméně vyrovnal, uvedení SLI udělalo ATI vrásky na čele. Kanadská společnost měla též ve vývoji vlastní čipsety, Radeony podporovaly vícečlenné zapojení už dříve, ale pouze na atypických profesionálních kartách. Odpověď na SLI přišla koncem května 2005 a dostala název CrossFire. Přineslo například dva nové režimy, Super AA (obě karty vykreslují stejný obraz, ale s jinak rozloženými vzorky pro anti-aliasing, a obrazy se pak proloží) a SuperTiling (obraz je rozdělen na dlaždice, které jsou kartám dynamicky přidělovány podle jejich vytížení).

CrossFire se dvěma Radeony X850

Jelikož PCI Express se pro komunikaci dvou výkonných karet ukázalo být příliš pomalé (tehdy existovaly čipsety s pouze šestnácti linkami pro grafické karty) a Radeony neměly nic jako konektory SLI na GeForce, systém spoléhal na „CrossFire master“ kartu, která se připojovala externí propojkou přes porty DVI. Master karta nesla čip (vlastně to bylo programovatelné hradlové pole od Xilinxu, což dokládá improvizovanost celého řešení), který skládal obraz v režimu SFR, nebo přeposílal obraz v režimu AFR na obrazovku.

Vinou tohoto způsobu propojení a kvůli tomu, že se s CrossFire původně nepočítalo, měla technologie jedno velmi nepříjemné omezení plynoucí z použitého TMDS transmitteru (čip, který zajišťuje posílání obrazu přes port DVI na monitor) na existujících kartách. Aby byly master karty s již vydanými Radeony kompatibilní, jejich transmitter měl omezený datový tok. Při rozlišení 1280 × 1024 tak byla maximální obnovovací frekvence 85 Hz, v 1600 × 1200 ale už jen 60 Hz a při vyšších rozlišeních ještě méně. Tehdy ale ještě málokdo měl LCD panel a pokud to náhodou nepamatujete, 60 Hz na CRT bolí. Omezení se sice vztahovalo jen na 3D režim, kdy bylo CrossFire aktivní, ale i tak. Později vydané Radeony X1800 a X1900 už toto omezení neměly.

Detail konektorů Radeonu X1900 CrossFire Edition, zdroj: Hardware.fr

Jak už jsem se zmínil, s Radeony X700, které nepotřebovaly master kartu, fungovalo CrossFire už v květnu. Klíčové však byly Radeony X800 a X850 a CrossFire edition těchto karet se dostaly do rukou recenzentů a na trh až v září 2005. Mezitím už Nvidia stihla vydat GeForce 7800 GTX a na spadnutí byl launch Radeonu X1800 XT, navíc už se začala projevovat zastaralost architektury R4xx, která na rozdíl od soudobé GeForce 6 nepodporovala Shader Model 3.0 (DirectX 9.0c). První generace CrossFire tedy skončila neslavně.

Přesto CrossFire nelze upřít některé inovace, které donutily Nvidii podobným způsobem vylepšit i SLI. V první řadě to byla možnost zapřáhnout dvě různé karty, i s odlišnými frekvencemi, počtem pipelines a velikostí paměti. Výkonnější karta pak běžela na specifikacích té slabší. Byla to také ATI, kdo přišel s režimem Super AA, který Nvidia následně okopírovala. A ačkoliv ATI měla vlastní čipsety (před odkoupením AMD i pro procesory Intelu), CrossFire fungovalo i na čipsetech Intelu a kdyby bývala Nvidia nezneužila svého dominantního postavení v čipsetech pro AMD a nezařízla rozšíření VIA K8T900, běhalo by CrossFire radostně i na něm.

V prvních měsících existence SLI také neexistovala uživatelská utilita pro vytváření profilů. SLI fungovalo jen ve hrách, kterým profil vytvořila Nvidia, a to byly tehdy řádově desítky titulů. Ostatní hry využily jen jedno GPU. CrossFire v základu fungovalo ve všech hrách. „Fungovalo“ je tedy dost silné slovo; bylo však standardně zapnuté (tehdy v režimu SuperTiling, který nezvyšoval výkon tolik jako AFR, ale zároveň netrpěl microstutteringem a prodlouženým input lagem). Později byl jako základní režim nastaven AFR a SuperTiling z ovladačů vypadl úplně (nevíme přesně, kdy), nyní už podporován není.

ATI přibližně po roce nešťastnou koncepci master karet opustilo a počínaje Radeonem X1950 Pro (a dalšími modely s jádrem RV570) jsou Radeony vybaveny konektorem pro můstek ne nepodobným tomu, jaký má Nvidia na svých GeForce. Červený tým si při té příležitosti připsal jedno prvenství – díky tomu, že konektory byly na kartách od začátku dva, bylo možné zřetězit až čtyři karty. Praktičnost a použitelnost tohoto řešení je ale velmi mizivá.

KL24

Fungování SLI a CrossFire a jejich historii do roku 2007 se detailněji věnuje článek Mirka Jahody a Jirky Součka SLI vs. CrossFire (nejen) v DirectX 10 hrách. Část věnovaná CrossFire mapuje i dávnější historii multi-GPU systémů u ATI, od Rage Fury MAXX přes profesionální vícečipové karty.

Co dál?

Projevíte-li v diskuzi zájem o další díl, v něm se můžeme podívat na příchod technologií pro všeobecné výpočty na GPU, akceleraci herní fyziky, příchod dvoučipových karet jakožto high-endu, nebo například neúspěšný pokus Intelu o vstup na trh samostatných grafických akcelerátorů.

Přečtěte si také:

Byl pro vás článek přínosný?