Z těch marketingových čísel by jednomu bylo po ránu zase za zvracení.
Mě by poměrně zajímalo, kde vzali koule na to porovnání s Xbonem, protože jednak to jsou dvě naprosto rozdílná zařízení (na jiných architekturách, s jinou cílovkou, a Xbone byl na trhu v roce 2013!). Obecně se ví, že osm Jaguárů v Xbone/PS4 není žádná sláva, ale grafický subsystém si na tuty vytře zadek s iPadem a to jim dám písemně. Dost pochybuju, že iPad má nějaké sofistikované optimalizace HW, aby se dostal do pozice "specializovaného herního zarížení".
Proč je to péro bílý a tabléééty šedé - to je hnus velebnosti. Steeve se v hrobě obrací. A ten efektní veletoč na konci reklamy, tak ten s tím tablééétem právě určitě udělat nepůjde, a to kvůli té mega vystouplé čočce foťáku. Kryt zádíček bude prakticky povinnost, a originál bude drahý, to je jisté. Bez něj ovšem na stole pérem nic nenakreslíte, a když, tak jenom retarded like. Ale co, však jsou pro ně ty krámy určeny. A tohle produkuje společnost, která se placení daní vyhýbá jako čert kříži. Takže nás nejen okrádá svými předraženými produkty, ale ještě nám všem plive do tváře, když ze svých nehorázných zisků zaplatí jen 2% daní. Dú wen blejt.
Tady bych si nebyl tak jistej, jestli by to šlo udělat celoplošně takto tenké bez "nádoru". Dneska je to časté právě z tohohle důvodu, dřív, byť tenké zařízení, byly přeci jen trochu "baculatější" a tak se to v tom dalo nějak utopit. Chtělo by to vidět RTG snímek nebo alespoň nějakej kousek vykuchanej. Buď je pod tím nějaká elektronika - pak by to šlo bez nádoru, pokud je tam ale pouze a jen fotomodul, logicky to utopit nepůjde :)
To je zase "nazvraceno" v PR. Tak jdeme bořit ty bludy...
GPU: Xkrabice jedna má GPU o výpočetním výkonu 1,3 TFLOPu (28nm Bonaire - GCN2.0 - wiki). GF 1050 (bez Ti) má cca 1,7TFLOPu při 75W TDP a to na 14nm. GT 1030 má 30W při cca 900 TFLOPu (1k1 v boostu, ale to bude mimo TDP), opět na 14nm (aby mi nebylo ukřivděno). Myslí si opravdu někdo, že tohle vymáčkne 1,3TFLOPu se spotřebou pod 30W? Víte kolik je 30W odpadního tepla? Zkuste si někdo držet v ruce pořádnej 10W odpor, kterej bude zatěžovanej na těch 10W tepelné ztráty, i to by byl problém pasivně uchladit, natož 3× tolik. Mimochodem, Radeon Pro WX4100 (Polaris 11) má při svém 50W TDP cca 1k8 TFLOPu (v boostu 2k4), čili je efektivnější jak nV, nicméně kdybych to měl opravdu odhadnout, tak 1,3TFLOPu pod 30W i na 7nm jen tak něco nedá.
CPU: 28nm jaguar, který vychází z buldozeru, který spatřil světlo světa v roce 2011. Zvýšilo se sice IPC, ale i tak je to CPU dušeno na 1,8GHz a jsou tam dva moduly po čtyřech jádrech. Dejme tomu že jeden modul nahradí vzhledem k jeho frekvenci i 1C/2T novější intel/amd stroj jádro (když si vzpomenu na IPC vishery, které bylo prakticky poloviční proti novějšímu intelu - na podobné/ekvivalentní frekvenci). Tzn. to SoC v JáPodložce by mělo výkonově (v čem vlastně porovnáváme?) nějaký moderní 2C/4T intel/AMD produkt. To samo o sobě není vysoká laťka, nicméně máme tu 14nm Ryzen APU a to i s mobilní vegou. Tahle sranda má 35W TDP, nicméně je jasné, že se plně vytížená očesaná veka spolu s plně vytíženým ryzenem do tohoto TDP nevejde... a taky že ne, celé si to cucne v loadu podstatně více. MT výkon to má logicky bídný, srovnatelný právě se starými Ax CPU od AMD (překvapivě, když tvrdím, že tohle bude konkurovat 2 modulů - 8C/8T systému). Pokud bychom tedy chtěli srovnat výkon s X krabicí, což je taky X86 CPU, tak bychom opět potřebovali alespoň těch 30W.
A teď mi řekněte, jak je ten epl tak dokonalej, že dokázal pouhým přechodem z 14nm na 7nm srazit spotřebu komponent, které při zátěži konzumují více jak 50W dohromady na méně než 10W (aby vám to nespálilo v zátěži pracky, nevyžahlo to baterii za pár minut a neupeklo to samo sebe, neb to "kolotoč na prach" nemá). Možná by to někdo v ezoterickém pořadu dokázal dokázat, ale v tomhle světě, kde nějak funguje fyzika, kterou jsme sprostě obšlehli z přírody, zřejmě moc ne.
No a zbytek je výsměch. To úložiště nebude megarychlé, takže tam budou čipy s co největší kapacitou, aby jich bylo co nejméně. MLC tam tutově taky nebudou, takže TLC odpad. Řadič asi neřeší, to buď od někoho koupili nebo si to řeší po svém, kanálů minimum, takže náklady to samé. Baterii vyrobí číňan za pár šušňů, display umí taky číňan levně a to zbylé smetí... 5 mikrofonů po pár korunách (dobře, polovodičové pidiaturní budou stát o něco více, ale při těch objemech). Ne, to prostě tu cenotvorbu neobhájí a to tvrzení už vůbec ne. Majitelé Xboxů mohou být v klidu, stejně jako majitelé dalších zajímavějších zařízení.
A poslední, teď už nekritický pohled. iOS 12 údajně vyžaduje 5GB prostoru pro nějaké rozumné fungování (systém + tempy, ...), čili nejnižší varianta by v tomhle případě mohla i stačit, pokud uživatel nebude toužit tahat sebou BluRay ripy a podobné důležitosti. V tom případě pak cena za HW už nebude tak nechutná a z mého pohledu i snesitelná. Nicméně ty dražší varianty nad 30k, to už je trochu mimo (vzhledem ke standardní marži kabelky s bonusovou funkcí počítače).
Pointa je v tom, ze neni potreba to delat celoplosne tenke. S touto debilitou prisel IMHO prave Apple. Misto toho, aby Apple vyuzil jisty pokrok v kapacite baterii tim spravnym zpusobem (daval tam stejne baterie s vetsi kapacitou), neustale a neustale dela tensi a tensi zarizeni (ktere si pak lidi davaji do neforemnych pouzder)
Tohle fakt problém není, ta hra není nijak náročná, ostatně se stačí podívat do min. požadavků. Zblajzne to HD5570 - 520GFLOPu a GTS 450 má cca 455 GFLOPu. Tohle podle mě reálně nějaké malé SoC zvládně (ostatně, podobný výpočetní výkon měly/mají iGPU intelu). Samozřejmě s nutností to pořešit po SW stránce souhlasím, ale nějakou revoluci ve výkonu bych od toho nečekal.
Ještě jsem kouknul na Nintendo Switch - Tegra X1 na 1GHz (dle wiki) dává 512 GFLOPu, v té konzoli by to mělo být udušeno na 300-400MHz. Na té CVI také má nějak chodit.
Sám nemám v ruce mobilní HW, který by měl oslnivý výkon (leda tak starou lumii 640XL), ale vím že současné mobilní SoC dokážou rozběhat celkem hezké scény, ale to šlo i kdysi na "velkém železe" s omezeným výkonem. Tak dva roky zpátky jsem dostal přidělen low-end tablet s nějakou hrou, kde jsem měl cosi klikat po dobu dovolené známé osoby (byl jsem doma a jednou za den... proč ne) a nevypadalo to špatně. Nicméně, opravdu to nebude soupeř krabice x, i skrze zastaralost celé platformy :)
Apple uvádí, že ten A12X má 8× výkonnější grafiku než A8, ten má podle Wikipedie 136,5 GFLOPS, A12X by tedy měl mít 1,1 TFLOPS. Takže hrubým výkonem je to už docela porovnatelné. Reálně by z toho Apple mohl mohl vystřískat víc, ignoruje DX i Vulkan a staví vlastní nízkoúrovňové API Metal, u které slibuje nejvyšší efektivitu. Tady mi prostě přijde, že tak moc nepřehání.
Nemít ji na PC, tak si to šestou Civku na Switch asi koupím. U ní ale půjde spíš o procesorový výkon, protože nějaké větší zápasy se spoustou národů a městských států tam dávají dost zahulit i PC (jako že se musí dlouho čekat na tahy soupeřů). Switch přitom není žádné dělo, má OK grafiku, ale procesor už něco pamatuje.
Jedna technická. AMD Jaguar nevychádza z bulldozeru ale z Bobcatu. Oproti modulom v bulldozeru je to celkom odlišné. Popravde má Zen oveľa bližšie k Jaguaru ako Jaguar k Bulldozeru.
Jaguar je klasické malé, nežravé jadro, krátka pipeline, malinká cache a frekvenčne bol jeho strop +-2.5Ghz (V šuplíku mi leží Athlon 5350- 4jadrový Jaguar-stock 2.05Ghz, max stableOC na 2.55Ghz pri 1.4V :D Zlatý čip, ani pri skoro 1.5V nešiel nad 45 stupňov C)
To je samozřejmě hezké, ale výpočetní výkon právě API obchází, proto jsem použil to (ostatně, nebylo by ani jinak možné porovnávat). Jestliže ostatní výrobci dosáhli určitého výpočetního výkonu při nějaké spotřebě a výrobního procesu, tak i kdybych měl očesat nějakou tu plochu křemíku (které je nepochybně aktivní) potřebnou pro chod grafiky pod nějakým API, tak stejně. Podle mě je to technicky nemožné, vyždímat z toho dlouhodobě výkon při určité spotřebě/tepelném vyzařováním.
Ono to ten výkon může dát, ale né dlouhodobě, to by prostě neuchladili. A k čemu ti to potom je? Max jako krátkodobý výpočetní akcelerátor, ale srovnávat to s herní konzolí, která je na hry a více méně pod vysokou zátěží dlouhodobě, to mi přijde mimo :)
dodatek: tím jsem chtěl říci především to, že revoluce ala xbox one je krám a nahradí to výkonem tahle hračka do jablečné společnosti, která je tak megadobrá, že nahrazuje xbox. Aneb "jste hloupí", že máte vedle televize takovouhle obrovskou, špatnou, neefektivní bednu, protože tohle to strčí do kapsy.
To je stejné jako ty Core M/Y a já nevímco produkty. Ono to krátkodobě dokáže suplovat "výkonější" železo, ale opravdu jen krátkodobě. Jak se to ohřeje, tak je to velký špatný. Pak tu máme produkt, který sežral hromadu křemíku, který je ale většinu času nevyužitej, protože v zátěži moc žere a jeho potenciál se projevi jen občas (hromada křemíku je samozřejmě relativní pojem - stačí se podívat na velikost čipu Polarisu11, ale očekávám že ty 7nm kousky budou sakra drahé).
Už trochu, asi víc... OT. Nevím jak moc hraješ, ale obecně to škálování výkonu v rámci nějakého enginu/hry je poslední roky fuj, ble, ee-eeee. Poslední roky se přiznám, hraju jen wowko, protože mi to stačilo a alespoň jsem ušetřil, ale ještě před těmi 2-3 roky jsem tu a tam nainstaloval a dohrál. Takže onou optimalizací kódu na určitý HW udělá hodně, výkon platformy to nezvedne, ale odezvu a "výkon" v rámci programu/aplikace, klidně mnohonásobně (někdy je samozřejmě potřeba i něco ubrat, ale oko/mozek to tolik nepocítí - viz. konzole).
Teď jsem zrovna "marod" a "spustil" jsem wowko i na tak vousatém HW, jako je Quadro FX800M, není to plynulé, občas to dropne i pomalu do záporného frameratu, ale běží to. Pár metrů odemne je vodní V64, která má skoro 100× takový výpočetní výkon, je to plynulejší, člověk to pak samozřejmě nehraje na "low" a oroštuje tam i nějakou tu formu AA. Nicméně ten rozdíl není jako kdysi - Quake 1 v SW renderu proti OGL v 640×480. Každej, byť maličkej "improve v grafice" strojí dneska brutální kopec prostředků navíc, a o tom to je :)
Však oni z toho nedělají herní konzoli. Dokážu si ale představit, že nějaká budoucí Apple TV, kde můžou dát větší čip i chlazení, by už na hraní fakt být mohla (on už se o to Apple snažil i dřív, jenže ty mobilní hry na televizi nejsou moc vhodné). Byla by to vlastně pecka, kdyby k Sony, MS a Nintendu zase přibyl nový hráč. To znovuoživené Atari bude průšvih a Apple má prachy na to vybudovat životaschopnou platformu. :)
Ono už se moc neoptimalizuje ani pro ty konzole, alespoň mi to tak připadá. Nějaké exkluzivity, které si dělá Sony nebo Nintendo, tam je asi vidět, že mají pro ten vlastní hardware nějaký cit, ale u multiplaformních titulů to tvůrci spíš nějak zalátají, aby to prostě fungovalo. Ale nejsem vývojář, je to jen můj pocit.
Zrovna WOW jsem nikdy nehrál, onlinovky mě neberou a zrovna nedávno mě překvapilo, že WOW je i po 15 letech pořád tak populární a vypadá po všech těch upgradech vlastně docela moderně. Až tak, že Blizzard snad chystá vydat nějakou původní vanila verzi.
Tady ti nechci kazit iluze, mají silnou značku, ale současný datadisk není moc populární, spíš naopak. Je tam cítit určítý trend, podobně jako u intelu. Jeden tým má lepší výsledky jak ten druhý a střídají se, aby bylo zachováno tempo a generoval se zisk. S tím classicem nevím kam přesně cílí, ale pro popis a rozbor dané problematiky bych musel napsat opravdu mnoho textu. Pokud máš rád příběh warcraftu, tak i skrze jen to, že vyexpíš, projdeš nějaké lokace a tak za to stojí.
Co ovšem wow několik let úspěšně dodržuje, je brutální neoptimalizace. Dokonce je v současném stavu i lepší vlastnit starší železo, protože se děje nehezká věc - moderní CPU/GPU se flákají a framerate rozhodně není optimální. A trpí to i dalšími neduhy. Proto ho velmi rád vytahuju jako ten nejlepší příklad, jak to nemá vypadat. Naopak, byť už je to také vousatá hra, Trine 2. Ta gamesa opravdu vytížila HW a nebyly tam nijak vysoké nároky na CPU.
Osobně se obávám, že tím, jak se naráží na limity v HW bude muset dojít ke značné redukci nadbytečného kódu/instrukcí, aby jsme se posunuli někam dál. Bude nás to stát komfort a čas, ale když už nic jiného nezbyde ;) AMD s Mantle dalo jasný směr, Vulkan, Metal, DX12 jsou důkazem, že to funguje. Dalším krokem by mělo být odpoutání se od uzavřeného blobu a víc se otevřít, protože myslím že nejsem sám, kdo je z kroků jedné či druhé společnosti trochu rozmrzelý. Samozřejmě budou se snažit to držet co nejdéle pod pokličkou, ale MS a DX API tady nebude věčně (snad).