Composite Theoretical Performance - Intel Corporation is providing the CTP Product Matrix for those customers located in countries where the CTP is still required as a measurement of
processor performance. <- stačí se podívat na stránky Intelu ;)
Na samé šičce má však Intel dva modely <- :D :D ja vím že jde o překlep ale i tak je vtipný ;)
Pro hraní bude podstatné, jaké to dokáže udržet takty při zatížení 4-6 jader a tím nemyslím papírové vícevláknové turbo, ale reálné hodnoty uchladitelné v konkrétních modelech. Jak je ve článku naznačeno, tak na 14nm procesu roste spotřeba u 6-8jader výrazně při taktech přes 4GHz. 9900K má myslím spotřebu udávaného TDP 95W při non-AVX zatížení všech jader někde kolem taktu 4,2-4,3GHz, na tovární all-core turbo 4,7GHz už potřebuje kolem 150W.
Takže je jasné, že při dodržení 45W TDP (a ani to nejsou některé notebooky schopné uchladit) budou ty takty dost nízko.
IMHO nemají 8jádra (při současném poměru spotřeba/výkon) co dělat v herních noteboocích, patří třeba do mobilních workstationů, kde má smysl aby tam pracovalo 8C/16T při nížších taktech pro multithread výkon, nebo pak v úplně extrémních řešeních, jako když např. Eurocom používá přímo desktopové procesory, ale to je rarita.
Jinak pro herní notebooky s dobrým chlazením ještě ta 6jádra mají smysl a pro tzv. "thin and light" herní notebooky je 4C/8T ideál, uchladitelný na rozumných taktech.
Byt jsem priznivcem "jader", tak za soucasneho stavu, mi neprijde optimalni cpat 8jadra do notebooku. Uz i u 6jader trpi dost notasu bezne throttlingem a frekvence jdou dolu na 3ghz i niz v zatezi, i kdyz specky mluvi o boostech z rise fantazie. 8jadra na tom budou jeste hur. Prinos bude typicky maly az zadny, v horsim pripade dokonce zaporny.
A pochopil jste, že Intel tyhle procesory vydá tohle jaro, zatímco AMD žádnou jejich 7nm konkurenci letos neplánuje? Tedy nějaké osmijádrové konkurence v noteboocích se dočkáme nejdříve za rok.
Podle vás se čas krátí, podle mě má Intel rok na to, aby si namastil kapsu při prodeji notebookových osmijader. Vzhledem k tomu, že dneska prodává notebookové šestijádro dráž, než všechna desktopová osmijádra, nebojím se, že by si to nenechal náležitě zaplatit.
V tomhle prostě AMD nepochopím. Notebookové čipy se prodávají dráž, notebookové čipy mohou využít náskoku v 7nm výrobní technologii, ale ne, oni je stejně budou ignorovat.
Já bych neřekl, že AMD na mobilní trh kašle. NTB to jsou velký korporáty a tam něco změnit je na roky. AMD se může nejrychleji prosadit tam, kde může cílit na menší zákazníky, kde za výběr platformy zodpovídají lidi, kteří tomu rozumí.
Největší šanci v NTB vidím, pokud by si nechali vyrábět několik modelů NTB a ty prodávali pod značkou AMD přímo.
Tohle jsou jen výmluvy. Vůbec není problém v tom, že by výrobci nechtěli dělat notebooky s AMDčkovejma procesorama. Dělá je Lenovo, HP, Acer, Asus, Dell...
Problém je, že když výrobce navrhne notebook pro Intel, může jeden model osadit různými procesory v docela velkém cenovém rozpětí. Tohle s AMD nejde. A proto jsou pak náklady na vývoj jednoho modelu vyšší, než u Intelu. Prostě na notebookový trh zvysoka kašlou a dojedou na to.
S tím, že by mohli prodávat notebooky přímo pod svou značkou, máte pravdu. Ale na to nemají finance. Nechat si někde vyrobit notebooky znamená, zaplatit za ně dříve, než je prodají, znamená to taky vybudovat servisní střediska a nějakou distribuční síť.
Ovšem ten desktopový otesánek nemá integrovanou grafiku, což je u notebooku celkem problém. I když k těmto výkonným Intelům taky dávají nějakou tu dedikovanou grafiku, tak při běžné činnosti to jede na integrovanou s výrazně nižší spotřebou.
Tedy ano, můžete postavit notebook na desktopovém čipu, ale pak ho budete muset mít pořád v zásuvce, protože na baterku nezvládne ani přehrát film.
Mě by hlavně zajímalo, proč AMD přichází tak zpožděně s těmi ULV CPU. Protože jak zmiňuješ výše, 15W procesory jsou násobně větší trh a 15W i7 např. jsou taky pěkně drahé a není tam tak malá marže.
U Intelu bývá praxe opačná a 15W procesory přichází na novém procesu často jako první, pak desktop a až s velkým zpožděním často HEDT a servery. Naopak AMD začíná s Epicem, v závěsu desktop a ty ULV čipy nepochopitelně až rok po desktopu. Nejspíš pro to nějaký praktický důvod bude, ale je to vážně nešťastné, když teď budou vydávat 12nm ULV CPU, přestože je 7nm proces plně k dispozici.
Protože tohle je přesně použití, kde by mohl 7nm křemík zazářit. Např. 15W čtyřjádra a třeba 15-25W seštijádra, schopná hodně slušných frekvencí na všech jádrech při daném TDP + Navi iGPU, tak to přijít v létě, mohlo by to být hodně atraktivní pro výrobce notebooků.
Jenže pokud to bude v r. 2020, tak Intel bude dost možná naopak mít jako první Ice Lake CPU právě 15W čipy a proti nim (pokud už jim tedy konečně bude 10nm proces fungovat jak má), AMD už nebude mít žádnou podstatnou výhodu. Proti aktuálním Intelům by tam byla velká výhoda.
Naopak tyto 45W herní procesory považuji z hlediska AMD za méně zajímavé, protože speciálně modely s i7/i9 jsou ze značné míry takové "luxusní produkty" a z hlediska marketingu bude nejspíš pořád zásadní ono spojení Intel + Nvidia. Stejně tak ono udávané turbo 5GHz vypadá v popisu produktu dobře.
Takže, byť by tu stejně jako u ULV mohla být velká výhoda v 7nm procesu, tak bych chápal výrobce, kteří by po tom ani tak nesáhli.
A i s tím iGPU se dá souhlasit, AMD by na to potřebovalo variantu se slabým iGPU kvůli oné spotřebě. Sice existují nějaké notebooky s desktopovými Ryzeny, ale to je rarita na podobné úrovni jako notebooky s desktopovými Intely, příp. i9-8950HK.
Nemajú prostriedky, to je jednoduché.
Na 7nm idú cez servery a výkonné desktopy lebo to sa zaplatí. Odpad z tohto pošlú do mainstreamu a po roku keď budú mať aj výrobnú kapacitu aj to bude lacnejšie, tak nato hodia APU/ULV.
Plus po vzdaní GlobalFoundries potrebujú vyťažiť 12/14nm proces aby nedostali penále - IO čip + APU to pokryje.
Ta "výrazně nižší spotřeba" je někde zadokumentována? Protože i pažravá Vega2 má v desktopu 12W, malé desktopové grafiky pak doslova pár W, a to se nijak na nízkou spotřebu nezaměřují (low voltage DDR, apod.)
Vidím to naopak, dnes je pro desktop prakticky jedno, jestli je grafika integrovaná, nebo se používá externí.
IMHO proto, že nemají kanály k OEM výrobcům. A na to, aby si je mohli vytvořit, potřebují schopnost saturovat poptávku, tedy dodávat značná množství těmto výrobcům.
Vem si, že Dell, HP nebo Lenovo (aj.) si téměř vše nechávají vyrábět u Quanta, dneska se odlišnosti mezi Dellem a třeba Lenovem stírají (zejména u levnějších modelových řad), čistě proto, že si tyto firmy nechávají vše vyvinout a vyrábět přímo u Quanta. No a Quanta zase potřebuje tyto zakázky vykrýt, takže vyžaduje velké objemy procesorů různých výkonových úrovní. A tady je (resp. určitě byl) u AMD prostě problém. Jak s objemem dodávek, tak variabilitou. No a samozřejmě výrobním linkám taky nesvědčí, když se musí předělávat z Intelu na AMD a zase zpátky...
Ten rozdíl je tam pořád dost velký, už jenom minimálně z toho, že se musí živit další paměti. Když jsem to nedávno zkoumal v různých testech, tak rozdíl integrovaná/samostatná grafika je typicky 8-15 W. 8W mají tak ty GT 1030 nebo RX 550/RX 560. Když vypínají ventilátor, tak to ještě tak o watt může jít dolů. DDR4/DDR3 by mělo žrát o něco málo míň než GDDR, ale míň než tohle jsem v testech nikde nenašel. I 2-3 W by v notebooku na baterii měly hodně negativní vliv.
J.O.: Třeba ta RX540 má TDP 50W, což, opět ve světle 45(+) W CPU, není přehnaně moc.
Nezapomínejme taky, že pokud není IGP v CPU, není tam taky žádná spotřeba z neaktivních kusů křemíku (tudíž se powerbudget může alokovat jinde). Typická diskrétní mobilní neintegrovaná GPU má dnes 64bit sběrnici a 2 čipy, to vše v 2D desktopu podtaktované (grafika i RAM někam na 100-200MHz), to nebude (odhadem) více než 4-5W.
Chtěl jsem tím jen demonstrovat, že by to šlo.
Kdysi jsem měl jako pracovní stroj Dell C640 který obsahoval P4M+nějakou mobilní ATinu.To byl reálně smažák! :-) A přesto, pokud jel na baterky, vydržel spolehlivě fungovat nějaké 2 hodiny.
edit: našel jsem recenzi, ve které potvrzují běh přes 2 hodiny: https://www.cnet.com/reviews/dell-latitude-c640-review/