"Tedy je docela pravděpodobná možnost, že také architektura Crestmont bude také využitá ve dvou generacích, což by způsobilo, že po Meteor Lake bude AVX-512 prakticky nemožné i v následující 15. generaci Core (2nm či 3nm Arrow Lake v roce 2024).
Další šance pro opětovné nasazení AVX-512 do „klientských“ (pro desktop a notebooky) procesorů Intel by tak byla až v roce 2025 s 1,8nm procesory Lunar Lake (Core 16. generace, pokud se do té doby značení nezmění)"
who cares .....
Tím si Intel v podstatě podsebou podřezává větev, AVX Iinstrukce bylo to co v dřívějších procesorech dávalo Intelu ještě nějaký náskok nebo sílu ,
S příchodem prvních Ryzenu byl Intel stále dominantní, ZEN ještě nebyl vyzrálý, ZEN+ byla jen optimalizace kterou Intel dohnal pouhým přidáním jader a frekvencí, ale i ZEN2 který stále vlastním (12 jader) nemá vítězství tak jednoznačné nad CPU od konkurence z téhož roku (dokonce jen s 8 jádry který taky vlastním),
i když mnoho lidí tvrdí že ZEN2 už vyhrál na architekturou od Intelu na plné čáře, tak to není zcela pravda a v AVX úkolech dominuje Intel
Rozdíl se začal smazat až s příchodem ZEN3 (Ryz.5000) který byl rychlejší nebo srovnatelný,
A až Ryz.7000 vítězí (téměř) všude.
A právě AVX512 je to kvůli čemu tentokrát budu kupovat Ryzen 7000
Tak tyhle infa vicemene muzou podporivat nazor, ze Inteli B-L v aktualni konfiguraci, byl 'narychlo' spichnuty slepenec, jako reakce na AMD dominanci v MT oblasti, kterou Intel nebyl schopny svymi navrhy velkych monolitickych chipu konkurovat. A bohuzel diky stale dominanci Intelu na trhu x86, budeme muset s timhle kockopsem fungovat dal.
Nie, že by ma to nejak extra zaujimalo, ale keď sa nad tým človek zamyslí a nahliadne z iného uhlu, tak to aj ma svoj význam, hoci vtipný. :)
Možno chceli poukázať práve nato, že tie malé jadra, sú vlastne “veľké” a zákazník sa nemusí obávať ich slabšieho výkonu, zatiaľ čo výraz “big”, mohol naopak už z podstaty zostať malým písmom.
V konceptu big.LITTLE samozřemě nic shnilého není. Je to zcela relevantní způsob, jak získat kontrolu nad spotřebou tam, kde neumíš snižovat spotřebu v době nečinnosti zařízení.
Samozřejmě by bylo mnohem lepší, kdyby fungovalo snižování frekvence procesoru skoro až k nule a kdyby výrobce uměl automatické odpojování těch částí procesoru, které zrovna nejsou potřeba.
Jenže vývoj a výroba takovýchto procesorů by byla pravděpodobně dražší než výroba procesorů se dvěma separátními typy jader, jedny zaměřené na výkon a druhé na spotřebu.
V mobilním segmentu, kde kvůli omezené kapacitě baterií musíš honit spotřebu a zároveň kladeš důraz i na cenu těchto zařízení, je prostě koncept big.LITTLE relevantním způsobem řešení problému.
Zhovadilost z toho udělal až Intel, který to začal rvát do desktopu a to především proto, že jeho procesory by jinak měly spotřebu, kterou uživatel desktopu nedokáže uchladit. Nejde tedy u Intelu o apriori snižování spotřeby, ale o s tím související nutnost masivního chlazení. Intel je prostě zcela mimo a nedokázal vyvinout nic kloudného, tak použil do desktopu mobilní technologii. Něco takového koupí jen blázen.
To není jen o produktivitě, ale třeba i o emulátorech. Kdybych měl dva srovnatelné produkty a jen jeden z nich měl AVX-512, tak mu v novém kompu dám přednost i kdybych to nepotřeboval. Za rok by mohla být situace jiná. Jak si asi myslíš, že kdysi začínaly dnes normální AVX? Stejně pitomou otázkou, jen od někoho jiného.
Pokud je to starší (dříve vyrobená) revize, tak to jde: v BIOSu desky bývá možné ho zapnout (po deaktivaci E-Core). Ale Může být nutné nahrát starší BIOS desky, protože Intel mezitím vydal aktualizaci mikrokódu, která zapnutí znemožňuje a novější BIOSy desek budou mít tenhle mikrokód v sobě. A také ho může zavádět operační systém, přes který se aktualizace mikrokódu taky distribuují (ta aktualizace jde odinstalovat).
Po určité době začal Intel prodávat revize procesorů, u kterých už se to takhle zapnout nedá: https://www.cnews.cz/definitivni-konec-avx-512-na-alder-lake-nove-cipy-ho-maji-hardwarove-pryc-uz-ho-nezapnete/Ale vyplatí se to asi hlavně pro programátora/vývojáře, protože přece jenom asi člověk většinou ztratí dost výkonu v aplikacích, které by dokázaly čtyři vlákna z E-Core využít.
Tady v tomhle článku se píše, které šarže by snad měly AVX-512 umět: https://github.com/zingaburga/alderlake_avx512/wiki?s=09
"Check the CPU’s batch# starts with V149 or X149, or a lower number. Those starting with V150/X150 to V201/X201 may support it, whilst V202/X202 or a higher number likely don’t."
Tak proč jenom nezlepšili existující dynamic frequency scaling (DFS)? Tím poukazuji na to že to asi zase tak drahé nebude. Oni namísto toho vymyslí mechanismus spolupráce různých jader co musela být fuška a domnívám se že to bylo náročnější než vylepšení DFS.
https://en.wikipedia.org/wiki/Dynamic_frequency_scaling
Až na tu “nouzecnost”. Já si pořád myslím, že malá jádra mohou v systému zastávat roli právě toho “bijícího srdce” a držet spotřebu dole. Problém vidím v tom, že ani SW (a to hlavně), ani HW ještě v tomto konceptu není zvládnutý dobře. Přirovnal bych to třeba k efektivním RT a Tensor jádrům, které fungují (a ano, fungují nad omezeným počtem specifických operací, takže implementace je výrazně jednodušší, než u obecnějších CPU jader).
Že je Intel zoufalý a produkuje šmejdy jen aby se držel na pomyslné špičce, to je věc druhá.
Doufám, že jste nemyslel mě :).
Jinak k původní otázce, kdo to používá - to je právě ono, člověk to vůbec nemusí tušit, že to používá. Milionům uživatelů právě teď běží "můj" AVX512 kód a nemají o tom vůbec tušení. SIMD obecně není něco extra navíc speciálního. Jsou to v podstatě normální instrukce, které když se dobře použijí, tak mohou značně zvýšit výkon skoro jakéhokoliv SW a konkrétně AVX512 přidává features, které tento okruh možného použití značně rozšiřují (to je nejspíš dobře vidět v tom nechvalně známém testu na AnandTechu). Proto je velká škoda, že to Intel neimplementoval do malých jader, protože tím značně ztížil život vývojářům a tím pádem i adopci. Kdyby to teď podporoval každý CPU, tak řekněme za 10 let by celý SW ekosystém s tím počítal (řekněme jako teď x64/SSE2) a došlo by k zrychlení napříč celým SW díky plné podoře kompilátorů, knihoven atd.
Já to tedy v případě x86 vidím úplně obráceně. Něco jako "malá jádra" nedává smysl, pokud chceš zachovat kompletní instrukční sadu. A zejména to nedává smysl v případě, který zvolil Intel - ten totiž neřešil malý odběr, ale to, že potřeboval navýšit počet jader a ta jeho stávající plnohodnotná+monolitická jsou na výrobu více než 8C CPU prostě už moc velká. Problém Intelu nejsou stavy podtaktování a běhu na nízký odběr, to on moc dobře umí i s P-jádry. Zbytek pohádky Intelu o E-jádrech je mytologie o "úsporrných jádrech" kterými maskuje výše zmíněné.
Na to, abys udržel systém "při životě" totiž taky nepotřebuješ 8 "malých" E-sráčů, ale stačí třeba jen dva (ty bez potíží obslouží jádro, síťový stack a udrží aplikace "uspané" a v případě potřeby "probuzení" celého PC). Jejich smysl je tedy pouze v navyšování specifického MT výkonu proti konkurenci, v ničem jiném.
Nemusí vypínat stačí když pojedou jedním hertz. I tak by to byla pořádná úspora. Ale i tak jsem optimista, že vy vypnutí nemuselo být takový problém. Ano moje znalosti v tomto oboru jsou chabé. Ale celý procesor se už přece dá uspat.
Tohle mne děsí "A nakonec cestou big.Little se vydali všichni kromě AMD a samozřejmě si přeju, aby jim AMD ukázala a šla na to přes DFS." Dá se to totiž vyložit že ostatní jsou taková kopyta že to neumí a že ti v tomhle máme nový monopol. Místo modrého máme zelený.
Já jsem to myslel podobně, možná to srdce bylo příliš zavádějící k běhu OS. Co se týká “efektivních” jader, tak to tu myslím píšu od začátku AL, že nemají nic společného s efektivitou a spotřebou. Co se týká rozdílných instrukčních sad, k tomu jsem skeptický od začátku. Takže tady se shodneme.
Obecně (a můj příspěvek x86 nezmiňoval) ale stále věřím, že big.LITTLE fungovat může (a klidně to může být stylem stejných jader, ale nízko taktovaných, popř. i jinak).
Já si nemyslím, že Intel řešil spotřebu a odvod tepla. To tu psal i tynyt. Podle mě má Intel big.LITTLE CPU kvůli výkonu, který chtěl zvýšit. Logicky by to vedlo na “big” jádra bez LITTLE, že? Jenže tam leží ten problém. Monolit s 24, 32 jádry vs vyrobitelnost vs cena.
Ještě k těm teplotám - vzhledem k příkonu není paradoxně Intel ten, kdo má v této oblasti problémy ;-) A PM má Intel také skvělý už hóóódně dlouho (tohle už tu ale také bylo řečeno).
Redmarx, Intel čiplety neměl a AL by čipletově nestihnul. Ani Raptora. Proto musel začít ořezávat a zmenšovat, marketing to následně prezentoval jako výhodu a nazval to pěkně zavádějícím názvem (za mě prostě lživým) “efektivní jádro”.
Kdyby Intel uměl čiplety, tak nemá tohle: https://www.cnews.cz/intel-chysta-procesor-raptor-lake-s-34-jadry-a-bez-big-little-nejvetsi-cip-jaky-kdy-vyrobil/
RemMes 19.10.2022 at 21:02
Efektivní jádra už to slovo efektivní říká, že ta velká jádra mají problémy s efektivitou. Vycházíte z mylného předpokladu. Intel řešil právě spotřebu a odvod tepla. Jinak by si takto zbytečně nekomplikoval život a nespojoval kočku a psa. Dohnala ho k tomu jeho zpotvořená výroba. protože neumí vyrobit efektivní velká jádra.
Dedekhribb
Intel řešil efektivitu a teplo a výsledkem jsou P+E jádra a 250W? :-D Ono stačí přemýšlet a došlo by ti, jak velkou hloupost jsi napsal. Doslova nad tvým komentářem máš důkaz, že Intel přesně tohle neřešil (akorát jsi jim na ten marketingový výraz skočil), stačí jen ten odkaz otevřít a číst.
@RemMes Ale Intel přeci nepotřebuje mít všechna velká P jádra vyrobená jako monolit. Stejně jako má čipletové řešení velkých jader AMD, může ho mít i Intel.
Intel těma E jádrama opravdu řešil chlazení nebo-li TDP a na to navázanou spotřebu. Potřeboval něco, co mu dá nějaký výkon aspoň trochu konkurenční k AMD a půjde to uchladit. Celé to je jen proto, že mají jeho P jádra příliš velkou spotřebu a teda příliš ztrátového tepla.
Mimo jiné totiž platí, že je spousta úloh, které paralelizaci nesnesou, typicky enkodování videa. Potřebuješ tam, aby se zpracovával ideálně celý obraz najednou a nedělil se nijak. E cores tak jsou na zpracování obrazu zcela k ničemu a pokud máš třeba 8 P cores prostě zpracuješ 8 streamů najednou. Pro amaterského fotografa zbytečnost, pro profesionála nutnost, ale procesory od Intelu ti rázem přináší podstatně nižší výkon.