Čim ďalej to vypadá, že Intel s jeho big.LITTLE v desktope vznikne len kvôli marketingu "Aj máme 16 jadier" pritom bude musieť skripliť inštrukcie na veľkých jadrách. Cítim fail. Keď proste nedokáže narvať 16 veľkých jadier do monolitu s požadovanými frekvenciami, spotrebou, veľkosťou a výťažnosťou tak nech sa na to vysere, alebo nech aj on spraví čiplety. Skôr či neskôr bude musieť aj tak, lebo ak AMD zvýši jadrá v CCD u ZEN4, čo je viac než pravdepodobné tak bude mať veľký problém.
Že by časem ARM architektura měla konkurovat x86 v desktopech a WS? Nejdřív mi ta myšlenka přišla až kacířská. Nicméně s odstupem času mi to pčipadá čím dál rozumnější. Respektive vlastně proč ne?
Každá poctivá konkurence je dobrá a pokud by to přivedlo do hry k AMD a Intelu další výrobce, jedině dobře.
Co by ovšem mohla být velká "vada na kráse", je případná koupě ARMu nVidií. V tom osobně spatřuji velké riziko pro celý trh s procesory.
Ta konkurence pro notebooky a halvne desktopovy trh je zatim porad hypoteticka. Dokud nepresvedcis hromadne vyrobce HW, aby zacali ve velkem delat ARM notase, prepsal se na to SW, tak to bude ve stadiu exotickeho HW pro uzke specificke skupiny uzivatelu, kde to muze davat smysl. Ale to je tak asi vse.
Zcela s Vámi souhlasím. Navíc si myslím že koncept big little je jenom takový předvoj (náležitě marketingově zviditelněný) toho co teprve přijde a nazval bych to many little. Tohle přijde až se naučí opravdu dobře a efektivně spojovat tyhle jednotky. Uvidíme jak mi tahle moje fabulace vyjde nebo nevyjde v budoucnosti.
V čem je jste riziko Nvidia jste si odpověděl sám. Tímhle jste si odpověděl "ARM ovlada velky trh a pritom na nem nevydelava." Nyní ARM koupila Nvidia a ty peníze co za něj dala musí někde vydělat. To povede ke zdražení a snížení konkurenceschopnosti ARMu.
Busuness není o nalejvání ale o získávání peněz.
Ve zkratce vám odpověděl DedekHrib.
Mobilní trh kompletně ovládaný nVidií nemůže dopadnout dobře.
Stejně tak tlak na Apple, který chce na licencovaných technologiích postavit budoucnost svého ekosystému.
Pokud nVidia ARM získá, bude to průšvih - bude všemožně znevýhodňovat doteď přijatelné licencování a to hlavně firmám jakkoliv nVidii konkurujícím. Navíc nVidia nikdy nepřála otevřeným technologiím, takže nějaké zákaznické úpravy půjdou též do kytek.
A sliby nVidie, že ponechá ARM tak, jak je? Tomu snad nikdo s kapkou kritického smýšlen nevěří. Je to Americká firma a té půjdou případné soudy v USA na ruku. Obzvláště když budou USA moct tlačit tímto způsobem na čínské výrobce elektroniky používající ARM. Pro obchodní válku s čínou dokonalý nástroj.
Taky mne to prekvapilo. Ale dava to smysl. Kdo potrebuje, aby notebook jel nepretrzite "v uspornem rezimu" 24/7. Neni to mobil. Mne dava vetsi smysl, pridat velka jadra, jako to dela AMD a zvysit vykon.
Pokud pujde stejnou cestou i Apple s jeho A14X chipem pro notebooky, tak bude zajimave, jak si to Intel jednak obhaji a co z Intelu na konec vykonove vypadne.
Oboum odpovedim rozumim.
Nicmene ARM se prodalo Softbance, ta uz ho nechce. Nevydelavalo ji. Koupi ho teda nekdo jiny a pravdepodobnost, ze ARM koupi nejaky mecenas, ktery ji necha nevydelavat, je rovna temer nule.
Takze je to jen o tom, kdo to koupi a NVidia urcite neni nejhorsi moznost. Takovy Apple, kdyby se nechal presvedcit a koupil to, to by byla teprve rana!
ARM vydělával vydělává a vydělávat bude. Ta softbanka ho prodala protože sama potřebovala peníze. S tím Applem by to asi opravdu bylo horší ale mám pocit, že to je jenom ono pověstné z lože pod okap. Síla ARMu byla v tom, že byl takové nezávislé Lego. Obě varianty (Nvidia i Apple) tu nezávislost torpédují.
Mě přijde, že ty úsporná jádra (třeba pro procesy na pozadí) můžou mít smysl, že to může přinést efektivnější využití energie. I když k tomu by to možná chtělo ta malá jádra víc specializovat na co nejnižší příkon, kdežto Intel je možná trochu překlápí k vyššímu výkonu - uvidíme.
Kdyby to dobře spolupracovalo se softwarem, tak si představuju, že by někdy v budoucnu třeba mohl panovat stav, kdy běžný idle desktop ve Windows žere třeba 100 mW, protože takové ty periodiky se probouzející hlouposti na pozadí včetně třeba updatů skype/telegramu/whatsapp a herních launcherů na pozadí a tak dále jsou dělané na malém jádru a to velké výkonné se probudí jenom když spouštím program a nebo otevřu ve Firefoxu stránku (a je třeba co nejrychlejc/nejresponzivnějc ji vykreslit).
Dneska se k tomuhle probouzejí velká jádra a podle parametrů to můžou být slušné watty příkonu. Kdyby se hodně takových výkyvů eliminovala miniaturníma vysoce efektivníma jádrama, tak by třeba idle desktop mohl většinu času běžet s vypnutým ventilátorem na chladiči CPU a ten by se rozběhl třeba až kdybyste vytížili velké jádro/jádra na víc jak minutu... (protože by byl víc studený než je teď).
Teoreticky to může i zvýšit výkon, ale tam je asi těžší to udělat smysluplně (ale pokud máte čtyři Atom jádra za cenu jednoho velkého, může se to vyplatit). Jako nezavrhoval bych to automaticky.
@JO
s tim co pisete se da klidne souhlasit, ale napada mne..jak chcete zarucit, aby scheduler poznal, ze je to "nevyznamny" task? Da se opravdu cekat, ze to vyznamne usetri, kdyz dnesni CPU prepinaji dynamicky cca 5nasobek svoji frekvence. Aspon u mne treba notebook lita z 800-4000Mhz. Bude male jadro na 2Ghz mit lepsi spotrebu nez velke na 800Mhz? Co doba zpracovani ulohy? Atd..
Ono zbytecne zapnuty pocitac stejne napaji daleko vic casti, nez jen CPU. Z toho pohledu je ekologictejsi jej jednoduse vypnout :)
Intel spis vypada, ze ty jadra lepi pro zvyseni vykonu nez pro usporu energie...
"... aby třeba programátor nějakýho Steam/Epic/Bethesda Launcheru věděl, že nikdo nestojí o to, aby to na pozadí žřalo 10% CPU a hlásil nějak OS, že je „idle task"..." chichi ;) na to kadí p..rogramátor... nicméně mne napadá AI, které se zřejmě v dohledné době stane standardní součástí systémové výbavy PC. A to se klidně může potrénovat na to, aby se náročnost procesů naučilo rozpoznávat a výsledky předávat scheduleru, ať si to přebere.
Ono s tim programovanim a identifikaci to taky nebude tak jednoduche. Pokud budete pouzivat 2 ruzne typy jader a budete mit tasky, ktere se sami "identifikuji", tak su predstavte situaci, kdy tech 'malych' tasku bude v systemu treba tolik, ze ty male jadra nebudou stihat.
Dalsi vec je pak treba synchronizace mezi "velkym" a "malym" taksem, pokud je mezi nima nejaka zavislost, protoze casove kazdy z nich bude trvat jinou dobu, atd.
Smysluplne vyuziti konceptu big-little z programatorskeho levelu, asi nebude tak uplne jednoduche.
A dalsi vec - pokud moje aplikace (launcher) pro “mala jadra” bude potrebovat z nejakeho duvodu boost a nedostane ho, tak uzivatel zrejme nebude moc spokojen (napr. odezva UI). Tim by si potencialne vyvojar zadelaval na problem. Tzn. byt vyvojarem takoveho SW se radeji budu klasifikovat jako “velka aplikace” a spravu techto prostredku necham na OS.
Dalsi problem vidim v tech malych, a mozna zkriplenych jadrech - jak napr. portovat aplikaci z velkeho jadra na male (s pripadne omezenymi instrukcemi)? A to, co psal tombo - dnes umi CPU hodne dobre prepinat usporne stavy a frekvence, bude tedy male jadro opravdu takova uspora energie? Ale na big.LITTLE od intelu jsem zvedavy.
Ideální by asi bylo, kdyby se ty nevýznamné úlohy identifikovaly samy. Tj. aby třeba programátor nějakýho Steam/Epic/Bethesda Launcheru věděl, že nikdo nestojí o to, aby to na pozadí žřalo 10% CPU a hlásil nějak OS, že je "idle task", který by mohl být delegovaný na podobná pomocná jádra. Samozřejmě vyprfoilovat, kdy to má smysl, kdy ne, o kolik se tím může počítač zefektivnit a zda to má cenu, to bude komplexní úkol/dilema a laik od stolu to nevyřeší :)