Kdo ma zajem zkouknout vykon ve hrach tak tady srovnani IceLake (22W TDP), Picaso (20W TDP) a Renoir (20W TDP)
Prekvapive ;) je v 5 z 5 testovanych her je Renoir (pokud sjem neco neprehledl) vyrazne rychlejsi i pres o chlup vyssi TDP IceLake ;)
Pameti byli u IceLake a Renoir pouzite stejne, takze se da rict, ze minalne v tomto vzorku her a konfiguraci GK je Renoir podstatne lepsi.
https://www.youtube.com/watch?v=Q4_EJ9f96rE
Hmm, teď jsem viděl, že to pouzdro má podle odhadů okolo 3700 mm².
Já si teda hned říkal, že 4 × 600-700mm² křemík by asi nemohl v jednom pouzdru být, když si vezmu, jak vypadá po delidu Xeon W-3175X, tak je jasný, že takhle veký křemíky by nejspíš kolem sebe měly víc volnýho místa a to pouzdro by musela být ještě větší lopata. https://cdn.mos.cms.futurecdn.net/bPHbyaFsMCKURfKXMApFKf-1200-80.jpg
Takže buď to není čtyřčipletové kombo, nebo mi z toho vyplývá, že ty čiplety budou spíš celkem malé, a tudíž těch 4096 shaderů na jeden čiplet (krát čtyř) nejspíš není možné. Tak si jdu připojit do ankety a tipnu těch 4×128 EU, uvidíme, jak ta intuice dopadne ???? Původně jsem se k tomu taky trochu klonil vzhledem k těm údajným spotřebám - provozovat 3000 mm² na 500 W je trošku plýtvání křemíkem, holt jsem udělal chybu, že jsem tu velikost nezkoušel odhadnout.
Historie se opakuje. Tynyt pindá. Zatím to vypadá, že integrovaná grafika v Tiger Lake bude cca na úrovni integrované grafiky v Renoiru. Tedy ta samostatná, s výkonem kousek nad integrovanou, kterou budou párovat se 14nm notebookovými čipy, ji pravděpodobně s přehledem překoná.
A že integrovanou grafiku překoná i ten čip, o kterém je článek, by asi nemusel pochybovat nikdo.
Já vůbec netvrdím, že Xe bude nějaký extra úspěch. Na to je totiž potřeba víc, než jen nějaký hrubý výkon. Ale přijde mi dost divné se navážet do něčeho, o čem toho moc nevím.
Princip Larrabee byl v tom, že GPU bylo postavené na x86 architektuře, tedy programovalo se stejně, jako x86 CPU. To se ukázalo nevýhodné ze dvou důvodů. Jednak nebylo moc těch, kdo na tom chtěli programovat a druhý důvod byl ten, že když už na tom někdo něco programoval, tak k tomu přistupoval jako k jednoduchému GPU, tedy nevyužíval ani zdaleka všech možností té architektury.
V tomhle je ta Xe architektura úplně jiná (daleko primitivnější, ale daleko blíže tomu, co nabízí konkurence).
https://www.cnews.cz/intel-gpu-architektura-xe-samostatne-graficke-karty-10nm-tigerlake-odhaleni
Tak až to "zatím vypadat přestane" a půjde koupit grafiku, která jak tvrdíš bude lepší než Renoir. Zatím je tedy venku jen tato newska: https://www.svethardware.cz/unikaji-benchmarky-intelu-xe-v-tiger-lake-je-lepsi-nez-amd-vega-8/51647 která ovšem ukazuje, že Intel má problémy se spotřebou, takže aby dosáhl srovnatelného grafického výkonu, musel zásadně omezit ten procesorový - tak to mezi řádky čtu já. Nevíme, jakou bude mít spotřebu, ale tipnu si, že s ohledem na ST výkonovou mantru si Intel nedovolí vydat Tigera na směšných 2,8GHz - což zase znamená buď zásadní snížení grafického výkonu, NEBO nesmyslně vysokou spotřebu.
Za mě se teda žádná konkurence pro Renoir nekoná. A pokud se bavíme o řešení s dedikovanou grafikou, tak potom Renoir s libovolnou adekvátní nvidií, nebo lépe RDNA GPU (kde lze čekat lepší provozní vlastnosti díky lepšímu provázání platforem) intelí řešení rozmázne.
edit: a to už ani nezmiňuju, že Cezanne je na cestě...
úniky, podle kterých má první GPU Intelu (označené jako Xe DG1) relativně malou „velikost“ co do počtu výpočetních jednotek, zřejmě obsahuje 96 EU (768 stream procesorů/shaderů), což by vlastně byla stejná konfigurace, jakou Intel použije v integrovaném GPU v procesorech Tiger Lake – obojí je založeno i na stejné architektuře Xe/Gen12
Zdroj:
https://www.cnews.cz/intel-ukazak-wafer-s-prvnim-gpu-xe-dg1-velikost-cipu
A zase pindáte. Co do toho taháte nějaký procesorový výkon? Tam je snad jasné, že čtyřjádro Tiger Lake je horší, než osmijádro Renoir. A že 15W APU, ať už od Intelu nebo AMD (všechno v libovolné generaci) nedokáže současně zatížit na maximum CPU i GPU část, je snad jasné naprosto každému, evidentně s výjimkou vás.
Tedy o jaké integrované grafice, co nemá žádný problém tu Xe překonat, mluvíte?
"která ovšem ukazuje, že Intel má problémy se spotřebou, takže aby dosáhl srovnatelného grafického výkonu, musel zásadně omezit ten procesorový – tak to mezi řádky čtu já."
To je IMHO moc předčasný závěr, u těch unikajících vzorků se můžou dít různé divnosti a pokud si vzpomínám, tak byl zase i uniklý test v 3dmarku nebo něčem, kde měl Renoir taky vysoké GPU a vysoké CPU skóre, ale špatné kombinované skóre, což implikovalo, že bylo špatné řízení taktů a GPU moc omezovalo CPU ve spotřebě nebo naopak.
S takovýmahle výkladama je třeba počkat, až to vyjde a budeme opravdu vidět, jak to reálně funguje. Ne vyjít z nějakého střípku měřeného na ES, který vůbec nemusí být typický, a pak to extrapolovat jako absolutní pravdu o těch procesorech.
Asi zalezi od ocekavani. Osobne jsem od grafiky IceLake nic neocekaval, tudiz podle mne je to na Intel slusny pocin. I drivery pry uz snad i docela funguji ve hrach (do hloubky jsem to nesledoval).
Od TigerLake osobne taky moc necekam, protoze mi to pro tuhle tridu CPU, pokud bude prevazne v bussines notebooich , prijde jako "nice to have" vlastnost, misto neceho, nad cim bych mel achat. Spis jsem zvedavy na CPU od TigerLake. Letos to vyhral v grafikach Renoir, tam to TigerLake nezmeni, i kdyby byl nakrasno rychlejsi.
Ze celkem slušného a korektního Holečka se stal tlučhuba. To IT dění má nějaký neblahý vliv na jedince. Za chvíli bude sprostý jak špaček, ale pořád si bude hrát na to, že je nejchytřejší... škoda ho. (a nebo to dělají ty jeho nakoupené akcie Intelu, kdy za každou cenu chce Intel vidět v záři reflektorů).
"Intel grafiky nikdy neuměl, proto největší procento počítačů běží na intelácké grafice, co?"
.. tohle se opravdu neda brat jako argument, kdyz vyjma HEDT a serveru, je v desktopu drtiva vetsina Intelovskych CPU ve skutecnosti APU, ktera se pouzivaji vetsinove jako 'zobrazovadlo'... :)
Jinak uvidime, IceLake grafika neni spatna. XE muze byt jen lepsi (aspon doufam) ;)
Larabee byl opravdu propadak, co se tyce komercniho nasazeni...tady Intel i pres zajimavy koncept, uplne pohorel.
Procesorový výkon se s grafickým výkonem podílí na TDP celého čipu. Tudíž pokud upřednostním výkon grafiky, je celkem jasné, že to 4C bude třít bidu na nízkých frekvencích. To je můj vzkaz, který jsi tak trochu nepochopil. Celkem logicky, pokud je turbo podvázané, nebo úplně vypnuté, je pak daleko větší příkon, a tedy výkon, vyhrazen grafice.
Chápu že jsi nervózní a nakrknutý, a tak ti tvé invektivy promíjím.
To beru, ale podstata přece zůstává stejná: když se zmixuje potřeba výkonu CPU i GPU, bude přece výsledný výkon GPU části nižší. Na jednu stranu se tu řeší body a "fakt" že ES vyrovnal Renoir bez jakéhokoli dalšího komentáře, na straně druhé tu RH prohlásil že "pindám" protože jsem zpochybnil validitu takového výsledku.
mvladar: to samé Nvidia, ta se se svými hořícími čipy v noťasích taky moc nevytáhla.
Myslím, že ani jedna firma není dokonalá - AMD i Nvidia má občas v ovladačích BUGy a dá se to najít, na webu, že prostě jednou za čas jsou ty ovladače špatné jak u AMD, tak Nvidie (obojí mám, vím o čem mluvím)
Ale úplně jiná liga je Intel, tam to opravdu stojí za hov.o a nějaké aktualizace a opravy chyb Intel prostě neřeší.
Nejlepší je, že maďar ani AMD nemá, ale o ovladačích AMD ví všechno... huh...huh..
V podstate souhlasim, jen ta jedna veta neni tak jednoudcha.."A proti tomu stačí jediné – zvýšit výkon." .. vzhledem k tomu, ze na to potrebujete vetsinou novou vykonejsi architekturu a/nebo lepsi+vykonejsi proces, tak zase tak jednoduche to neni. Ty ovladace pro novou architekturu musite minimalne upravit nebo i castecne prepsat, takze to bude zase stat nejaky cas.
On kdyz loni vysel IceLake, tak i presto, ze to byla "jen GT na steroidech", tak ze zacatku to v nekterych hrach melo problemy. Dneska myslim, ze to uz Intel vychytal, ale nejaky cas mu to taky trvalo.
Mě by bohatě stačilo, kdyby tady trotlové nelhali, až se jim práší od huby. A je jedno z jakého tábora. Stačí se podívat, že se tu zastávám i AMD, naposledy pod článkem o Comet Lake.
Jako akcionář nepředpokládám, že by grafiky začaly Intelu vydělávat tak, aby to bylo na financích znát. A naopak, i kdyby to byl naprostý propadák, což se klidně stát může, opět to nebude mít nějak výrazný dopad na jeho hospodaření.
Z mého pohledu je dobře, že Intel do grafik jde. A stejně tak je dobře, že AMD konečně vyrukovává s Renoirem. A možná vás to překvapí, ale grafiku od Intelu si s velkou pravděpodobností nekoupím (současná GT 1030 mi na to, co na počítači dělám, úplně v pohodě stačí), zatímco notebook s Renoirem si pravděpodobně koupím (každý rok v rámci obměny kupujeme do rodiny jeden, takže předpokládám, že letos tak v září, by to mohlo být něco s Renoirem.
Ano, grafika je zobrazovadlo. A doby, kdy Intelácká grafika, tenkrát ještě v čipsetech, nezvládala nic jiného, než to zobrazování a měla obrovské problémy s ovladači, jsou už dávno pryč. Dnešní grafiky nejsou žádní trhači asfaltu, ale už se prakticky nestává, že by jim nějaká hra či jiná aplikace schodily ovladač. Naprostou většinu her rozjedou, byť na málo FPS. A proti tomu stačí jediné - zvýšit výkon.
Propadáků měl Intel hafo. A ještě mít bude. V podstatě je to pozitivní, protože když se to nezkusí, nezjistí se, že to nejde. O tom by mohl vyprávět Google, který už zařízl několikanásobné množství služeb, než se jich nakonec uchytilo.
https://www.alza.cz/notebooky/18842920.htm#f&cst=null&cud=0&pg=1&prod=&par65=65-106755006&par66=66-239735733,66-239736316,66-239737261&sc=1428
"se neprodává" - to bych byl poněkud opatrnější.
tynyt:
Ať koukám jak koukám, tak žádný si v té Alze nekoupím. "Těšíme se" či v jednom případě "Přijímáme předobjednávky" bez jakéhokoliv termínu, nepovažuju za prodávání. Ale vy na věc samozřejmě máte názor asi úplně jiný.
Totéž se tam dozvíte u Comet Lake procesorů či Z490 desek a také byste asi neřekl, že se prodávají.
Je tam cena? Je.
Na Amazonu mají 6 kusů skladem.
https://www.amazon.com/Zephyrus-Gaming-GeForce-Windows-GA502IU-ES76/dp/B0863S8HJ3/ref=sr_1_1?crid=295PU8DC1U8PM&dchild=1&keywords=zephyrus+g14&qid=1588612528&sprefix=zephyrus+%2Caps%2C250&sr=8-1
Takže koupit jde, bohužel ne přímo v ČR.
V nemecku (GB) je uz taky par vlastovek k dostani bud skaldem nebo do 4 dnu..
https://geizhals.de/?cat=nb&xf=9690_Renoir&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&plz=&dist=&mail=&sort=p&bl1_id=1000
Vetsina ze zbytku 65 modelu a variant se ceka behem kvetna az cervna.
Milý tynyte. Naučte se číst. To, že pindáte jsem vám napsal na vaše prohlášení, že Xe grafiku nebude mít soudobá integrovaná grafika v APU žádný problém překonat. Tohle prohlášení jste si vycucal z prstu a nepodložil ho vůbec ničím. Jediný odkaz, který jste uvedl, ukazuje pravý opak, tedy, že ta grafika překonána byla.
Já jsem ovšem vážil slova a netvrdil jsem, že ta integrovaná grafika Xe je rychlejší, psal jsem, že bude na cca stejné úrovni, jako grafika v Renoiru, protože pár procent z jednoho benchmarku samozřejmě nic neznamená.
Jinak to vaše mixování CPU a GPU části bude v rámci jednoho benchmarku konstantní. Prostě je tam nějaký CPU kód, který dokolečka volá nějaké GPU funkce. Když zvýšíte výkon CPU a snížíte výkon GPU, tak samozřejmě výrazně klesne výsledné skóre (tolik teorie). Ovšem jelikož při benchmarku běží typicky jen ten benchmark, tak nastane to, že ta CPU část stejně čeká na tu odpověď od GPU a tedy nic nedělá (a moc nežere) a na GPU tedy zbývá více energie, pomocí které může zvednout svůj výkon. Na opačné straně bude nějaký minimální výkon CPU, pod který už by začalo klesat výsledné skóre, protože by CPU nebylo schopno zásobovat GPU daty.
Vy si myslíte, že chudáček Renoir nedosáhl takového výsledku, protože jeho CPU bylo vytíženo více, než CPU toho Tiger Lake. Ale to je technicky nemožné. To CPU musí zásobovat GPU daty. A čím víc dat GPU zpracuje, tím víc dat musí CPU dodat. Tedy, jestliže byl výsledek Tiger Lake lepší, znamená to, že jeho CPU vykonalo více práce (zpracovalo více instrukcí) ne naopak.
JO: ale samozřejmě že Renoir sdílí powerbudget. Jde o to, že zvládá obojí zároveň, tj. dodat poměrně dobrý výkon jak CPU, tak GPU.
Holeček: tak tedy ještě jednou, a doufám, že už naposled. Výsledky toho ES nelze považovat za směrodatné, protože rozhodně není pravda, že při běhu grafického benchmarku běží jen GPU a CPU běží v nějaké triviální smyčce, naopak je tam poměrně velký vliv, který dokáže limitovat na výkonu výkonnější grafiky tak, že pak GPU score neodpovídá. Stejně tak, tento test běží v OS, ve kterém běží další aplikace, TUDÍŽ je naprosto směšné předpokládat, že CPU zastaví všechny ostatní aplikace a bude se věnovat pouze benchi. Z toho plyne poměrně jasný vzkaz: CPU, který bude uměle omezen na frekvencích, nebude boostovat kvůli zátěži, kterou mu cpe scheduler, a bude naopak sice pomalejší, ale díky tomu bude schopen alokovat více dostupné energie pro GPU, a tedy bude výsledek benche paradoxně lepší, protože ten zatěžuje primárně grafiku. V reálném světě ovšem bude takový setup dělby příkonu úplně k ničemu, protože Intel CPU na směšných 3GHz bude o velké desítky procent pomalejší než konkurence, což zase znamená, že tahle krásná čísla z benchmarků jsou jen virtuální realita, protože Intel ten procesor v takovém nastavení zcela určitě nevydá. Stačí se podívat, co se děje s frekvencemi, příkonem a teplem u dnešních mobilních CPU při mírně delší zátěži. Jinými slovy, ten bench o kterém je řeč uměle přiškrtil CPU odhadem o více než 50%.