"Ruply Intelu nervy?"
.. ten se povedl. Za mne +1 J.O. :)
Zacina to byt fakt zajimave. IMHO AMD s tema cenama dost zariskovalo a cpou se Intelu primo do jeho "lukrativniho, vyberoveho' rybnicku. Ale pokud se priblizi Intelu 'na dostrel' i ve hrach, tak to muze byt nejvetsi zmena v desktopu opravdu od doby Athlonu 64?..
Ale jo, ať se porovnávají. Ono to bude zajímavé.
Pokud by to ovšem mělo být adekvátní, měly by se srovnávat procesory odpovídající ceny. :-) Jako hráč bych si rozmyslel, zda dát o desítku víc za procesor, který mi přidá 5% fps, nebo koupit o tu desítku dražší kartu, která mi přidá 30%.
Ono to PCI-E má opravdu malý vliv na hraní. Několik let zpátky jsem si k notebooku připojoval adaptér na externí grafiku přes ExpressCard slot a běžela tak jen na 2.0x1. Postupně jsem vyzkoušel mnoho karet od lowend po highend (od GT210 přes 750Ti/960 po 290X/390/GTX1060) a pokles proti desktopu byl víceméně zanedbatelný a spíš způsobený vyšší latencí a mobilním CPU, kde jsem byl limitován socketem a schopností laptopu jej uchladit (i tam se ale díky obejití původní grafiky dalo jít s TDP o 10W výš).
Ještě by se nemělo zapomenout na to, že nevýhoda Intelu oproti AMD je v těch odhalených out-of-order execution zranitelnostech (Spectre, apod.), které ještě nemá Intel ani v současných procesorech plně hardwarově odstraněné a softwarové patche ty procesy zpomalují. Navíc nedávno byla odhalena další zranitelnost. Procesory AMD na tyto zranitelnosti trpí méně kvůli architektuře... Je opravdu ostuda Intelu, že není schopný vydat novou generaci procesorů a zpoždění už má 4 roky!
hehe, prvni radek maleho textu ve slidu ve zmyslu:
may not reflect all available security updates
pritom na webe na ktery se slide odkazuje :
Benchmark results were obtained prior to implementation of recent software patches and firmware updates intended to address exploits referred to as "Spectre" and "Meltdown".
really intel ?
Lol. Tak to je Intel hodně zoufalý..
A taky má důvod - na Next Horizon Gaming dostal jeho 9900K pořádnou nakládačku. V několika ukázaných hrách je stejný nebo horší a pokud vstoupí do hry třeba takové streamování o vysoké kvalitě, tak Intel končí.
A že chtějí testovat v Office, Adobe a podobných sr*čkách, kde na běžnou práci stačí cokoli po roce 2010 je opravdu směšné. Cinebench je sice dost syntetický, ale dobře reprezentuje třeba takový rendering, což mnoho zájemců o 12 a 16 jádrové CPU rozhodně zajímá. No a testovat "přehrávání videa", to je opravdu joke. To přece již dlouho zajišťují dedikované obvody v GPU a i kdyby ne (nový kodek), tak to opět zvládne cokoliv (možná s výjimkou Atomu) a půjde jen o to, jakou to bude mít spotřebu - v čemž AMD v současnosti vždy přesvědčivě vyhraje.
No jako největší změna (kritériem intenzity konkurence) to asi je, ale spíš to spočívá v kombinaci MT výkonu (počtu jader), novějších technologií včetně procesu a k tomu asi provozních vlastností (doufejme lepší spotřeba, nižší zahřívání) a pak toho "přiblížení" v ST/hrách, pokud bude významné.
Ale zrovna v těch hrách si myslím, že to asi nějak zvlášť přelom nebude. Dokud bude Intel mít to herní vedení, tak asi pořád bude volbou číslo #1 pro ty nadšence do herních PC. Ryzeny se budou kupovat dál a víc než teď, ale Intelu asi zůstane taková ta pozice "etalonu".
V tom testu TPU se píše, že po uvedení GTX 1080 ji zkoušeli a tehdy nenaměřili rozdíl mezi PCIe ×8 a ×16. S RTX 2080 Ti už se zřejmě na nějaké omezení narážet začalo, ale je to jenom 2-3 % (3 % v 1080p, 2 % v 4K). I 3.0 ×4 se ještě dá, i když tam je další propad, ale PCIe 2.0 ×4 už je výrazná ztráta.
Jinak to asi závisí hru od hry, protože v Assassins Creed, což tam bylo jako první položka v testu, tam byly docela velké rozdíly, o dost větší než dělá ten závěrečný průměr: https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/3.html
Jenže když mluvíme o nejlepším herním počítači ve kterém běží nejlepší herní CPU, tak je logická volba RTX2080Ti, tady se nedá ušetřit na lepší kartu. Ani nejde o tu cenu. Jestli dám 10 nebo 15 u kompu za 80-100 tisíc (beru že k té RTX2080Ti bude i slušný monitor/y) těch 5 tisíc rozdíl už díru do peněženky neudělá. To je jak kupovat na auto liťáky, tam je to dokonce jen o dobrém pocitu z pěkného designu, nikoli o funkci nebo přínosu, rychlejš to taky nepojede, stát to ale bude víc než plecháče.
V určité chvíli prostě ty peníze už nejsou podstatné, proto se také ty 9900k/9700k prodávají nejlépe.
To demo ve streamingu je třeba chápat v kontextu, ono to bylo takový trošku trollovský demo.
Běžela tam zároveň hra, který asi nemá nejmenší CPU požadavky. A AMD k tomu pustilo softwarové enkódování videa, což je taky náročné na CPU. Podstatné je, že nastavení kvality enkódování bylo hodně vysoké (snad slow nebo tak,už nevím) a bylo zvolené asi přesně tak, aby to ještě jejich dvanáctijádro zvládlo dělat těmi jádry/CPU časem, který mu zbýval vedle hry. Ale protože Intel má jader míň, tak ta zátěž se v jeho případě už na zbývající CPU kapacitu nevešla a šlo to naprosto do kytek.
Je to taková dost okrajová situace, do které se většina lidí nedostane, a to demo bylo ušité přesně na to, aby 8c/16t vyhořel ale 12x/24t už to dal. Samozřejmě kdybyste ještě zvýšili náročnost enkódování, tak už může shořet i to dvanáctrijádro. Ale většina lidí bude používat rychlejší nastavení a pak se s tím třeba vejde i na to 8c/16t.
Jako nevím, jak to tam konkrétně vypadalo, ale představte si třeba, že na 8C/16T Intelu třeba hra brala 50% CPU času (čtyři jádra) a 50% CPU času (čtyři jádra) bylo volného pro enkodér. U 12C/16T AMD tím pádem stejná zátěž hry (čtyři jádra) nechala volných osm jader, tj. dvojnásobek. Takže když se zátěž enkodéru vybrala tak, aby potřebovala cc 7,5 jádra, tak to Intel poslalo do kolen - a nejspíš tam nastaly problémy, že ten enkodér neuměl dropovat snímky nějak elegantně, takže ač jinak CPU výkonu bylo třeba jenom 2x míň něž bylo třeba, tak FPS se snížily řádově.
Hrál jsem na tom AC Unity. i7-2760QM, R9 290 (2.0x1), 16GB v 1080p nastavení Very High a FPS se pohybovaly kolem 45-50 (s občasnými propady k 25-30, ale za to mohla strašná optimalizace). Vše, co jsem chtěl hrát jsem na tom dokázal rozjet na vysoké detaily a těch pár procent ztraceného výkonu jsem neřešil, pořád lepší jak původní GT 525M, která chudák sotva stačila na střední detaily starších her v HD rozlišení.
Ja bych nerekl, ze je to trollovske demo. Je to spis demo, ktere reprezentuje jeden z realnych scenaru. Co AMD uz neuvedlo, a mate to ve Vasem textu spravne, je to, ze se da udelat mene narocny scenar, kde ty vysledky nedopadnou pro Intel zase tak spatne.
Nicmene principielne to demo je korektni, a da se klidne i zobecnit. Jen AMD si vybrala exremni priklad, aby to melo ten spravny "wow" efekt.
Hnizdile nebud preci poad stejne tupej fanatickej pablb..se na ty herni benchmarky podivej, vzdyt ty vysledky jsou k smichu. Tohle neni hodno firmy jako Intel, mozna tak nekoho, kdo si v garazi masti youtube channel..
Aby jsi dostal takove vysledky, tak musis jednak ty sestavy a zaroven i ty benchamrky teda poradne 'poladit'