Při hraní to bude mít normální spotřebu. Tyhle kecy pořád dokola,mám 10900k a pořád sem slyšel kecy typu neuchladíš to ani vodníkem jen možná custom vodníkem atd. Přitom na tom mám noctuu a procesor se nedostal ani k 75C. Tenhle 12900k na tom bud nejspíš podobně, situace je jiná když někdo honí OC až za hranice efektivity. Ale když má jít o procesor pro hráče tak stačí ho použivat v defaultu a nekoná se ani bůhvíjak velká spotřeba ani obří teploty.
Ty krávo procák za dvacku, k tomu monitor za 35, to už by člověka přesvědčilo o obměně hardware. Nicméně začal jsem hrát teď Thiefa definiton edition a ta letitá geforce 1080 stále na tu hru stačí. Tak já nevím, všichni mě hejtovali že káčkový čtyřjádro s gtx1080 je na prd, že ho brzdí, ale dohrál jsme na tom i FarCry5 a žiju. Fallout4 vzdávám, to je pro mě nedohratelný.
Kdyže bude ta RTX4000 ? To tady nejspíš bude už Raptor lajk, takže ten upgrade vidím asi až příští rok. Neříkala Lisa, že dostupnost procáků se zvýší až v druhé polovině 22? Tak stejně asi nemá cenu kam kvaltovat.
jojo je to tak, presne jak pises podobne bludy, nazory co jsi zminoval jsem cetl i to toho placala belky a ono nic, mam 9900k a NH-D14 a v pohode, takze to je spis jen takovej podvedomej kec, tech co to chodi dokola jen hejtit, alespon tak me to prijde, koupej si procak za 3k natocej to kam to jde a pak hejti lidi co si halt koupili procaky za 10k+, ale pritom sami ho nevideli ani z vlaku
Spotřeba ve hrách by mohla proti 12900KS stoupnout (protože bude vyšší all-core boost), ale na 250 W těžko. Spíš by to chtělo podívat se na spotřebu 12900K ve hrách a je pravděpodobné, že 12900KS můůže být vyšší třeba o podobné procento jako stouplo TDP (tj. +20%?).
Razantní zvýšení by asi dokázalo udělat to, kdyby se Intel vrátil k tomu Adaptive Boostu z Rocket Lake, ten odebral takové ty tabulkové limity pro turbo a tím pádem začaly hry žrát víc v poměru k maximální spotřebě procesoru - podobně jako jsou spotřebou relativně blízko k PPT na AMD (asi to není překvapení, když jsou to podobně fungující turba).
Ale zatím nejsou zprávy, že by Adaptive Boost na Alder Lake měl být přidaný.
stěžuj si u WHO, která doporučila lockdowny a zavření ekonomik. Bilion natištěných peněz z ničeho se někde projevit musí a inflace přiznaná ČNB s Rusnokem v čele je prej 10% (9,9=10), ale reálná inflace bude někde k 20%. A nepsal jsem to tady náhodou? Že když je HDP ČR 5,5 bilionu, a babiš pustil do systému 1bilion, tak je to jedna pětina neboli 20% ? Krásně to sedí co ? Takže procák co stál 10.000 bude stát nově 12.000, ryzen co stál 4000 bude stát 5000, RTX co stála 35.000 bude stát 42.000.... Už se probuďte. Pekarová s Fialou a Piráty není žádná výhra, samozřejmě Babiš taky ne, jedinej kdo vám tu zbývá pokud nechcete volit Okamuru je Švýcarská demokracie !
Já si koupil monitor za 35k a grafiku za 12k (GTX 1070 už tu OLEDu nedávala, tak jsem šel do RX 5700XT, v té době nejvýkonnější AMD) s tím, že ji za pár měsíců vyměním za novou generaci. No a pak přišla nová generace. Výkon k smíchu a cena k pláči. Grafiky o výkonu, za který by si měli říct max 25k v lepší edici stojí 70k, viz RTX 3090. Prostě Mega zklamání a upgrade by byl jenom vyhození peněz oknem. Já zahraju ročně tak 2-3 hry. Něco z toho na konzoli. Letos třeba jenom Dying Light 2 na PC a byl bych docela nasrán, kdybych musel snižovat detaily na highendu ala RTX 3090, protože to ta karta ve 4K nedává. Prakticky ani Cyberpunk to nedává. Ani to Far Cry 6 nemá stabilních 60 fps. A ať mi teď někdo řekne, že se ty grafiky oplatí koupit, když s grafikou za 12k můžu hrát ve 4K s FSR. sice bez RTX, které ale aktuálně není nic, co by mi chybělo (když vezmu v potaz cenu grafiky) , ale většinou na ULTRA/vysoké detaily. Nativ je Nativ, ale to FSR se jako nouzovka dá. Vypadá to líp, než nativní h 1440p roztáhnutých na 4k 55" a za těch 12k se s tím smířím. U čehokoliv nad 25k je nějaké DLSS nebo FSR ve 4K neakceptovatepné.
Tak zkuste spustit hru a k tomu třeba tu hru nahrávat v x264 na nějaký Medium presset v 1080p nebo vyšším rozlišení. To už ten CPU dostane sakra zabrat a spotřeba je větší. Já třeba nechápu, proč si někdo koupí takový procesor jenom na hry. To jako těch pár fps navíc stojí za příplatek i přes 10k? Nechápu... To ty peníze raději vrazit do GPU, kde ten smysl je větší.
myslím, že na TomsHardware to změřili dobře. i9 -12900K má třeba v Hadbrake 224W, Aida Stress Test s vypnutým AVX 246W atd. Takže 12900KS s 5,5Ghz může mít spotřebu klidně ještě vyšší. Samožejmě ve hrách nebo v jiné zatěži bude spotřeba nižší...
https://www.tomshardware.com/reviews/intel-core-i9-12900k-and-core-i5-12600k-review-retaking-the-gaming-crown/3
každé má svoje. Co já se natrápil s 3800X s lokálním přehříváním kdy jsem musel zkoumat jak snížit vhodně napětí abych nepřicházel o výkon a zároveň větrák na CPU nejankovatěl. U 12700K naopak chladič hodně hřeje, u 3800X byl sice vlažný ale ty čiplety jsou tak malé a přenos tepla bodový že ten chladič neměl šanci se nahřát a teplotní čidlo už signalizovalo přehřívání, až složité laborování s napětím to částečně řešilo.
Hnízdo : Taky nahrávám do 4K@60FPS H265, dokonce v HDR, co tam máš dál? Jinak nVidia má skvělý NVENC, ale AMD má shit kvalitu, takže tam, pokuď se nenahrává / nestreamuje v HDR, tak je kvalitnější použít, CPU. Můj R9 3900X za 12k dává v pohodě stream na Medium v 1080p s 60fps s kvalitou obrazu, jakou si GPU může nechat jenom zdát, společně s Hraním hry na stejném PC.
A dále, jak už se tu psalo, tak s tip GPU nikdo normální nebude hrát v 1080p a ve 4K už je rozdíl mezi CPU nulový nebo tak malý, že to nemá cenu ani řešit. A když už, tak těch 10k vyrazím do nějakého pořádného NVME SSD, než do zbytečného procesoru, který žere jako kráva.
A ty jseš hloupé české (československé) stvoření, když se nedokážeš přenést přes to, že někoho ty hry prostě baví. A to píšu jako někdo, pro něhož je Cyberpunk neoptimalizovaná sračka plná bugů a nevydržel jsem u toho dýl, než 16 hodin.
Jinak nechápu, co má to voje "Kdo chce mít opičku..." společného s tím, že prostě nejsem dement, co si koupí GPU za jakoukoliv cenu? Peníze na ni mam, ale prostě za ty peníze to nestojí. Jinak bych si asi těžko kupoval monitor za cenu, za kterou má většina lidí celou sestavu... Trošku popřemýšlej, než něco napíšeš.