Ono to vypadá dost hrozivě, na druhou stranu:
1) 4090 nebude stejně jako 3090 už karta pro úplně běžného spotřebitele. Komu stojí za to připlatit tak velkou částku za pár % výkonu oproti o úroveń nižnímu modelu, nejspíš nebude moc řešit účet za elektřinu ani potřebu nového zdroje. Takže smysl řešit bude mít pak spotřebu 4080 a nižších modelů.
2) Jak píše komplik, docela nedávno ještě znamanala TOP-end sestava zpravidla dvě karty v SLI a tam ta spotřeba v součtu 500-600W taky byla.
Osobně myslím, že problém by byl, kdyby se dlouhodoběj zaseknul poměr příkon/výkon (a neříkám že se to nestane), ale to že Nvidia bude dál šponovat velikost čipu (a tím pádem asi i cenu) na úplném vrcholu nabídky, spolu s tím zvýšením spotřeby, tak mi nepřijde až tak hrozivé.
Já nedávno upgradoval z 1080Ti na 3080 a tam byl reálný nárůst spotřeby v zátěži z 280W na 350W, což mi v kontextu celého PC přijde pořád docela minimální, při tom nárůstu výkonu.
@redakce...
Nevím, školy nemám.... Pomalu vzdávám snahu reagovat na některé příspěvky... Pod příspěvkem, na který chci reagovat klepnu na "přihlásit se a zanechat komentář" Po přihlášení mě to teleportuje asi tak o kilometr níže pod příspěvek, na který vůbec reagovat nechci a není ani ve stejném stromu... Je to normální???
Tady je zasadni problem, ktery nenapise redakce a ani nikdo z hracu. Grafiku i kdyz bude mit penize nikdo nekoupi a ne ted. Kdo by ted resil pocitac nebo grafiku? :) Tady je valka, cennejsi jsou jodove tablety, plynove masky apod vystroj nez cela grafika :D Vite s pocitacem na zadech se hodne spatne utika pres hranice :D
Co je bláznovství? Však tu už byly sestavy kde lidi mívali 2-3 250W grafiky... 600W není vůbec žádný problém, zvlášť pokud budou karty přinášet násobný výkon. 2x3090 na plné pecky 700W, 2x výkonnější 4090 při 600W = slušné zlepšení spotřeby.
Klimatizaci si samozřejmě koupit můžeš, pokud už ji nemáš. Vřele doporučuji, osobně už si bez klimatizace doma léto nedokážu představit.
Pokud má mít RTX4090 jen dvojnásobný výkon rtx3090 tak 600W vůbec nedává smysl. Teď kdyby u Samsungu udělali dvojnásobně velký ampere čip tak by to potřebovalo 700W.
To znamená že generační posun efektivity by byl 16%. + Efektivita ještě naroste vylepšením architektury.
Je tu ale háček, nárůst efektivity získaný jen novým procesem tsmc 5nm oproti Samsung 8nm(který je efektivitou jen o kousek lepší než tsmc 12nm) je minimálně 40%, spíš 50%.
To znamená že RTX4090 budou chtít nejspíš hnát na výkon až 3x RTX3090 čemuž už 600W +- odpovídá.
Tohle dává smysl protože AMD taky bude vydávat kartu co má mít 3x vyšší výkon než aktuální top-end a nVidia jistě nechce aby AMD mělo v nabídce o 50% výkonnější kartu než jejich nejlepší.
Ale samozřejmě že to je problém a nikdo normální takové teplomety doma nechce. Tys možná chtěl napsat, že to je řešitelné - to jistě je.
U PC s tepelným výkonem až 1kW (což je ta 600-800W pícka + zbytek PC) docela pochybuju, že už bude stačit typická bytová 3,5kW klima, spíše bych to viděl (po započítání vlivu ostatních zdrojů tepla) na 5kW, u větších bytů pak i klidně na 7,5-10kW.
Opravdu zvednou spotřebu napříč spektrem? Někdo tě nutí používat výkon té karty na 100%. Když jsem měl RTX2070S tak jsem zvažoval pořídit RTX3080, ne kvůli výkonu, ten jsem nepotřeboval, ale kvůli NIŽŠÍ spotřebě. Třeba v Controlu jsem míval s mým FPS limitem spotřebu kolem 180W při FHD rozlišení, ve stejném nastavení RTX3080 spotřebovává 130W ale v 4k rozlišení
Ono ne, že by nešlo udělat třeba čtyřslotové chlazení co to uchladí, ale tam už je opravdu problém se hmotností a chtělo by to podpěru grafiky na druhém konci, což už některé skříně mají, ale já třeba ne a při tom tříslotovém monstru co tam mám teď už opravdu hýbu s PC jen velmi opatrně...
Nejlepší možnost je pak už vodní chlazení, ale zase není možné vyrábět jen to, protože ne každý může do PC namontovat 240/280mm radiátor.
Tak dnes doma spousta lidí nechce ani výkon high endových karet, natož jejich násobky. Kdo bude chtít potenciálně 2x větší výkon, tak si to rád koupí.
Vážně nevidím problém s klimatizací, na uchalzení pokoje mi stačí mobilní klima za 10 tisíc a to jede s ventilátory na nejnižší výkon a teplotou 24/25 stupňů, menší už je kláda.. Příkon té klimy je max ve stovkách W.
Není to spíš o tom, že má člověk možnost volby? Nikdo nikoho nenutí to kupovat.
Na koho je ta spotřeba vysoká, ať je to z jakéhokoli důvodu, ten sáhne po něčem úspornějším. Tady si snad každej hraje na to, že musí mít v PC 4090 a přitom by o té grafice nikdo ani neuvažoval. Respektive, kolik z vás, kteří to tak strašně řeší, má v PC 3090? Kolik z vás by bylo ochotno za tu grafiku dát takové peníze?
Poprosim ta, hod nam sem stream pripadne printscreen, ako tvoja RTX 3080 zrala v peakoch v Controls 130W, myslim, ze by to uvidelo rado vela ludi...na RX 6800 mam pri miernom podvoltovani v Controls so zapnutym RT od 170-190W s pridanym power limitom :D kazdopadne, rdna2 ma trochu lepsiu architekturu, ako zravy Ampere, az teda na tie bloky RT, tam je jej vykon dost mizerny.
Vida a tady se dostavame k problemu ala nalepka 8K. Uz dnes je 4K na hrane kdy zacina to ukazovat problem. Nema to tolik vykon a nebo kdyz uz ho to ma budeme mit problem to uchladit. Do toho ale vyrobci nezapomenout rovnou vyhodit i nalepky 8K jako by to byl start ale uz chybi kdo to jednou rozjede a jak to uchladi. Jiste budou dalsi technologie, ale i to bude mit svoje limity :)
V maximálnej záťaži ano, ale keď zapneš limit FPS tak grafika nejde na 100% ale dajme tomu tak na 30-40%. a tá spotreba je potom výrazne nižšia. Sám som si to vyskúšal, kedy na 1080Ti vo WOT išla grafika pri 60FPS na na cca 30%. Keď som vyplo synchronizáciu a karta dávala 150+fps tak išla na max. spotrebu. Preto ak je výkonná karta, a používa sa napr. LOCK fps na 60 tak spoterba karty ide výrazne dolu. Ak sa naháňajú FPS tak je to potom úplne o niečom inom.
Ale problém je v tom, že se to posunuje i do těch nižších tříd a výběr je čím dál horší.
Když to vezmu z pohledu FHD hraní, tak by bylo fajn kdyby se to drželo jako v těch minulých generacích.
GTX x50 na střední detaily s napájením z PCI-E
X60 na na vysoké kolem 120W
S RT pak třeba 4050 na střední 130W
A na vysoké 4060 160W...
Jen se bojím že ta 4060 půjde přes 200W a zbudou na nás jen zkryplene karty ala RX6500, která ještě v nové sestavě možná bude použitelná, ale jako upgrade už moc ne...
"Je spíš potřeba brát poměr výkon/spotřeba."
Ok vezmu to tak, před x lety jsem hrál náročnou hru na 50fps na kartě co měla 100w
Dnes potřebuju na to samé 150w, dosáhl jsem nějakého pokroku? Já si dovolím říci že ne. Pokud by to bylo sto na sto, tak si řeknu, jó mám hezčí obrázky při stejné spotřebě, ale pokud na hezčí obrázky zase musím přitopit, tak budu drzý, a řeknu že takový pokrok si můžou strčit tam, kde slunce nesvítí... A nebo do prdele ..
Je to typický Jirkak, Komplik, a pod jak si ještě říká.
Ale demagogie je popravdě jeho druhé jméno.
Jinak Já jsem rád za 1050Ti mám to v pracovním stroji, který jede opravdu nejčastěji (skoro pořád). No a 1050Ti nepotřebuje přídavné napájení, přesto spoustu her utáhne. Takže za mě? Čekám na nástupce 1050Ti bez přídavného napájení. Ono 600W přímotopy si můžou nechat... a to ať je výkon jaký chce. Nejde tu fakt o cenu energií (zatím.. kdo ví kam se ceny posunou), ale právě o to teplo.
Díváme se na to trochu jinak.
Když bych vyměnil 1060 za 1660, získám 20-25% výkonu při stejné spotřebě, nebo si zahraju novější hru ve stejném nastavení.
Teď tu 1660 vyměním za 3050, výkon i spotřebu budu mít stejnou, takže se pokrok nekoná. Nebo si koupím 3060 která mi přinese 35-40% ale při navýšení spotřeby o 30% takže ve finále mám zlepšení efektivity jen 7%, (rozlišení, nastavení, hra zůstává) což mi přijde jako mizerný pokrok...
Proto stojím za tím, že ta spotřeba stoupá napříč celým spektrem.
Kdybych chtěl přejít na vyšší rozlišení, tak počítám s tím že bych musel přitlačit jak na výkonu(spotřebě), tak na ceně a proto se stále držím svého FHD ;). A tam mi teď vychází, abych se nemusel omezovat optimální 3060/6600XT kde ale budu o čtvrtinu výše se spotřebou, což bude chtít ještě více si připlatit na nějakou lepší edici aby byla stejně hlučná.
Když to vezmu u AMD 580-5600-6600, tak tam ten pokrok vidím, jen výchozí situace byla mizerná a kdyby tomu tak nebylo, tak by to bylo opravdu smutné.
Já jsem reagoval na hlášku "to není problém." O volbě to je vždy, o tom není diskuse. Já třeba ten problém řešit nechci, ale ten kdo takové řešení zvolí, bude muset řešit celou řádku problémů, od hluku, přes zdroj a napájení až po teplo.
Takže se vracím k tomu, co jsem napsal: drtivá většina lidí takové řešení chtít nebude.
Ano je to nouzovka na dny kdy je v bytě 30 stupňů. Nemám balkón, lodgii ani terasu kde bych snadno dal tu venkovní část. Fasádu ani střechu mi tu neschválí společenství vlastníků, většina jsou starousedlíci co tu bydlé 60 let a jsou hákliví. Zvláště na tu střechu, kde se asi 15 let zpět museli složitě skládat na generálku když byl poloprázdný fond oprav. Jelikož jsem pod střechou tak umístění na ni by bylo nejsnazší a nejlevnější
Pochopil som lock fps, ale v 4K to su tak dropy medzi 50-60 fps - to same na Radeone uz v 2560x1440, cize ziaden lock vobec neni treba a to TDP 3080-ky sa neblizi ani k tym 200W: https://www.youtube.com/watch?v=GZBVCyu_Atk
Ale toto přeci nejde srovnávat. I v minulosti byly karty, co měly spotřebu 300 nebo i 500W.
Tímto stylem by se tedy dalo říci, že za to mohou vývojáři her, protože je potřeba pro dosažení oněch 50fps více výkonu. Respektive podle toho co píšeš, nejde posun náročnosti her stejně rychle, jako výkon grafik/spotřeba. Taky je potřeba říct, že rozlišení monitorů se mění. Tím pádem i náročnost na tu grafiku.
No a když už jsme u toho, tak dneska si zahraješ asi taky cokoli na FHD na grafice co žere okolo100W. Ať už to bude 1650S (100W) nebo RTX3050(130W).
Je potřeba se na to dívat trochu jinak. Dnes si totiž každej přečte, že ta grafika žere 600W. A hned se to bere tak, že obecně se zvedla spotřeba/výkon. Ale ono tomu tak není. Je potřeba srovnávat srovnatelné.
Tohle ale tak brat nejde! :D Pochop ze zde mas pokrok vs stara doba. Taky ti tu mohu napsat hele mam pc z roku 2010 na co zdejsi lidi potrebuji PC? To upadli na palici? Tady mam core i5 750 Lynnfield sel pretaktovat na 4Ghz na jadro jede ne? GPU dobre karta vymenena za starou AMD 5770 1GB na Nvidia 1060 6GB s OC 2120 / 9400 jede ne? 16GB DDR3 1600Mhz jede ne? :D Jasne ze FullHD mi jelo i v roce 2010. Jenze hry vypadaj lepsi, delaj se pokrocilejsi. Lze rict ze nekde je i opak ale vesmes ty dalsi tituly vypadaj lip. Chci hrat i ty novejsi nebo nove hry a tak i ve FullHD potrebuju lepsi GPU. Lepsi ma vetsi vykon a tim proste leti spotreba. Je to jako napsat kdysi stacil PC zdroj komplet do 300W a jak to jelo hec! Jenze tehdy jela hra max i rozliseni 1024x768 :) Ted chci hrat hru treba ve 4K. Takze je jasny aby to karta utahla, budu muset koupit do budoucna a to i chci RTX 4090 za dost bohuzel penez. No a dostanu tim vykon na to 4K? Pokud ano tak to zvedne i spotrebu. Jsou to i fyzicke limity. Je to jako bys chtel napajet cele kino v lese na baterie a rikal ze doba nepokrocila ze to nejde a proc musis na to resit treba elektrocentralu nebo centralu na benzin :D
Proste pokud chci jit do 4K pocitam s tim. Zase nebudu resit doma topeni uz vubec, vypnu plyn a vetsinou penez preleju do elektriky a je to vyreseno :)
Duvod proc za to bych dal ty penize, jsem psat nebudu, ale jsou lidi co maj sakra soukromi duvod proc to koupi.
Kamaradka (28 let) treba koupila Televizi 8K nejvyssi model stal v obchode 200 000czk pro zajmavost.