Hmm, když tak ale uvažuji, je maximální spotřeba karty problém? Není mnohem důležitější výkon na 1W? Pokud hrajete už dnes nějakou hru na 60 FPS a upgradnete na novou grafiku, spotřeba se vám nijak nezvýší, ale naopak sníží, protože vám podstatně klesne její vytíženost. Pokud je tedy výkon na 1W nové grafiky vyšší, samozřejmě. Aspoň tak bych to viděl teoreticky.
Samozřejmě pokud budete chtít hrát na plné detaily a ve 4K, tak tu kartu zatížíte, ale v tom případě je to zas o tom si snížit detaily a nebo holt zkousnout spotřebu.
Moje pointa je v tom, že kdyby výrobce snížil TDP karty na 300W, tak pro standardní hraní se nic nemění a žrát vám to bude stejně, akorát nebudete mít výkonnostní rezervu pro 4K.
Samozřejmě pokud se bavíme o Renderingu, tam už je to věc jiná, tam jede GPU na max, ale tam spotřebu zaplatí klient, takže to až tak nevadí :-)
chiplety nemaji na emitovane teplo zadny vliv. nevim kde se porad tenhle pomerne primitivni fyzikalni nesmysl bere. jestli je jeden velky cip, nebo dva mensi o celkove plose velkeho cipu, je uplne jedno. taky to muze byt horsi protoze chiplety potrebuji propojovaci logiku.
chiplety zvysuji vyteznost, a umoznuji delat ruzne casti cipu ruznymi procesy.
Každý vidí len spotrebu ale už sa nerieši výkon. Sám viem porovnať spotrebu GPU na rozlíšení 2560x1600 s Vsync a spotrebu na rozlíšení 5120x1440. Ak bude dajme tomu výkon dvojnásobný na vyššom rozlíšení s lepším pomerom výkon na watt, prečo nie? Spotreba sa dá obmedziť, iste pôjde dole aj výkon, ale treba zistiť aký je pomer výkon watt nová a stará grafika.
"Moje pointa je v tom, že kdyby výrobce snížil TDP karty na 300W, tak pro standardní hraní se nic nemění a žrát vám to bude stejně, akorát nebudete mít výkonnostní rezervu pro 4K."
Co to je standardní hraní? A proč by měl výrobce snižovat takty, co by z toho měl uživatel? Má pak cenu vydávat výkonnější karty?
Jak rezervu? Grafika má zvládat 4K s rozumnou spotřebou normálně, od toho snad máš jednotlivé výkonnostní třídy. Jenže je rozdíl, když top tier bere 300 a když 600 W.
Pokud NV tohle projde, je mi úplně jasné, jakou mají incentivu pracovat na snížení u dalších řad.
mám RX 580 undervolt na 1200 mhz/920mV a mem controller na 820mV, všechno co hraju(1080p) dám na stabilních 60 na střední/vysoké nastavení(hra od hry), spotřeba 75W(čistě karta), když budeme brát střední třídu(což rx 580 byla), dá mi třeba taková rtx 3060 minimálně x2 výkon při x2 spotřebě aby se dalo hovořit o alespoň stejné efektivitě? asi těžko, když 3060 má spotřebu 160-170W a výkon cca 30-100% lepší oproti rx 580(opět hra od hry, hlavně dnes už to bude o dost menší procentuální rozdíl vzhledem k tomu že zatímco u AMD se výkon s novějšíma ovladačema zlepšuje tak u NV to spíš stagnuje)
Jistě, ale jak víš, přechází se na nové a nové procesy a ty původně slibovaly zvýšenou efektivitu. Jenže se zjišťuje, že pomalu narážíme na fyzikální limity a na ty budeš muset nějak zareagovat.
Zareagovat tím, že budeš argumentovat, že se zvýšil výkon a ten přece můžeš zkriplit na požadovanou úroveň spotřeby lze asi jen stěží. To si tu novou kartu nemusíš kupovat.
Tady někdo neumí počítat a navíc porovnává hrušky s jablkama, to je potom těžké.
Pro informovanost koukni třeba zde:
https://www.techpowerup.com/review/evga-geforce-rtx-3060-xc/37.html
Toto se nedá tak počítat. Spotřeba neroste rovnoměrně s výkonem. Porovnávat to můžeš buď tak, že nastavíš karty na stejný výkon a porovnáváš spotřebu nebo je nastavíš na stejnou spotřebu a porovnáváš výkon.
Já mám RTX3070. Mám nastavenej powerlimit na 52%. Grafika mi žere 125W.
Když udělám rychlej test v 3Dmarku, tak při 100% power limitu má grafika o 25% vyšší výkon, ale má o 92% vyšší spotřebu.
Ona ta efektivita ve smyslu výkon/watt vzroste, jenomže výkon oproti minulé generaci vzroste o víc než je nárůst výkonu na watt a proto to bude žrát víc.
Hlavní otázka je jestli opravdu za to extra navýšení výkonu stojí spotřeba nad 400W+ , podle mě vůbec.
Kdyby to mělo max 300W a nárůst výkonu se hold zmenšil o 10-15% tak si nemyslím že by se kdokoliv zlobil.
"Jenomže výkon oproti minulé generaci vzroste o víc než je nárůst výkonu na watt a proto to bude žrát víc. "
Tohle jsi snad ani nemusel psát ne, z pomocné je tu snad jen Dědek a pár dalších.
Což teda pár slovy znamená nižší energetickou efektivitu na takt.
V ideálním světě bys měl dostat dvojnásobný výkon s totožnou, ideálně nižší spotřebou třeba. NVIDIA nežije v ideálním světě.
Pro mě tohle znamená v podstatě jediné - hozenou rukavici RDNA 3. Tak uvidíme, jestli ji zvednou.
A co chceš vysvětlovat? Já už nevim jak ti to vysvětlit. odpadní teplo si odvedeš chladičem, za kterej zaplatíš jednou. Spotřebu řešíš kontinuálně, protože to zaplatíš na každým vyúčtování.
Mně je úplně jedno, kolik má karta stupňů v zátěži, to si vyřeším ve skříni. Není mi ale jedno, kolik její provoz bude ročně stát.
Mně zajímá, jak je architektura efektivní, ne jak je horká. V současnosti, kdy je v kurzu async compute by to asi mělo zajímat všechny.
Zda se ze ji amd zvedlo, jak tu rukavici tak spotrebu
https://videocardz.com/newz/amd-confirms-radeon-7000-rdna3-will-have-increased-power-consumption
“The demand for gaming and compute performance is, if anything, just accelerating, and at the same time, the underlying process technology is slowing down pretty dramatically — and the improvement rate. So the power levels are just going to keep going up.