"Pro reprezentační účely proto bude sloužit tato vyrenderovaná podoba karty, která se reálně nebude vyrábět."
Tohle je take super :D Asi to ma v ramci marketingu smysl, ale mne to prijde postavene na hlavu.
Jinak by me teda zajimal i maximalni prikon, kdyz ta karta "konkuruje" cca 4 a pul roku stare 1080Ti., ktera byla za cca dvojnasobnou cenu, ale take s vice pameti a top herni model.
Jinak ja stale nevidim duvod 1080Ti upgradovat na cokoliv, VR je polomrtve, RT omalovanky mi neprijdou jako duvod kupovat novy HW a vzhledem k prikonu a cene novych karet, mi takovy upgrade ani neprijde, ze ma pridanou hodnotu pro 4k. Nebo mozna 1080 Ti byla nadcasova.
2Komplik
Se zajmem jsem si precetl vase komentare. (vetsinou dost trefne). Libi se mi, jak kazdy z nas ma sve pozadavky. Jestli mate to PC opravdu tak tiche, to bych i chtel videt. Co mate za skrin? Kolik vetraku celkem ve skrini?
To ja jedu uplne jinou filosofii :)
VYYYKOOOOON za kazdou cenu. Takze, CPU mi zere az 180W (rendering), pri hrani cca 20-80W. Ryzen 1600AF@4ghz
GPU mi bere stabilne 160-220W podle hry a zda mam zapnuty VSYNC nebo ne. Tady potvrzuji, ze i pretocena karta dokaze zrat mene, pokud zvlada hru s VSYNC. Napriklad War Thunder na Ultra ve FHD se karta sama flaka na 1600mhz a drzi 75fps (muj VSYNC). Pritom v narocnejsich hrach, co jsem ji OCnul boostuje az 2050mhz, mem 8800mhz. GPU 1070ti.
Vetraky mam nastavene tak, aby cpu nemelo pri hrani her vice jak 65C a pri renderingu ne vice jak 85C.
GPU 1070ti ac pretocena, nema nikdy pri hrani vice jak 72C.
Dale jsem opatril regulovany vetracek na VRM zakladni desky a ve skrini jako takove mam celkem 5 vetraku (vetrak cpu nepocitaje) pro zajisteni dobre airflow.
V idle je masina prijemne ticha, ale ne bezhlucna. Vite ze tam je. Pri hrani si obcas vsimnu zmeny rychlosti ventilatoru a zacne se pridavat maly sum. Pri renderingu ale :) jdu do jine mistnosti XD
Ac to neni muj naturel, obdivuji dobre poskladane tiche PC. Pouzil jste i nejakou vypln do pc bedny?
Zdravim vas
Spomínal som Alder Lake, kompletná rodinka
mobilných AL v linku a vypadá to fajnove:
https://www.techpowerup.com/284335/intel-alder-lake-mobile-processor-sku-stack-leaked
Fíha chlapci, mám pre Vás vynikajúcu správu...
O čom ste tajne snívali sa stáva skutočnosťou...
Senzačné, už piate pokračovanie akčne-romantického
seriálu o nenormálne prefíkanej dvojke IT
borcov Magor + Trtko je tu...Tentokrát príbeh
„Magor a Trtko zachraňujú AMDD“
Tak šupito pre pivečko, buráky a jedém:
Crng, crng, zvoní telefón na centrále AMDD s.r.o
Haló, tu Rosalinda, kto volá ?
Zdravím šéfka, tu Robo, máme strašný problém !
Zas máš problém Robo ? No daj...
Jój šéfka, všetci naši odberatelia ma bombardujú,
že majú plné sklady Ryzenov a nikto to nechce...
Robo, Robo s ničím si nevieš poradit, obvolaj
všetkých, nech tie procesory dávajú zadarmo !
No šéfka, vy ste ale hlavička, idem na vec...
O pár dní.
Haló šéfka, tu Robo, máme pruser, tie Ryzeny
nikto nechce ani zadarmo, čo mám robiť ??
Robo, ty ma už neser, si tak neschopný chasník,
obvolaj všetkých odberateľov, nech ku každému
Ryzenu zdarma prihodia ešte Radeonku zdarma,
uvidíš tie mraky ľudí, jak to rozchytajú...
O pár dní.
Haló šéfka, vy ste génius, všetky Ryzeny aj
Radeonky zmizli zo skladov po celom svete...
No vidíš, Robo, to chce kreativitu, a teraz
státisíce ľudí bude šťastných, že môžu
používať náš špičkový hardwér...
No šéfka, obávam sa, že to bude troška
menej ako státisíce...Ono všetky tie sklady
vyprázdnili len dvaja, nejaký Magor a Trtko
z bývalého Československa...
Fúha a čo stavajú nejaký hyper počítač ?
Nie šéfka, nestavajú hyper počítač,
Magor a Trtko stavajú bazén a aby ušetrili
na betóne, tie naše čary hádžu do základov...
Jiříček zase perlí...
1. bere v úvahu MSRP, takže ceny ze světa fantazie
2. "RT výkonu, DLSS, AI akcelerace a NVENCu"
- RT na takto výkoných kartách nikoho nezajímá - to si zapně jen masochista
- DLSS - částečně, ale už vidím toho blba, co si koupí levnou grafiku a k tomu super 4K monitor
- AI akcelerace, NVENC - uvést to tady jako velký důvod proč NVIDIA, když to použijí malé jednotky % lidí... to chce odvahu. Ale na překrucování reality a přibarvování do modro/zelené od JirkyK jsme zvyklí
Pokud nejde o RT, nový NVENC, AI akceleraci atp… tak 1080Ti je skvělá karta na FHD hraní ale už má nevyrovnané výsledky, v některých nových titulech už nedrží stejné výsledky jako výkonově srovnatelné nové karty.
Na hraní nad FHD rozlišení už je to dost dýchavičné, zvláště pokud je hráč náročný an FPS a/nebo kvalitu.
Ad příkon nových karet…Příkon nových karet je nižší v poměru k výkonu. 1080Ti si vezme 230-240W, 2070S která ji leckde překoná si vezme 200-210, podobně si vezme 3060Ti která tu 2070S překonává v průměru o 10-15%.
Ano 3080 si vezme svých 320W, ale nabídne cca dvojnásobný výkon 1080Ti v případě RT a DLSS to bude řádově 6.10x vyšší výkon… A to vše jen za cca 1/3 spotřeby navíc
Fractaly většinou výplně mají (po stranách), v define r5 mám dva větráky vepředu, jeden vzadu, nahoru nedávám, otáčky v zátěži max 1000, v klidu kolem 400, všechno PWM regulace, to samé na CPU 2x vrtule, sedím u toho skoro celý den od tří od rána, slyším jen větrák, který mi fouká do ksichtu a při hraní malinko graf kartu, protože teď mám slaboučkou 1050ti, dokud se neumravní ceny ... mám ale 8 jádro 10700, i při renderingu nebere víc, než 140 watt, při hraní o něm nevím ...
Ano beru MSRP ceny protože to je to co mě zajímá. Sám čekám na pokles cen grafik abych si nějakou pořídil herní PC jsem prodal v únoru za dobré peníze.
Měl jsem 2070S, po pořízení zbytku počítače mi zbylo dost na pohodovou 3070 a s 15 stovkama příplatku dokonce na 3080, ale cílím spíše právě na RTX 3060Ti. Nebudu to kupovat ale dráž než cenu kolem MSRP. 3060Ti bude dokonce upgrade proti 2070S
RT běží slušně i na RTX2060, na 2070S mi třeba WF:YB běžel kolem 100FPS v průměru s RT nativně. Všechny ostatní, náročnější tituly s RT mi běžně běhaly přes 60FPS ve FHD nebo 2560x1080, a ten výkon tam je právě i díky DLSS, bez něj by to nemělo na 60FPS. Na 2070S jsem přešel z GTX1080 a to jen kvůli RT výkonu, kterého má 2070S dost a to mám ještě docela vysoký požadavek 60FPS 1% low. Dost lidí se spokojí s 60 FPS v průměru a u leckteré hry klidně i méně. Není žádný problém, konzolisté běžně hrají na 30FPS.
AI akcelerace nebo NVENC… no používá to mraky content creatorů, video tvůrci, streameři…
Tak jak tak vyšší RT výkon, DLSS, AI a NVENC jsem uvedl jako přidanou hodnotu v případě kdy 6600XT bude stát 399 a bude mít rasterizační výkon podobný RTX3060Ti za stejných 399
Proč si koupit grafiku za 399 když jiná mi za 399 nabízí featury navíc, vezmu to lépe vybavené. Proto se třeba 5700XT prodávala hůře než 2070S, v rasterizaci téměř srovnatelné karty, ale RTX stála víc, přesto se v té kategorii prodávala nejlépe protože byla lépe vybavená. RTX2070S byla dokonce nejprodávanější grafikou, například na MindFactory nebo na CZC
komplik 10.7.2021 at 15:48
Kdyz jsem hraval na PC, tak v QHD a vse (treba Rainbow 6: Siege) mi jelo kolem 100 FPS. Ta 1080 Ti si ale v tu chvili brala pres 300W! Tech 240W, co jste zminoval, je utopie.
Streamer nejsem, a videa kdyz delam, tak ne pomoci NVENC (to je. Na plne RT nebude mit ani RTX 40x0, takze to me take nebere. Zajima me cisty vykon ve 4K a VR, samozrejme nativne. Grafiku s prikonem 300W uz nechci, vlastne ani s 200W (plytvani energii).
2gogo
Dekuji za prispevek. Netusil jsem, ze fractaly maji vypln v zakladu (posledni fractal po me nekdo chtel asi pred 6ti lety, lidi na pc bednach setri). Ano, bez PWM to dnes nejde ze? Take mam.
Zavidim vam cpu. To kdybych mel, to by mi to ficelo jeste lepe.
Ja jsem k ryzen presel z intel 7700K@5,2GHZ all core. Samozrejme byl po delidu a na vode.
Jsem zcela v soku, kolik jsem se stejnou gpu ztratil FPS. Ten propad je prisernej. Ve vsech hrach to bylo o 20 az 200fps mene s novym Ryzen 1600@4ghz all core.
V praci pri renderingu ovsem Ryzen oslnil. Mel jsem tu i ryzen 1700@4ghz a pro praci za ty penize pomerem cena/rendering vykon byl dost bozi.
Mel jsem tu i ryzen 3100@4,6GHZ a to uz byla jina liga. Ten rozdil vykonu a v mhz oproti ryzen 1xxx je obrovsky. Dost mi pripominal me byvale pretocene 7700K.
V soucasnosti pokukuji po Ryzen 5600. Ovsem k nemu i adekvatni gpu. A to je jak vime, problem. Takze upgrade se zatim nekona.
Kolik boostuje vase cpu pri hrani her? Delate i OC? Nebo opak? Undervolt?
gogo, jediný, co píše C.K. správně, je, že všude kolem, i kolem mě je víc lidí, co mají RTX Nvidii, ale když se s nima bavím, tak NIKDO nezapíná RT, DLSS spíš výjmečně, když má někdo lepší monitor, a AI nebo enkoding už vůbec ne, takže tím argumentovat, že tím je něco lepší je dost "odvážný".
Tudíž to na překrucování u mě nevidím, takovou mám realitu kolem sebe... A Jiříkovi bych nevěřil ani pozdrav, tak proto
Bude záležet na edici té karty, samo, nějaké OC edice se zvýšeným power limitem mohou jít výše... tak záleží titul od titulu, určité prvky umí spotřebu grafiky zvýšit více než jiné.
https://www.youtube.com/watch?v=zIU0p5AVYpE
Tady je srovnání GTX1080Ti a RTX3060, pravda, je to 4k, ne FHD nebo QHD.. V Cyberpunku je to fakticky plichta, v jiných hrách byl rozdíl 5-10% ve prospěch 1080Ti, tzn je to tak jak bych čekal.
Spotřeba 1080Ti je mezi od cca 215W v AC po 280W v Controlu, průměr tedy těch cca 250W což je i ofiko TDP pro 1080Ti.
U 3060 je spotřeba mezi cca 140-180W, takže cca 160W průměr, TDP pro tuhle kartu je 170W
Tzn 0-10% výkonu u 1080Ti navrch za cenu 90W navrch, což je víc jak 50%
3060Ti bude mít odhadem cca 10% výkonu nad 1080Ti a spotřebou je na 200W. Efektivita se posunula nahoru.
Nicméně to nepopírá fakt, že kdo koupil GTX1080Ti hned v úvodu má dneska pořád slušnou grafiku pokud se obejde bez RT. Na FHD má pořád luxusní výkon a s drobnými kompromisy zvládne v poho QHD. Upgradovat jen kvůli spotřebě by nedávalo smysl.
BTW. já měl chvíli myšlenku koupit RTX3080 jako náhradu za 2070S. Normálně hraju s VSyncem na monitoru záměrně držícím 60Hz i když umí víc, v některých hrách ta 2070S sotva spouštěla větráky (gaming x trio) při spotřebě cca 150W, 3080 by to mohla zvládat možná slušně pod 100W což by s podobným chladičem mohlo znamenat že poběží pasivně nebo jen na minimální otáčky. Luxusně tichý herní počítač. Byť má karta o 100W vyšší TDP
Příklad efektivity je ten mnohými nepochopený Huangův graf s 1.9x vyšší efektivitou. RTX2080S s 240W spotřeby dávala v 4k s RTX a DLSS akorát 60FPS, to samé 3080. zvládá pod 130W. Ve FHD by to musela dávat v pohodě pod 100. Opět možnost chladit to s všemi ventilátory v počítači třeba na 4-5 stech otáčkách = nejde to slyšet .
Když zabrousím do historie.. Měl jsem GTX980, vytaktovanou na 1500MHz aby to vůbec mělo výkon, spotřeba 200W, nahrazeno GTX1080 v den začátku prodeje, proti přetaktované 980 +50% výkonu a spotřeba 180W. 1080 nahradila 2070S, výkon stoupl v průměru o 1/3 (non RT, jen rasterizace, RT o 300% s DLSS o cca 400-500%), ano spotřeba vylezla o 30W tzn o 1/6 proti 1080 ale proti 980 je to 2x tolik výkonu a jen 5% spotřeby navíc.
je to i7 bez K, mohl bych ho sice "přetočit" přes BCLK, ale za cenu vysoké spotřeby ... není důvod ... v zátěži, pokud potřebuje všechna vlákna, jede na 4,6, pokud třeba jen 4, jede na 4,7 ... většinou se ale fláká, hraji jen lotro a swtor, takže 2-4 jádra na 40-60%, zbytech chrápe ... vlákna se hodí akorát když hraji "multibox", tam makají všechny ... na půl plynu ... nerenderuji ... v dnešní době se 5600 moc nevyplatí, je předražená (proti konkurenci), potřebuješ dobrou desku, rychlé paměti ... pokud se víc renderuje, pak je lepší jít do 5900x ... nebe a dudy
mibfox 11.7.2021 at 12:57
Obecne by se asi dalo rici, ze na renderovani je lepsi vice jader (treba treba nize taktovanych), nez mene jader (vyse taktovanych). S Ryzen 3000 se situace zmenila i ve hrach, kde Intel predtim dominoval kvuli latencim a vyssim taktum.
Ja bych asi sel do 5900x, nebo levnejsi 3900x (oboji s 12 jadry / 24 vlakny). Pro vase ucely bych v levnejsi variante volil spis 3700x, nez 5600x (skoro stejna cena) a v tomto pripade mi prijde 5600x zbytecne predrazena bez vyraznym vyhodam oproti 3k rade.
Dnešné procesory sú na rendering náročných činností
slabučké ako čínsky čaj. Tým myslím prevzorkovanie
ťažkých formátov 4K videa, poťažmo pokročilé
úpravy fotografií vo vysokom rozlíšení .raw .tiff...
Osobne sa teším na dve tohtoročné fajnovosti:
a/ uvedenie fungl novej platformy Intel Alder Lake
b/ uvedenie 30“ Apple iMac s M1X
O Apple M1X čo-to preniklo, proti M1 má disponovať
výkonom až o stovky percent vyšším...
Z pohľadu audio nadšenca, fotografa a videografa,
ku ktorým patrím, je už SoC M1 doslova malý
zázrak...
Minulé týždne som mal možnosť testovať dva
počítače: 1. Apple mini Mac 4+4jadrá CPU,
16 jadier AI, 8 jadier GPU, 16 GB RAM.
2. Windows 16c/32t CPU, RTX 2080ti, 64GB RAM.
Aspon jeden príklad za všetky – export videa po
úpravách formátu 4K 60p 10-bit 200 Mb/s PCM
stereo, HEVC, na výstupe to samé s rozdielom
dátového toku 25 Mb/s.
Rýchlosť, kvalita výstupu stejná, spotreba počítačov
na zástrčke:
PC 260 W, Mac 12W...
Výkon a efektívnosť M1X bude zrejme patriť
do ríše snov...
No iste Wendaku, zato, že ty a tvoje známosti
nevedia zhodnotit moderné technológie implementované nVidiou sú zbytočné...no to
je presne tvoja popletená logika...
Inak často používaš na prezentáciu svojich
nekompetentných príspevkov množné
číslo, schovávaš sa za imaginárny kolektív...
Je to veľmi zbabelé podsúvať svoje hlúposti
v mene ostatných, trapošina...
No je pravda, ze ten Afterburner tam mam a mam i pocit, ze jsem to meril s nim.
Ale jinak to moje MSIcko zere ukazkovych 330W, co deklaruji v dokuemnetch (meril jsem cely pocitac na zasuvce a porovnaval jsem ruzne spotreby s ruznymi vytizenimi CPU a GPU, plus jsem meril stejny pocitac i s jinym GPU). Ted to sice nemam jak proverit, ale je mozne, ze ten SW to nejak balancoval na max vykon. Kazdopadne ta karta je tichoucka i v max zatezi a v ma perfektni power management. Az na ten max prikon je to za me "majstrstyk".
"3080 by to mohla zvládat možná slušně pod 100W což by s podobným chladičem mohlo znamenat že poběží pasivně nebo jen na minimální otáčky. Luxusně tichý herní počítač. Byť má karta o 100W vyšší TDP"
To bych netvrdil, dokud bych to nevyzkoušel. Je klidně možný, že kvůli tomu paměťovému subsystému, velkému čipu a tak, aby to naopak směrem dolů moc neškálovalo. Podle mě aby to takhle fungovalo, tak by musel člověk ručně podtaktovat a podvoltovat a moc efektivní použití karty za 700$ by to nebylo.
"Příklad efektivity je ten mnohými nepochopený Huangův graf s 1.9x vyšší efektivitou."
Tam si myslím, že to právě bylo podtaktované a podvoltované ručně. Chtělo by to vyzkoušet no...
--------------------------------------
Ale jinak mi to připomíná:
už chvilku pozoruju zajímavou věc, jak se vrací některé věci, které se dřív říkali o AMD × Nvidia a teď to zase je obráceně.
- V době Maxwellu měla Nvidia GPU s menším počtem jednotek na vyšším taktu, AMD naopak.
- Nvidia dosahovala stejného herního výkonu na čipech s nižším udávaným maximálním teoretickým výkonem.
- Taky se říkalo, že skutečný potenciál architektura GCN (AMD) neukazuje ve hrách, ale ve výpočetních aplikacích.
- Nebo varianta: Nvidia měla výhodu v tom, že má GPU architekturu optimalizovanou hry, ne zaměřenou na hry i GPGPU... dneska tomu označení odpovídá spíš RDNA 2 (u kterého je podpora OpenCL zdá se dost neprioritní, ne že bych si myslel, že je to dobře).
- Nižší versus vyšší spotřeba u navzájem si konkurujících modelů grafik...
A teď tu nedávno někdo říkal, že Ampere má obrovský potenciál k undervoltování, což tuším bývalo někdy vysmívané, když se tím obhajovaly grafiky AMD :)
Možná by se daly najít i další podobné body, já si to v zimě poznamenával pro bilanční článek, ale ten pak nebyl, no :)
A teď nevím, kde ty poznámky mám, protože jsem bricknul desku v PC a jedu na rezervním/půjčeném PC (s Intelem, dokonce...) Taky směják :)
Jedno teda zůstává stejný, i když se argumentace fanoušků "proč/proč ne" úplně otočily. Nvidií se vždycky prodá ikskrát víc...
pod čarou zajímavé zamyšlení, ale i když se často zdá, že je to "to samé", není to to samé ... v některým detailech ano, ne jako celek ... podvoltovat ampere a ztratit 2% výkonu, resp. podvoltovat vegu a ztratit 20% atd atd ... amd má výhodu lepšího procesu, tím pádem mnohem vyšší frekvence při nižší spotřebě, předtím byly, myslím, ty procesy stejné u obou ... amd mělo "fičůry", které často ani nešly využít, u nvidie tomu tak není ... a jsou asi další věci ... nechci se v tom rýpat, nevyužívám je, nerozumím jim do detailu ...
podle toho co myslíš herním ... pokud sem tam něco, cokoliv od dellu s tříletou NBD, pro jistoru, :D pokud nějaké seriozní hraní, pak hrubý velký speciál se čtyřmi větráky a velkými průduchy na celé spodní straně ... ale to je ranec ... ohledně tepla pak asi lepší s Ryzenem a nějakou 3050ti, 3060 ...
třeba legion s Ryzen 5 5600H + 3060 koupíš za 27k, ale bude to asi funět :D
Když to v 4K v jedné z pro mě klíčových her žralo pod 130W při 60FPS, FHD to zatíží ještě méně.
žádné podvoltování ani nic takového, bohatě stačí VSync. Ta karta prostě nebude zatížená. Na nějaké nastavování voltážd, taktů mě nenapadne. Už od té GTX1080 mě nenapadne grafiku taktovat. Od března, kdy mám nový základ PC mě nenapadne taktovat cokoli v počítači, díky tomu člověk ušetří, protože může v zít v podstatě to nejlevnější.
A jestli je to efektivní využití karty za 700 dolarů. ANO. Pro mě je třeba Macbook Air s M1 dokonalý laptop. Po zkušenosti s tímhle strojem je u mě pasivně chlazený laptop MUST have požadavek. Dřív jsem záviděl ženě laptop pasivně chlazený, ale nikoli výkon, Intel Atom, i když Gemini Lake, tak se nemůže rovnat běžným Core. M1 má CPU na úrovni i5/R5 z desktopu a to je přesně můj sweet spot, luxusní výkon na všechno co dělám. Můžu mít stejně výkonný laptop levněji, ale to ticho stojí za příplatek.
Proto i moje PC je vyladěné na ticho. 10400F v zátěži jde i lehoučce nad 70 stupňů, ale větrák na Freezer 34 a větráky v miniATX skříni točí jen 400 rpm., klidně bych to mohl držet na 50 a cca 800 otáčkách, ale proč. CPU může jít až na 100 při 400rpm o tom PC vím jen když mám ucho do 10cm od bedny, jinak žádný vnímatelný projev i když se soustředím, v noci v max. tiché místnosti se zavřenými okny. Cvaknutí spínače ve zdroji je třeba to jediné jak poznám že PC vypne.
Mít v tom grafiku co bude točit tak malé otáčky že nebude hlučnější než ty ve skříni, nebo poběží pasivně je pro mě vlhký sen. Dokázal bych dosáhnout stejného ticha při hraní jaké teď dosahuji s Macbookem Air a GeForceNow.
Jan Olšan, gogo1963,
Pozoruji prakticky to same.
Polarisky byly vytocene kvuli vykonu a za efektivnim pasmem fungovani, pak to same zopakovala Nvidia s RTX 20x0 a castecne i s RTX 30x0, takze bych se ani nedivil, kdyby podvoltovani Ampere davalo krasno spotrebu pri ne tak velke ztrate vykonu.
komplik
S tou M1 souhlas, na kancelarske prace se zdaji byt vsechny ostatni CPU jako vysmech. Skoro 2 dny na baterce, vcetne video hovoru, tichy a navic i chladny povrch. Tam kde mi s Intelem sjela baterka o 50-60% za hodinu, mam s M1 -3%. Tam, kde potrebuji vykon a virtualizovat, radeji pouziji poradne zelezo ze sertverovny, nez si to cpat "pod prsty".
Ale kdyz uz jsme u toho, ma nekdo tip na vykonny a tichy herni notas? Asi ted nema cenu nic porizovat, pred prichodem novych CPU, ale spis me zajimaji zkusenosti s nejakou rozumne udelanou radou.
mibfox 11.7.2021 at 16:10
A pak je tam spousta veci, proc bych M1 nechtel. Jedna z nich jsou hry, dalsi treba virtualizace. Nemoznost rozsireni RAM, pri nutnosti swapu docela slusna likvidace SSD, vse pajene na desce. Vendor lock od hlavy k pate. Ale pokud se vejdete do rekneme Applem podporovanych prikladu pouziti, tak asi lepsi stroj z pohledu vykonu a sptreby nesezenete.
Tak vidím, že tady jsem byl na omylu.
techPowerUp začal u grafik testovat situaci "V-Sync on 60 Hz" a (nevím sice, při jaké hře to má puštěné, ale asi to bude herní zátěž) naměřili u GeForce RTX 3080 nakonec těch 100 W:
https://www.techpowerup.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/34.html
Takže nějaká málo náročná hra evidentně může na podobně nízké spotřebě běžet (GeForce GTX 1650 Super v ní zdá se běží skoro naplno, na podobných 100 W).
"Když to v 4K v jedné z pro mě klíčových her žralo pod 130W při 60FPS, FHD to zatíží ještě méně."
No může a nemusí, těžko to vědět jistě bez vyzkoušení, jde o to, jak se ta karta dokáže chovat v nízké zátěži. Ono mi jde hlavně o to, že u RTX 3080 je 100 W už docela malé procento z její standardní zátěžové spotřeby (pod 33%). A tam právě pak nemusí být to škálování energie dolů už tak dobré, protože se může ukázat, že některé části spotřeby jsou víc fixní a méně variabilní vzhledem k míře zatížení GPU. Uncore čipu, PCIe 4.0 řadič, paměťový subsystém nebudou IMHO škálovát dolů se spotřebou lineárně se zatížením. Něco jako u těch čipletových CPU od AMD - když zatížíte všechny jádra, tak na jedno připadá i míň než 10 W spotřeby, paráda... Ale při mírné zátěži, která ani úplně nevytěžuje turbo na jednom jádru, budete klidně v desítkách wattů, protože uncore, paměťový řadič a infinity fabric přidávají vždycky skoro úplně fixní porci spotřeby která se pod plnou zátěží v tom TDP/PPT schovává, ale pod nízkou zátěží najednou bude patrná.
Na druhou stranu těch 100 W pořád není třeba 50 W (tam už bych teda pochyboval dost). Asi by to bylo zajímavé vyzkoušet, seškrtit tu spotřebu a koukat, kolik výkonu zbývá, nebo kam až to má smysl a kde už je lepší přesedlat na lehčí GPU. Trošku si říkám, že by třeba pro tohle mohly mít lepší potenciál karty s GDDR6 než s GDDR6X...