Chtěl jsem konečně jít zpátky k nVidii ( kvůli NVENC), ale ta opět zmrvila svoje karty, tentokráte pomocí malé paměti. Už teď vidím u mojí RX 5700XT, že některé hry si vezmou skoro všechnu VRAM, tak jak to asi bude vypadat u grafiky, která má výkon 2080Ti a má jenom 8GB VRAM? To si opět nějak kvalitně ve 4K nezahraju a budu muset zůstat u 1440p. Možná je tam nějaká pokročilejší komprese, ale furt je ta paměť fyzicky malá.
Tak či tak, tento rok novou GPU kupovat už znovu asi nebudu a počkám si na další generaci, která snad bude mít vychytanou tu paměť. AMD má sice fajn grafiky, ale nenabízí to, co já potřebuju a real-time enkodování přes CPU (R9 3900X) taky není vždy výhra.
Jsem rád, že AMD konečně opustilo radiální ventilátory a začalo používat standatní chladiče, které používají AIB partneři už léta.
Nic víc se z toho vyčíst NEDÁ. jen mě překvapuje, že tady všichni už mají jasno jaký to bude propadák a že je AMD pozadu...
Pánové stává se z vás opačná strana DDgaráže, jste stejní, jen na druhém konci. Nebylo by lepší počkat na reálné testy? A jak se to bude chovat (jak návrh Nvidie, tak AMD) pod zatížením? Vydání je jen cca 1 měsíc a něco od sebe, takže žádná tragédie.
A řešit marketing? WTF? Je to dětínské. Jediné, co můžete říci je, že vám se to nelíbí, ale vnucovat to ostatním je blbost a děláte ze sebe trubky, protože někomu se líbí, jinému ne, tak to na světě chodí...
Vzpominam (vzhledem k nazvu) na svuj byvaly HD6870 :) jel jsem pro nej do nejakeho prdelniho kramu v centru, alzator ani czc tu kartu nemeli. Vysolil jsem 7200,- a doma byl velice prijemne prekvapeny vykonem i oc.
Tak snad to amd naceni dobre, ja uz se novych karet nemuzu dockat pro srovnani.
Diky za newsku.
AMD grafiky majú dlhodobo slabé renomé, však to aj vidieť na radikálnom poklesu predaja, keď za relatívne krátku dobu prišli o 1/3 trhu....Navyše použíté nVidia karty si na bazošoch lepšie držia cenu, potom " výhodnejšia cena " novej AMD karty sa časom rozplynie....
- pre videografa je nVidia ďaleko výhodnejšia investícia, AMD stále nedokáže konkurovať rýchlosťou/kvalitou NVENC
- pre fotografa bude RTX 3XXX /tensor cores/ takmer iste znamenať zásadný výkonový skok v AI edit
- hráčska komunita sa na 99% znova nedočká top karty
Takže jak spieva Katapult - " Někdy příště ! "
TechPower otestovali RTX 3080 v rámci procesorov, Intel 8/10jadrá dokážu vybudit novú kartu lepšie ako Ryzen 3900 a to dokonca vo verzii XT. Po pretaktovaní sa ten rozdiel v prospech Intelu ešte zvýši :
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/single-page.html#introduction
Vim, ze toto je clanek o NAVI2, ale RTX 3080 je docela narez. S timto se bude asi AMD tezko potykat. A me ted i tesi, kdyz jsem rikal, ze RTX 20x0 je testovaci shit rada, kterou Nvidia fanousci mile radi zaplati.
Co se tyka RT, tak nativni porad nic moc, ale s DLSS 2 uz to posunuli o kus dal, a opet AMD asi nastanou krusne casy.
No a kdyz vezmeme v uvahu vykon, cenu a dostupnost, ve srovnani s o mesic spozdenym (asi papirovym) oznamenim RX 6000, ..AU! Jeste ze ma AMD ty konzole.
JayZ -> https://www.youtube.com/watch?v=32GE1bfxRVo
Osobne porizuju RTX 3080baby behala 120Hz plus ve QHD, protoze tam to i RTX 2080 Ti nedavaji. 4K me nezajima na hrani tam to jeste malinko chce ten vykon posoupnout .Nechci hrat na 60Hz ...
Co ma intel je jedno jeden soc. jedna deska jedno CPU nez zase bude zmena.. to vazne za to nestoji. Jak bude Zen 3 hned beru 8smi jadro a procento sem tam neresim.
AMD GPU take neresim ,prijdou prilis pozde a je mi celkem jedno jestli daji stejny vykon o 50€ levnejsi ,proste prijdou pozde. Provozni vlasnosti ref. RTX 3080 mi prijdou OK ,zdroj na to mam a Wat sem Wat tam vazne resit nemusim
Tak v extrémních případech pro 2-3% lidí, co kupují grafiku, platí, co míše C.K. maďar
Pro 97-98% zbytek (takže prakticky všichni) si raději počkejte, co se vydá, otestuje a pak vybírejte.
Mě se sice 3080 líbí a bral bych ji, ale chci vidět srovnání, ať nekupuju zajíce v pytli, částečně už něco uvidíme dnes odpoledne.
Taky jsem už zvládl tři reviews. Výkon vůči 2080 je masakr. Chlazení opravdu povedené. A taky fakt, že si špičkově pápne ke 350W. Tady trochu bohužel (nebo pro AMD bohudík ;) ...), že to není na nějakém lepším procesu. Ale je to otázka, TSMC na 7nm je plně vytížená a v tomhle to byl možná od Nvidie dobrý krok, byť za cenu horších provozních vlastností - ale jak horších, to se uvidí s uvedením RX6000.
3080 je povedena karta a opravdu konecne posun, ktery vsichni cekali uz od 2xxx. Jestli mne ale neco zklamalo, tak je to spotreba a prave RT. Cekal jsem, ze RT bude v tehle generaci o dost lepsi. Tak snad priste. Jay2 je spravny exot a ma celkem zabavne videa, ale pokud je clovek zamereny na techicke testy atd, tak jsou lepsi weby. To stejne plati i pro Linuse.
3080 si pápne, to bezesporu. Na grafech, co jsem viděl, špičky spotřeby u té FE lítaly někam k cca 350W a otázka, jak na tom budou OC nereference. Na druhou stranu, předpokládám, že kdo takovéhle karty cíleně kupuje, má nebo si pořídí adekvátní zdroj. V současné době mám pc s řízkem 3700X a zdroj mořskýho soníka gold 650W, takže 3080 FE by předpokládám zvládnul. Jak jsem tu ale už psal, čekám na 3070 (a taky na RX6xxx, jak budou vypadat).
Mě to jedno je, mám grafiku co mi výkonem dostačuje a asi ještě chvíli stačit bude a pokud bych kupoval novou tak s výrazně vyšším výkonem a to jen proto abych mohl hrát hry při pasivním chlazení případně s fany na otáčkách kde nepůjdou slyšet, takže nepřichází v úvahu ani AMD ani NV reference.
Otázkou je, zda u AMD karet budou k dispozici nereference když to přijde na trh, tzn. zájemce bude omezený na to co připraví AMD.
Co ale fakt nechápu je ten marketing. Ukážou chladič ve hře, i když připustím že si lidi běží instalovat hru, případně se snaží dostat do místa kde je, tak tam vypadá jak cihla, daleko od reality, ukáží kvalitní render, který už dává lepší představu ale liší od fotky, proč rovnou tu kartu nevyfotili, render vypadá konstrukčně hůře než fotka. Proč se nepochlubí klidně vyfocenou maketou namísto renderů. AMD potřebuje tlačit na masy a i když je fortnite velice úspěšný a hraný titul, tak o té grafice v něm stejně většina lidí vědět nebude nebo jim to bude u zadele, hrají to z jiného důvodu než aby tam koukali po vzhledu nové grafiky.
No nevím mě ta karta moc povedená nepřipadá. Spotřeba jako prase, výkon akorát ve 4K je nad 2080TI o 30%. Jinak je to méně. FullHD kolem 18%. Jsou hry kde je pomalu na úrovni 2080ti.
Na prezentaci ukazovali něco jinýho. Prostě hype jak prase lidi prodávají 2070S kolem 8500kč, 2080S kolem 13k. Záleží za kolik to budou prodávat obchody - nereferenční modely.
Už se ukazují a není to špatné:
https://youtu.be/KXNGXfoWkZo
https://youtu.be/dpQhWGn7hOI
V prumeru je 'meritelny' rozdil jen ve 1080p. Jakmile jde o 1440p a vyssi rozliseni, tak jsou rozdily minimalni a nema cenu se jimi zabyvat, snad jen v pripade, ze nekdo vylozene hraje nekterou z par her, kde nejaky rozdil je. Prumer ze 14her u 1440p je +6% ve prospech 10900k vs 3950X (bez OC a memory OC)
https://static.techspot.com/articles-info/2099/bench/CPU_1440p.png
Ve 4k nejsou rozdily zadne a to ani v tech samotnych dilcich hrach
https://static.techspot.com/articles-info/2099/bench/CPU_4K.png
Pokud nekdo hraje 4k nema smysl resit jestli Intel nebo AMD vubec. Pokud hraje s ultra kartou jako 3080 1440p..tak snad jen v pripade, ze gamesi jednu z tech her, ktera Ryzenu uplne nesedi a ten narust vykonu mu nestaci. Ale v prumeru je to zase jedno.
Tak mne vadi spotreba i 250W na GPU, jenze AMD na tom zrejme bude podobne - kolem tech 350W - takze spotreba se asi nebude moci dat brat jako znevyhodnujici argument.
Co se tyka treba 1080 Ti a RX 580, tak rozdil pri hrani bylo asi 60W (nevim presne uz), ale idle mi spotrebove vychazel lepe u Pascalu.
U novych generaci GPU predpokladam minimalni rozdily, ale vykonove zrejme ve prospech Nvidie (Watt/frame).
JayZho jsem sem mrsknul prave proto, ze to to hezky shrnul.
to je pravda. Zapol som X-Plane 11 a dal som do neho 737-800 v 4K textúrach. Všetky detajly som uvalil na max. Nie že by to počítač nedal, ale 4K textúry toho lietadla mi položilo hru. Hodilo chybovú hlášku s nedostatkom VRAM. A to mám 1080 TI s 11GB VRAM. To bolo prvý a posledný raz čo sa mi stalo že mi nestačila VRAM :D :D
Top karty reprezentuju maximalny vykon, ale je to naozaj to, co vzdy potrebujeme, za kazdu cenu? Podla mna nie. Ak si nemas problem priplatit, kup si kludne to najdrahsie, ale mna napriklad zaujima vyrovnany balanc v pomere cena\vykon\spotreba na W. Zalezi to vzdy na tvojich specifickych poziadavkach a nie kazdy pracuje s content creation alebo AI model training kazdy den :) No nie? :)
Až bude mít AMD zase nějaký problém, tak mi napiš, já ho už 3/4 roku neviděl. Podle toho co píšeš, tak AMD nemá ovladače v pořádku doteď, což není pravda. Ano, na přelomu roku byl problém, ale to mívá Nvidia taky a daleko vážnější (uvaření GPU v noťasích)... Enknodování je okrajová záležitost, máš tam ještě vůbec něco validního?
@DD, však v tom odkaze to máš sumarizované, referenčný procesor 9900K = 100%,
1080p : nepretaktovaný 10900K =101%, Ryzen 3900XT = 90%
1440P : 100% vs. 93%
Takže si k tomu pripočítaj profit z OC a ihneď si v 1080p +15-20% na intel CPU...
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/
Upřímně ale kdo je "target audience" toho virálu? My entuziasti, kteří tohle sledují, 1% zákazníků? Co zbylých 99%? Tam je potíž AMD makreting Steve z GN na toto téma měl minulý týden pěkné video.
Příkladem "Poor Volta". Pomiňme věcný význam, ale co tenhle výkřik do tmy řekne zákazníkovi, který potřebuje počítač na hraní a o HW se nezajímá, prostě zmáčkne čudlík na té krabici pod stolem, na ploše pokliká ikonku hry a hraje. Takovej člověk vůbec netuší co to Volta je a co tím AMD myslelo.
Mantra...
"Nvidia = malá paměť, velká spotřeba AMD = neuvěřitelná efektivita, malý čip"
Ono niektorým by stačilo aby si skôr než začnú napr. nadávať na spotrebu 3090ky alebo vyzdvihovať efektivitu či "malosť" jadra u Radeon RX aby si teda predtým prečítali svoje komenty z doby Vegy 64 vs 1080/Ti...
...aby si pripomenuli ako to zo spotrebou bolo podľa nich "rôzne", ako sa jaDDrá nedali priamo porovnávať vzhľadom k odlišnej výbave a procesu či kto má na grafiku za 20litrov spotrebu nerieši...
Ale tak je mi jasné a už to vidno že kabáty a pohľady sa už teraz otáčajú...
Ako už to vyzerá že nVidia bude žrať ako tank ale tak minimálne pri tej bezkonkurenčnej - zatiaľ tak vyzerá - RTX 3090ke bude samozrejme 350W sakra, sakra dosť ale bude to za mega výkon mimo dosah čohokoľvek na trhu a nie len vysoká spotreba za niečo čo sa dotiahlo na 15mesiacov starú konkurenciu (Vega 64 vs 1080).
Iste, preto máme na výber viac modelov v rôznych cenových reláciách. To čo som napísal v posledných dvoch príspevkoch odráža realitu trhu. Inak u Radeoniek je nielen podstatne horšia podpora pre kreatívcov. ale i problémové ovladače, ostatne ten 1/3 prepad Radeoniek na trhu je jasný signál širokej hráčskej komunity...to už objektívne neokecá ani garážmistr....
kamarád má RX580 a když na youtube klikne na celobrazový režim, tak musí předtím přepnout na maximální kvalitu 480p, jakékoliv vyšší rozlišení způsobí že obrazovka je černá. Tak poraď co je špatně? Říkal jsem mu že jediná možnost je přeinstalovat ovladače, ale to nejde, musím je smazat přes nějaký externí program prý odstraňovač instalace, přepnout se na integrovanou inteláckou grafiku v CPU a nainstalovat ovladače znova?
Je tento postup správný? Pomůže to?
Víš o tom prd, kdybys nebyl guma tak bys věděl že velká většina lidí hraje ve fullHD a že jsou LCD co mají 144/240HZ. Těch lidí co má doma 4K LCD nebo TV je minimum. Občas se koukni na statistiky třeba na steamu aby ses vrátil na zem, protože jseš mimo. Ta karta má mít výkon ve všech rozlišeních a ne jen ve 4K. Při prezentaci nám big boss tvrdil něco jinýho.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/single-page.html#assassins-creed-odyssey
Rozdíl 15FPS oproti RTX2080ti no nevím nevím to není moc rozumný upgrade a spotřeba +100W to je fakt terno.
A kolik lidi si kupuje pro 1080p kartu jako 3080 aka 2080Ti+13%? 2 ze sta nebo mozna celych 5 ze sta?
1080p nema smysl resit, tvuj OC nema smysl resit pro vyssi rozliseni taky. Krome toho ja jsem ti uvedl sample 14her, ktery ma daleko vyssi vypovidajici hodnotu, nez cherry pickup 3 her na techpowerup. 3080 je karta pro 4k a mozna tak pro masochysty jeste na 1440p.
No tak tady se musim CeKa zastat, protoze top model vetsinou poukazuje na schopnosti dane spolecnosti, ceho kam az muze zajit. V pripade Nvidie je to krasne videt - Pascal, dlouhodobe vyhodna koupe diky sirokemu portfolio, vykonu a spotrebe. Amper vypada dost podobne, mozna i lepe. Co se tyka AMD, tak oni zenou sve top modely na krev, kde vyrazne klesa efektivita a zhorsuji se provozni vlastnosti - vlastne to same, za co je ted kritizovany intel se svymi CPU.
Co se tyka RX 6000, ja osobne bych pockal, kdybych chtel nove GPU, protoze me minimalne zajima srovnani. Na druhe strane si nemyslim, ze AMD bude mit cip, ktery zadupe do zeme RTX 3090, nebo snad mozneho nasledovnika.
Wendak 16.9.2020 at 16:13
Tak ono je tam toho vic, jak treba zminoval jeden uzivatel v minulem clanku v reakci na ovladace a linux. Passthrough a dalsi management, kdy Nvidia karty se pri zaseknuti dokazi behem par s resetnout a tedy "vzpamatovat" bez zasahu uzivatele, zatimco u AMD ten stejny zasek (ktere se deji) to znamena reboot.
U me je cela RTX 20x0 rada spatny vtip, ale nekdo to ma jinak. Takze v tomto souhlasim. Take plne chapu vas postoj.
Take se ale snazim trochu setrit planetu ruznymi zpusoby a jeden z nich je prave spotreba elektroniky (pokud vylozene nepotrebuji maximalizovat vykon). Napr. proto nemam rad tezbu "kryplomen" (odpustte mi prosim muj vyraz).
A ty jsi si nevsiml, ze se mluvi o tom "ze se muzes kouknout na novu AMD kartu ve fortnite"? Je to normalni reklama. Fortnite ma reklamu z AMD, AMD ma reklamu z Fortnite..nechapu co na tom nechapes. Oplatky "opavia" nebo "persil" taky kazdy znal a byvaly doby (nemam televizi, tak nevim jak ted), kdy to tam bylo porad. To jsi se taky divil, proc to tam je?
Ono to TDP fakt neni uplne sranda. Ja mam komp v docela velkem pokoji, pri encodingu si to CPU rekne nekde mezi 130-145W a pri treba nejakem batchi, ktery trva 2 dny, tak se mi v zime zvedne v pokoji teplota o 1-2 stupne. V parnech tyhle veci ani nedelam. Takze at NV nebo AMD, kdyz to bude zrat 3x tolik (celek) a nekdo bude hrat X-hodin v kuse, tak hlavne v mensich mistnostech to bude vesely. Ale v zime, nebude muset aspon tak casto zapinat topeni :))
To ja posudit neviem, nie som tunajsi expert na vsetky karty. Ja mam nVidiu, kamarati AMD a vsetci sme spokojni, kazdy mame to co potrebujeme. Kazdopadne verim, ze AMD to potiahne a potrebujeme konkurenciu ako sol, pozrime sa na situaciu Intel vs AMD. Nech si kludne nVidia ostane najlepsia, ale nechcem kupovat ich karty za nehorazne ceny, preto tu mame AMD a ja im zelam len to najlepsie :)
s YT jsem žádné problémy nezaznamenal, a to jak s RX480, tak s RX5600XT. Ale v rodině nepoužíváme Chrome, tak je to možná tím, že tento googlí práskač má nějaký problém. FF video akceleruje bez problémů (viz about:support).
Ovladače mají už minimálně tak 3/4 roku, možná i déle možnost provést čistou instalaci, není třeba dělat nějaké kejkle (ono to teda nebylo třeba ani dřív, pokud uživatel nebyl prase nebo notorický čistič registrů)
Tak sestava (QLED + OLED + 25UW monitor + PC = RX 5700XT + R9 3900X PBO 140W) bere kolem 700+W, během hraní (pokuď Wattmetr nekecá. Zároveň i vždy, když hraju, tak streamuju, takže CPU i GPU jedou víc, než u obvyklého hráče). Bydlím v paneláku, který to teplo drží uvnitř hodně dobře. PC mám pod stolem, Teploměr nad stolem na poličce ve výšce cca 1m nad zemí. Řekl bych, že je to spíše taková tepelná kapsa, jelikož třeba na druhé straně místnosti se mi zdá, že je vždy o trochu chladněji, než kde sedím. Ale v místě, kde sedím, je teplota i o těch 6°C vyšší. Samozřejmě ne vždy, někdy to jde jenom o 3-4C, záleží, jaký záhul zrovna PC dostává a kolik to žere.
Ja mam v jednom kompu rx580 a tenhle problem jsem nikdy nevidel ani na Chrome, FF nebo VIvaldy.
Jinak pro cryptona, AMD ma uninstall utilitu
https://www.amd.com/en/support/kb/faq/gpu-601
- odinstalovat pomoci utility
- restart
- nainstovat nove drivery
odinstalovat CHrome, restart, nainstalovat znovu, potazmo vykouset treba FF
Jeste muzes zaexperimentovat i s timto
https://support.ipconfigure.com/hc/en-us/articles/360023105331-Disabling-GPU-accelerated-video-decoding-in-Chrome-for-improved-performance
komplik 16.9.2020 at 9:33
Ja nevim, co proti tomu Fortnite renderu porad mate? Je to neco jineho, nez jsme tu doposud meli a vypada to, ze to funguje. To, ze to nechapete neznamena, ze AMD udelalo v tomto chybu.
Aznohh 16.9.2020 at 11:03
Presne! :D
I kdyz s "poor Volta" jsem si take rikal, ze marketing AMD je fraska. Stejne tak The Fixer mi prisel jako hulvatsky hloupy, protoze nemam rad utocne chovani.
Ok, tak to beru zpet, s tim poctem her jsem se prehledl. Nicmene vystup je v principu stejny. Jednem vysel rozdil pro 1440p 6 a druhym 7%. Rozdul ve 4k je v prumeru nemeritelny.
Btw pokud by jsi ladil pameti u Ryzenu, tak jsi schpny dostat i tam slusne narusty, ale zaae to ma v principu jen smysl pro 1080p, pro ktere twnhle druh karet neni urceny.
Proč oproti 2080Ti? 3080 by se měla srovnávat s 2080 (karty za stejnou cenu). A tam je ten výkonový rozdíl dost znatelný. Na to, co tvrdil při prezentaci big boss, kašlu, jestli věříš všem marketingovým plkům, tvoje chyba. Pokud si pamatuji, Nvidia uváděla "up to 2x 2080" a v některých hrách, co jsem narychlo viděl testy, se to tomu blíží (cca 1,8-1,9x v testu Borderlands, TomsHW).