Jen bych se chtěl zeptat, jak je míněno to sériové zapojení ventilátorů(v první kapitole v popisu karty)? Na první pohled to evokuje, že by mohly být zapojeny sériově elektricky a přijde mi to trochu nešťastně vyjádřené.
Jinak díky za další detailní recenzi, škoda jen že se příliš nepovedly ty provozní vlastnosti a nižší přijatelnější verze jsou stále v nedohlednu...
jenže RT je docela zajímavá funkce. Navíc NV aktivně integruje, takže staré hry jako Quake či Portal vypadají lépe a jsou to updaty zdarma. Co nabízí AMD krom chabé odezvy na průkopnické technologie NV? Obávám se že nic, prostě jsou jen ti "následující". Obdobné to bylo s teselací kterou doháněli snad tři generace. Naopak výpočetní režim v GCN krom vlajkové lodi Ashes of Singularity prakticky upadl v zapomnění či se používá v kosmetické formě. Jediné co se výrazněji prosadilo je FreeSync což není nic co by bylo klíčovou featurou kvůli které se rozhoduje při nakupování. Vulkan jako reakce na nedoladění DX11 také jen přežívá, opět nic co by svět 3D aktivně posouvalo, je to užitečné multiplatformní rozhraní ale tak nějak dost stagnuje. Kdo si dnes vzpomene na nadstandartně vybavené Radeony Grenada 8GB - nejenže upadly v zapomnění ale i sám výrobce je aktivně vyřadil z podpory ikdyž hw sám o sobě by stačil i vůči novějším gpu Polaris (které navíc vyspěly prakticky až ve třetí generaci RX 590) - a tím se vracím k argumentu jak mnozí používají že 20 GB je prostě pojistka do budoucna - vezměte si ale příklad s Radeonů Grenada, až AMD začne mít pocit že mohou výrazněji parazitovat na nových grafikách tak jednoduše zařízne podporu. Grafiky AMD nejsou levnější a nepadají jim ceny rychleji bezdůvodně....
Jasné, máte pravdu, znie to divne. Elektricky sú, samozrejme, zapojené paralelne. Bola tým myslená séria troch ventilátorov v reťazovom zapojení (jeden ventilátor sa reťazí s druhým svojim vlastným konektorom). Chcel som to kvôli (ne)opakovaniu slov napísať inak, ako je potom upresnené v nasledujúcej vete. Ale ako na to pozerám, tak tam v rovnaká tá informácia vlastne ani dvakrát byť nemusí, takže premazávam. :)
Víte celý ten chvalozpěv na Nvidii má jednu podstatnou chybu. Všechny ty revoluční technologie jsou pozitivní jenom ve Vaší hlavě. Proto se vrháte na kritiku AMD technologií. Trh Nvidii dal onen pomyslný palec dolu a tihle bojovníci v tržní aréně co podlehli těm od AMD padli. Lidé je tak poslali na smetiště dějin. Abych řekl pravdu tak nejrevolučnějším činem Nvidie bylo, že se chytili Microsoftího dx a šli touhle cestou na rozdíl od DFX. A to se neposmívám a za to je chválím.
Ano Vulkan můžete chápat jako neúspěch. Nicméně jeho vznik rozpohyboval Microsoft k dx12. Takže jeho smrt zase takovým neúspěchem nebyla a jistě nebyla zbytečná. Nad Nvidií se stahují mračna. Bohužel se vydala cestou Intelu a mohla by i tak dopadnout. Podívejte se CPU nastavili cestu chipletů. Vývoj v oblasti GPU ho kopíruje jenom má trochu zpoždění. Příchod krize odstartovaný válkou na Ukrajině může Nvidii přivést v podobě AMD ještě větší problémy než AMD přineslo Intelu. A to si uvědomte jak AMD prakticky vytlačilo Nvidii z konzolí. to je pro ně veliká výhoda proti Nvidii.
To co jste napsal by bylo určitě dobré pro uši koženkového pána kterého koženka nezachrání před stárnutím. Měli by se v Nvidii probudit a začít zatápět AMD. Poslední šuškanda říká, že se chtějí vrhnout na AI. No uvidíme ale je to jako by začali vyklízet pole AMD. Doufám, že je to jenom šuškanda nebo že se mýlím.
Jako tvůj komentář stojí za přečtení a závěr jsi udělal správný, jen jsi některé věci úplně nepojmul. Například zcela klíčová funkce FreeSync, kde to AMD zvládla na jedničku a je to velký pokrok, nám může být příkladem, ale třeba pro Vulkan, který také zmiňuješ, platí to stejné.
Co se stalo? AMD vymyslela FreeSync, super funkci, kterou musí podporovat i monitor, ale tam je integrace tak jednoduchá, že to zvládli snad všichni výrobci. NVidia vymyslela GSync, funkce je podobná, ale implementačně drahá, takže se prosadilo řešení od AMD. Co na to NVidia? Okamžitě to integrovala a dneska ti na FreeSync monitorech ta funkce běží i s GeForce grafikama.
Ale nejen AMD má úspěchy s novýma "fýčurama". I NVidii se povedla skvělá vychytávka - raytracing, RT je na grafikách NVidie skvělé, kdežto na grafikách AMD vcelku o ničem a tady právě přichází ten kámen úrazu. Místo, aby to AMD co nejrychleji integrovalo také, tak RDNA2 nic, RDNA3 nic a že by to mělo přijít v RDNA4 také nic nenasvědčuje. AMD zase zaspalo dobu.
Keby som mal vyzdvihnúť technológiu ktorou AMD prispelo k zlepšeniu herného sveta, tak je to "Mantle" z ktorého vznikol "Vulkan" (jeho multiplatformnosť mnohý nedocenujú) a v neposlednom rade to donútilo Microsoft vytvoriť DirectX 12....osobne by som to prirovnal k počinu x86-64 vo svete CPU (možno to nezdvihlo výkon v tej dobe, ale v budúcnosti sa to stalo ako nesmierne dôležité).
Na Polaris by som nehovoril krivého slova, lebo história ukázala, že je to takmer nesmrtelné GPU (prežilo 2 vlny kryptohorúčky) prešlo už takmer 7 rokov a stále je použiteľné v 1080p, keby v tej dobe malo peniaze na 16nm TSMC, tak by takty a celkový výkon vypadali oveľa lepšie, ale to nič nemení na tom, že je to veľmi úspešná generácia strednej a nižšej triedy za slušné peniaze, aj teraz na bazárovom trhu.
AMD nieje charita, ale je to firma s lepšou/zdravšou filozofiou a hlavne orientáciou na zákazníka, nie ako nVidia, kde je citeľný prvoradý zisk...cítiť ho na každom kroku a z každej technológie aj z toho kam smerujú ich priority...profi a server segment.
Kdyz vynecham (slovy A. Wgnera, zdravime zelenace) sponozorovane tituly NV jakym je Cyberpunk, tak ma 7900xt +18% RT navrch.
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_2560__1440
Spotreba 4070 je samzrejme nejsilnejsi a nejlepsi duvod, proc do 4070 jit, pokud ji clovek sleduje.
Z ciste vykonostniho hlediska je 7900xt samozrejme lepsi volba.
btw..ked rozoberáme tú prvú revolučnú DX12 architektúru GCN 1 HD 7xxx z roku 2012, tak jej priamy konkurent z toho istého roku je Kepler.
A zatiaľ čo všetko od GCN 1.0 až po GCN 3 (Hawai či Tonga) je už roky mŕtve ako píše Saruman, posledný zatial oficiálny drajver od nVidie pre Kepler je z Marca tohto roku. Dokonca aj pre Windows 11 ????
to není přímo kritika, jen sumarizace. Nejsem v PC Metuzalém, ale ani děcko co si s tím hraje pár let. První grafika koupená za vlastní byla FX 5200 128, přes 6600GT 128, Radeon 9600Pro 256, 1950Pro 512MB atd víceméně střídavě doteď kdy už víc preferuji karty Nvidie z dobrých důvodů. Poslední Radeonku jsem měl na 3 měsíce RX 6600 takže taky nijak dávno. Tedy můžu už nějak rekapitulovat.
zapomínáš na klíčové kdo se snahou o zlepšení obrazu přišel. AMD se jen "přifařilo" a pouze reagovali na aktivitu konkurence - jako obvykle.
To samé s DLSS vs FSR, reakce na aktivitu konkurence která ukáže směr a provede prvotní práce, takže už je na čem stavět.
Až u Mantle se dokopali k aktivitě kvůli neuvěřitelné liknavosti Microsoftu a dodali jim použitelné řešení ze kterého DX12 vychází. Jako náhrada OpenGL samozřejmě super, jenže tak nějak si to MS ale i Apple rozebrali po svém a Vulkan víceméně stagnuje proti DX12 i Metal.
jenže 7900XT je číslo dvě, stejně jako u NV 4080. A to že zápasi s menším ořezaným čipem konkurence s úzkou 192bit sběrnicí je dost trapas který zachraňuje aspoň částečně jen rychlé snižování ceny. Jenže to už tady bylo, AMD s GCN s 512/384bit sběrnicí, nadupaným jádrem a nakonec to soupeřilo s 256/224bit GTX 9xx...
Tady je vidět, jak je dobrý marketing důležitý. Uděláš třeba srovnání, kam zařadíš dvě hry zaměřené prioritně na Playstation (AMD), dvě hry bez příklonu k nějakému řešení a jednu hru s příklonem k NVidii a hle ta RX 7900XT se tváří jako docela slušný kousek. :-)
Sice pravda, ani tak se RX 7900XT nechytá na stejně naceněnou RTX 4070Ti, takže to taková bomba není, ale oproti o 5.000 Kč levnější RTX 4070 už je tam slušný náskok.
:-D :-D :-D
Fakt to nemá cenu, RX 7900 nejsou prostě karty, které by u hraní měly dobrý poměr ceny a výkonu. Nad nima uvažovat, pokud to nechci na nějakou další práci, nemá smysl.
Za mě teda nemá smysl teď upgradovat vůbec nic, pokud ještě nemám nějakého Maxwella nebo dejme tomu grafiku z generace Pascal. Do nových PC je teď nejlepší volba ta RTX 4070, ale s upgradem je dle mého názoru lepší to ještě tenhle rok vydržet na starších grafikách. Těch her, které na nich pořádně nejdou, zase tak moc není!
Tak to by nebyl jaycop. Tohle byl jeste pohodovy prispevek od nej :)
Za mne si NV snizi 'raiting' sama uz jen tim, ze dava malo pameti.. kdyz vidim, ze na bazosi se ted prodavaji 3070 za 7k a 6800 klidne i za 10k, pritom 3070 za 7k je fakt dobra cena a ja bych to za ni k vuli VRAM nedal...jak se casy najednou meni :))
Takže od firmy, které vyčítáš, že má nějakých 10% trhu a není se schopna dostat na víc, očekáváš, že bude technologickým lídrem na poli nových technologií ???
Mně právě přijde, že s ohledem na tržní podíl AMD je na poli technologií dost hustě úspěšné.
A ikdyž můžeš říct, že AMD musí dělat něco navíc, aby jejich podíl šel nahoru, tak AMD většinu technologií dělá univerzálně, využít je může kdokoli. NVidia si jede jen na svém písečku a neudělá pro všechny jedinou věc, vždycky je to výhoda jen pro NVidii.
A jistě i tady můžeš říct, že to NVidia dělá, protože může a že musí myslet hlavně na svůj byznys. To je v pořádku a nikdo po nich nechce, aby dali konkurenci do rukou své RTX, ale třeba takový tragický open-source ovladač na linux - Nouveau. Proč do něj nemůže NVidia aspoň trochu přispět a vylepšit ho tak, aby nepadal, copak by je to nějak ohrozilo nebo by jim to snížilo zisky? Ne, naopak, ale NVidia neudělá pro komunitu nikdy nic.
Jestli to je kritika nebo není je detail. Jenom ukazujete, že Vám stejně jako Aznohhovi splývá oblast technologií a prodejů. Nechápete stejně jako koženkový chlapík, že když nemáte sílu něco prosadit tak to musíte dát k dispozici všem a zadarmo. V tomhle je Nvidia bohužel onen pověstný blbec co se pálí o stejná kamna.
Bohužel pro nás uživatele se chovají stejně jako Intel a pohřbívají velice zajímavé technologie.
Človeče, to že nejaká firma nerobí úplne všetky segmenty trhu, ak sa tak rozhodne, je normálne. Tak isto je normálne, že zrovnávaš karty v cca rovnakej cenovke. AMD sa už pri uvedení rozhodlo, že RX 7900XTX bude stáť proti RTX 4080 a RX 7900XT bude stáť proti RTX 4070ti. Až na ten výkon v Raytracingu je aktuálne výborná voľba AMD (cena/výkon). Každopádne by AMD s RDNA4 malo zapracovať hlavne na výkone DXR/Vulkan RT, pretože je čoraz viac naň kladená váha (predsa len herné engine-y sa vyvíjajú).
"A to že zápasi s menším ořezaným čipem konkurence s úzkou 192bit sběrnicí je dost trapas"
.. takovy zvidavy dotaz..v cem a s kym, ze ta karta "zapasi" s 4070?
To asi ne,.. Pokud mas na mysli 4070Ti, tak ve 4k, kam jsou ty karty vicemene uz delane, tak je nejakych 13% rychlejsi v metodice CB a 6% pomalejsi v RT. Tak muzes to nazvat zapasem pokud chces, ja bych to asi tak nenezyval. Spotreba je cca 10% nad 4070ti.. takze zase nejak nevim, co tady zapasem nazyvas. Nevim,
Na 4070ti nic zazracneho neshledavam. Vzhledem k 12GB VRAM za mne karta, ktera bude/muze byt za dva roky na tom stejne blbe jako 3070...Nebrat.
Jinak jsem taky s RDNA3 trochu zklamany. Cekal jsem, ze navaze plynule na RDNA2..nestalo se. Ale pruser to taky neni. Budou rozhodovat ceny.
Netřeba to zveličovat. Všichni tak nějak tušíme, že není úplně ok, když highend AMD bojuje s nižší střední třídou NV a obhajovat to vyšší VRAM moc neobstojí. RTX 4060/70 (Ti) si asi málokdo pořídí na hraní ve 4k, takže i těch 8-12 GB je dostačujících. (Osobní zkušenost.) Kdy to stačit přestane, nikdo neví, rozhodně to ale nebude skokově.
Divný! Před 2 měsíci jsem z manželčina PC vyhazoval Radeon HD6950 (nahrazeno nějakou šuplíkovou RX560), a to jen proto, že je dnes už pažravá (200W) a čas od času se objevily artefakty (už v BIOSu, takže začíná umírat). Grafika fungovala, daly se na ní spustit hry (které na tak obstarožním HW dávaly smysl) a drivery jsem neřešil - ty legacy drivery co jsem nainstaloval, tam byly celou dobu. "It just worked." (tuhle hlášku určitě znáš) ????
Já ji právě nepotřebuju ohulit. Já potřebuju abych neměl v pokoji vedro. I tu blbou 3070 jsem měl podvoltovanou protože měla TDP 270W z výroby, bylo to hlučný a v pokoji vedro. Je jasný že když čumím na net nebo filmy tak to nežere = netopí. Já mám taky ve skříní průvan ale 300W+ karty jsou prostě nesmysl protože to moc topí a hlučí.
"Musieť dať všem a zadarmo"
Mám pocit dedo, že si sa zasekol niekde v minulom režime, ale takto to dnes skutočne nemusia robiť. Možno tak v Rusku u vášho obľúbeného Putina musíte... my tu máme kapitalizmus vole.
Sa tu moc rozmohol Rudý mor AMD komunistov keď tu čítam všade tie keci o zlých zelených, lebo vám niečo nechcú dať zadarmo ????
to má být jako obrana ?? XTX evokuje návrat do doby X800XTX, tedy vrchol. Tak pokud měli nižší ambice tak se vůbec na navázaní neměli snažit protože je to akorát trapas. A co se děje dál se střední třídou ještě větší. X osmistovky byly důstojná konkurence - ale co je tohle? V jednotkách vybraných her soupeří s 4080s 256bit sběrnicí. NV si může dělat co chce a AMD se akorát hluboce ztrapňuje.
navážu na konec, po tom hypertrainu to průser rozhodně je.
RX 7900XT je rychlejší v niších jednotkách her ale jinak je to trapas když ji prohání grafika se 192bit sběrnicí. Ani ta cache - kterou už bohužel konkurence také má - nepomáhá, efektivita ja na straně envidie. FSR je parodie na DLSS, jen aby se neřeklo. Ale chápu, musí to být po té masáži o super-duper RDNA dost frustrující takový výsledek, ale osobně bych být fandou AMD jako ty akorát mlčel, šoupal nohama a tvářil se nenápadně .-)
hele, možná tě to překvapí ale ani já Adu nebral moc vážně, dlouho jsem zvažoval zda stávající grafiku vyměnit za 4070Ti, už kvůli novému napájení. Ve finále jsem zjistil že to takový problém není ikdyž jsou karty tlustější. Ovšem pokud někdo bočnici musí přitlačovat jelikož napájení mu ji trochu zvedá tak má problém a měl by se zamyslet nad změnou skříně. Osobně na ni mám standardní midletower a je to sice tak-tak ale uzavření bočnice nic nebrání - ovšem nechápu proč mají takovou touhu cpát napájecí konektor do strany když vzadu je obvykle místa dost. A samotné zasunutí konektoru je naprosto bez problémů, nechápu jak někdo to mohl nedotlačit - ovšem ledaže pak bočnici skříně tlačil na sílu.
1. 7900XT a 7900XTX měli stát proti 4080 (Ti) s 4090. Na poslední chvíli AMD zjistila problém a cenovku ponížila proti 4070Ti a 4080. A ani tady si ty karty nevedou dobře a jsou lehce pod konkurencí. Nevim, jak je to s výrobní cenou, ale při tom problému těch frekvencí by se spíš hodilo, kdyby to AMD nacenila proti 4070 a 4070Ti, ale to možná nejde. :-/
2. RT je dnes důležité a mimochodem na 4K stačí v rasterizaci 12GB a na 1440p stačí 8GB VRAM. Proč jsou NVidie tragické? Protože je tam RT a v tomhle režimu to nestačí. Na 4K potřebuješ v RT minimálně 16GB a na 1440p 12GB VRAM.
Jinak 4070 je 12GB a na 1440p úplně v pohodě, stejně tak 4080 je 16GB a na 4K úplně v pohodě. Divná je jen 4070Ti, drahá, má to jen 12GB, takže to není na cokoli nad 1440p, do toho úzká sběrnice. Ta karta je naprosto nesmyslná. Přitom prý NVidia a výrobci grafik omezují výrobu 4080 a 4070, nemělo by se týkat 4070Ti, která se prodává dobře. Svět se zbláznil, vždyť je ta karta hrozná, já to nechápu. :-/
Tak mi zkus vysvetlit, kde co kdo zvelicuje?
Podivej se na posledni prirustek Star Wars Jedi. 1080p 9GB VRAM, 1080p + RT= 10,5GB VRAM. 1440p + RT = 11,3GB. Vzdyt 3070, 3070Ti jsou odepsane karty ve smyslu 'max visualniho zazitku'. RT vykon karet jako je 3070 by mel byt od boku cca podobny jako 6800X, v realite je 6800XT o 21% rychlejsi. Cim to asi tak je..no preci tim, ze ji evidentne se zapnutym RT dochazi pamet. Takze 8GB karty pro 1440p jsou za trest. Proste malo na budouci hry. 12GB je asi ok, ale tady jsem ani nikdy netvrdil, ze 12GB na 1440p nejsou. Nicmene mas jeste i rozliseni jako je UWQHD a UWQHD+, kde treba tech 12GB uz stacit nemusi.
https://www.techpowerup.com/review/star-wars-jedi-survivor-benchmark-test-performance-analysis/4.html
Co se tyce 4070Ti, za mne je to slabsi 4k karta, nez 1440p karta, to je spis 4070. Ale kdyz nekdo chce dat 21+k s 12GB VRAM za hrani v 1440p..je jeho vec.
A neskúšal si náhodou či frčí bezproblémovo aj win11? Inak fungovať niako funguje, ale určite je lepšie mať novší so zaručenou kompatibilitou k novému OS, či softu a s opravenými dierami pre napr. web-based útoky typu "Spectre & Meltdown" cez grafiku. A to ľudia hlavne s AMD na to dlho a krute píč..i u intel CPU :D
Mozno je tych hracov predsa len viac:
https://www.sector.sk/novinka/286934/kolko-hracov-hrava-s-ray-tracingom-na-rtx-kartach.htm
Aj ked NV moze prehanat, nemyslim si, ze ich je uplne minimum.
Hej a stovka miliónov nVidia čipov v Nintende Switch, kde sa niake APU v Steam Decku či pripravovanom Asus ROG Ally nikdy nebudú môcť porovnať.
Taká odbočka - najväčšia chyba čo Sony z môjho pohľadu pre krátkodobý zisk mohla spraviť, je ofiko vydanie svojich exkluzivit na PC. Toto Nintendo nikdy nespraví a preto okrem pirátstva jediná možnosť ako hrať všetky jeho pecky bude vždy len na jeho konzole. Sa môže MS aj s celým jeho Win/xbox game pass ... whatever vydavateľa ešte kúpia vyfakovat ????✌️
Ghost nebrat, jak píšeš, to je tragická verze.
Asus Dual je v pohodě, ale i ostatní třívětrákový verze jsou v pohodě (však uchladit to TDP je vtip). Záleží kolik máš místa na to.
U Asusu a MSI je občas proti Gigabyte problém s coil whine, ale to máš kus od kusu a záleží, jak ty cívky zapustí taky.
Ty dražší edice se vůbec nevyplatí, ten čip je strašně seřezanej a OC stejně moc nehrozí.
Vlko: Sony nejde o krátkodobý zisk, naopak jde jim o to přetáhnout další PC gamery na PS5. Takže jim předloží ukázku v podobě vybraných exkluzivit. A v době, kdy jen grafika na PC stojí tolik co celá konzole dohromady mají celkem šanci uspět. Akorát by ty porty nesměly být tak zprasený. :)
Ale houbeles minulý režim. To je o prostém vyhodnocení vlastní síly. Jestli jsem nebo nejsem standard prosadit. Nvidia se z historie ne a ne poučit, že na to sílu nemá. Ti dutohlavové neustále utrácí peníze za technologie které bohužel končí v propadlišti dějin.
Berete to ideologicky ale je v tom jenom tržní síla. Kdybyste se na to díval co je prospěšné pro všechny a ne ty kdo to vyvinul tak byste začal chápat.
Opravdu si myslíte, že mám radost, když to vyhraje horší technologie od AMD a ne lepší od Nvidie jenom proto, že ji udělají jenom pro svoje karty nebo, že to zadusí licenčními poplatky?
Aznohh 29.4.2023 at 19:28
A kde v téhle větě „Příchod krize odstartovaný válkou na Ukrajině může Nvidii přivést v podobě AMD ještě větší problémy než AMD přineslo Intelu.“ je nějaká zmínka o prodejích kterými proti-argumentujete? Zkuste si tu větu vyložit v kontextu technologií.
No dobrý pokus ale zase je z toho pěkná manipulace. To se ani trochu nestydíte?
NV vicemene cele 'mainstreamove' portfolio 4070ti, 4070, 4060ti zazdila malou VRAM. Jetse u 4070 by se tech 12GB VRAM dalo asi zkousnout (je to delane jako 1440p karta), ale u 4070ti je to malo a 8GB VRAM u 4060Ti je uz jen vysmech. Co ti bude platne, ze NV bude mit podstatne lepsi Perf/Watt a castecne i RT v tehle oblasti nez AMD, kdyz to takhle stejne posere.
Tak mas svoje videni sveta, to je tvoje pravo. Jestli souperi 256bit s 192 bit interface, je mne uprimne uplne, ale uplne jedno a nevidim v tom opravdu zadny argument. Hype je jedna vec, vysledek je druha, nevim co k tomu rict..treba, ze ma AMD konsky marketing?
Za mne pak , jak pisu vyse, je Ada dodrbana malo VRAM..takze pokud budu parafrazovat tebe..byt fanouskem NV, tak drzim jazyk za zuby, soupu tise nohama a koupim si AMD, kde mi aspon za 2 roky nedojde VRAM :D
Jo, zapomínáš ale, že ATI na tom bylo ekonomicky špatně, takže to moc dobře nevedli. A navíc jejich poslední generace před odkoupením byla tragická, takže další sešup dolu. Pak přišlo AMD a bylo to zrovna v době, kdy šlo do kytek, tragické procesory, na které navázaly tragické grafiky.
Akorát že procesorová divize se zase zdvihla a to nevídaně, minulá jednička Intel se přestala chytat a procáky AMD jsou o generaci vepředu. Jenže grafická divize dál paběrkuje, podařil se jim zastavit pád, dokonce se opět přiblížili NVidii, jednu chvíli měli dokonce mainstream lepší (Polaris), ale s příchodem RDNA a RDNA2 ani ten udržet nedokázali a byli o malinký stupínek níž, přesně o ten, který rozhoduje mezi úspěchem a neúspěchem. Pak přišla rána, když někde udělali zásadní chybu a nevšimli si jí a RDNA3 je opět propadák, velká škoda.
Ono to ale své důvody má, firma se soustředí na procesory, kde se jí nadmíru daří a zkus to vzít na sobě samém. Když budeš dělat ve firmě a budeš vědět, že jsi na druhé koleji, asi ti to nepřidá. Lehce začneš vršit chyby, obávám se, že přesně tohle se stalo u AMD a můžeme jen doufat, že to vedení pochopilo a dalo grafické divizi podmínky, aby RDNA4 zase naskočilo do rozjetého vlaku, jinak tu bude NVidia na věčné časy. :-/
Aznohh 29.4.2023 at 19:28
s technologiemi to dá rozum. S těmi o kterých jsme se bavili celou dobu. Proto jsem vás vyzval "Zkuste si tu větu vyložit v kontextu technologií.". Když Vám to hlava nebere tak se zeptejte a netvařte se nadutě, že sám víte lépe jako to myslí druzí.
Nikde jste mi nedokázal že ta věta je o prodejích. Stejně jste mi nedokázal, že o těch prodejích je. Nakonec se uchylujete k vulgaritám. Co jiného od kovaného manipulátora čekat, že?
@Dedekhribb: NVIDIA uz roky prinasa nove a zaujimave technologie alebo vylepsenia do grafiky hier, ktore konkurencia nema. Vyuziva to, v com su jej GPU lepsie a dari sa im to. Ich strategia je dobra ked im priniesla 90% desktopoveho trhu. Inak AMD ked je nieco, v com ma naviac, tiez to vyuziva vo svoj prospech. Vid tych par hier s asynchronnymi shadermi alebo teraz ked odrazu zacali vychadzat hry, ktorych viacere su z AMD Gaming Evolve, tak im odrazu nestaci nizsia VRAM, nez maju ich GPU. Ak by to bolo naopak, tak by ludia, co vyvolavaju hysteriu okolo VRAM a ze sa uz neoplati kupovat ani GPU s 12GB VRAM, tak by nadavali ako NV hadze zasa polena pod nohy AMD.
A tiez neviem odkial si prisiel na to, ze musi davat NV vsetko zadarmo ked nema silu pretlacit to do standardu. AMD casto hodi von len nejaku alternativu, ktora kvalitativne nedosahuje konkurencne riesenie, ale hlavne, ze je open source. A namiesto toho, aby ludia tlacili aj na AMD, aby to tak nebolo, tak sa len vytesuju, ze je nieco "zadarmo". Nakoniec sa yo nepouzivalo vobec alebo este menej ako konkurencne riesenie (vid TressFX vs Hairworks alebo Havok GPU resp. Bullet vs GPU PhysX), ale to uz jaksi zasa nevadilo. Hlavne, ze sa nepouzivalo to zle konkurencne riesenie. Je to taky zvlastny pristup.
DWCZ: na mě to dělá dojem že se nějak dohmátli skutečných parametrů Radeonů a podle toho to přizpůsobili. Nebylo by to prvně, viz GeForce 600 proti Radeonům 7950/70 (zvláštní sedmičková řada už podruhé AMD přináší smůlu) které podávaly nižší a dost nevyrovnaný výkon, proto si vystačili s 256bit sběrnicí a celkově poníženou sérií a drželi to i v devítistovkové řadě, proto vznikla samostatna kategorie Titanů.
@melkor: to nerozporujem. Len sa tak trochu stazujem na to, ze viacerym ludom nevadi horsia kvalita a ani to, ze sa nakoniec realne nepouzila (GPU Havok) alebo pouzivala menej ako konkurencna (TressFX), ale tesia sa hlavne z toho, ze sa nepouziva technologia/ficura od NV. Pricom tie menej pouzivane boli nazyvane standardmj len preto, ze boli open source a tie od NV su vzdy iba nejake strasne zlo.
jenže on to je významný argument, jen se tomu bráníš. Při užší sběrnici je jednodušší PCB a tedy nižší náklady. Výrobce si buď zvýší marži nebo když je situace na trhu špatná tak může jít víc níž než ten co vyrábí konstrukčně komplikovanější, tedy dražší součástky.
Málo VRAM, další legenda kterou Bělka masivně propaguje až se mu z toho potí prsty na klávesnici, ale realita je trochu jinde. To že je několik aplikací zatím dodrbaných a čekají na patch nedělá obecnou pravdu. Já sice ty nově Hogwarts ani TloU nemám, ale i takový Zaklínač je po updatech hodně náročný a představ si že na fHD mi na druhém stroji s RTX 3060 nežere dle gpu-z víc jak 7GB VRAM (RT+DLSS).
Tak hlavne kdyz slouzi :)
Jinak jeste k Dlss vs Fsr. Dlss3 nemuzu posoudit, ale fsr aspon z her, ktere jsem zkousel, tak byt dlss na mit vyssi kvalitu, s fsr2 jsem nepozoroval zadne problemy a ani mne nenapadlo, ze by nekde byl problem. Kdyz jsem se pak dival na srovnavaci videa na HWU.. tak jsem vyjma tech extremnich prikladu, kde je treba videt silny shimering, videl kulovy. Takze za mne fsr2 super a v praxi je rozdil maly, potazmo tezce rozpoznatelny a pokud potrebuji 300% zvetseni, abych neco videl..tak z meho pohledu prakticky rozdil minimalni.
Nemusis mit vse nejlepsi, staci kdyz je to dostatecne dobry.
"jenže on to je významný argument, jen se tomu bráníš. "
.. a proc? Divam se na to pragmaticky. Pokud to ma vliv na to, ze jsou schopni delat 2 vetrakvoe verze misto 3-vetrakovych monster, je to pro mne argument. Viz poveden 4070 a jeji skvely perf/watt. U 4070Ti je mi to uprimne jedno. Spotreba (+-)10-20% oproti 7900xt je taky ve finale jedno. Tak v cem bych to mel brat jako argument? Ze na tom NV vic vydela?
Na zbytek mam opravdu jiny nazor a Belka mne opravdu nezajima. Sam hraji Hogwards Legacy a jsem opravdu rad, ze jsem nesel do 3060Ti, kterou jsem zvazoval oproti 6700XT prave k vuli RT, ktere ma lepsi. Tech 8GB VRAM z ni dela u tehle narocnych titulu mrzkou kartu ve srovnani s tim, co by byt mohla. I blby rozdil 2GB jako moje 6700 (bez XT) je lepsi volba nez 3060Ti. Takze za mne je dostatek VRAM silny argument i presto, ze to spousta lidi bud nechce nebo nehodla akceptovat.
Existuji videa na MLID s vyvojarema ruznych her, existuji testy HWU, Jay2Cent a dalsi. Vsichni maji jedno spolecne..8GB pro 1080p, 12GB pro 1440p a 16GB pro 4k jsou stavajici a budouci minima. To ze to kazda hra nevyuzije s tim neni v rozporu. To ze by vyvojari/herni studia mohli lepe optimalizovat muze byt take pravda, nicmene realita je takova jaka je. Jestli je to port z konzole je ve vysledku irelevantni.
já DLSS 3 jen ve Zaklínači a tam to slušně přidává, chyby v obraze nejsou a hlavně to jde nad 70fps.
Uvažoval jsem i o 4080 ale tam ten doplatek už by byl moc velký, nerad dávám za střední třídu víc jak 12 tisíc ze svého - po odpočtu prodeje předchozí grafiky. A za ty peníze je to skvělá karta, hlavně ty provozní vlastnosti už jsou v normálu a odpovídají mainstreamu.
"Například ty právě teď uvádíš jako bernou minci STAR WARS Jedi:"
.. nikoliv to je asi tak 5-6 hra, kde 8GB je dobry tak na FullHD, aby se nemuseli stahovat nastaveni, vypinat RT a podobne. S tema 'neoptimalizacema' (coz netvrdim, ze nemuze bytt pravda), kde mozna nejakym zpusobem odstrani hlavni bugy to neznamena, ze ta hra bude mene narocna na pamet. Posledni hry vydane na UE4 josu vsechno VRAM-pazravci. UE5 nebude lepsi, spis horsi. Konzole maji 12GB "VRAM" buffer, enginy se delaji s prihlednutim ke konzolim.. 8GB VRAM je tady skoro 10let..
Na druhou stranu princip vývoje PC her se za těch 10 let nezměnil nebo jen velmi málo. Na fullHD stačilo 2GB a posléze 4GB VRAM, další paměť se přidávala proto, že se začalo zvyšovat rozlišení, ve kterém byly textury produkovány. 8GB VRAM stačí na QHD a 11GB VRAM na 4K.
Ano, uznávám tvůj postoj, že je ti teoretická rovina prd platná, pokud chceš hrát zabugovanou hru, která po sobě paměť nečistí a proto potřebuje té VRAM víc, ale takových her moc není a obvykle je časem vývojáři opraví. I oni chtějí co nejširší publikum.
Co se teda změnilo? Přišlo RT, jakmile zapneš RT a začneš sledovat dráhu světla, musíš mít v paměti připravených mnohem víc objektů k vykreslení.
Na druhou stranu ta technika je náročná i na výkon čipu, takže ano, nedostatek VRAM nemůže scénu vykreslit vůbec, ale pokud máš jen nutné minimum, stačí to, protože čip na víc stejně výkon nemá.
Zase už dnes víme, že s příchodem PT (dnes snad pouze Cyberpunk a ještě s DLSS) bude hůř a paměťové nároky zase stoupnou, ale stejně to musí jít ruku v ruce s výkonovými nároky, takže to, že se NVidia se svýma grafikama pohybuje na hranici nutného minima zase tak nevadí.
Tím ale neříkám, že NVidia nejsou šmejdi, protože dávají svým marketingem hráčům najevo, že u nich narozdíl od AMD, mohou počítat s pokročilejším RT, ale skutečnost je taková, že nemohou.
Ve výsledku na AMD grafice máš jenom základní RT a odpovídající spíš přehnané a nevyužitelné množství VRAM, na NVidia grafice si můžeš dát taky jenom základní RT, protože na to inzerované pokročilé nemáš dost VRAM.
Na 8GB grafikách teda vypneš RT a hraješ a budeš hrát ještě dlouho úplně v pohodě. Teda za předpokladu, že ty hry vývojáři nebudou nějak extrémně kurv...
@Redmarx
ano na 8GB VRAM budes hrat jeste dlouho, s tim souhlasim. Jde jen o to, jestli budes mit max viditelny zazitek za ty penize nbeo ne. O nic jineho tu v principu nejde. Komu nevadi dat 20+k za 12GB VRAM fajn..za mne je to malo. 3070 a spol uz ani nekomentuji. Ty jsou tou malou vram zprznene.
A jinak zmenilo se Redmarxi. Pribylo objektu ve scenach, rastry jsou ve vyssim rozliseni a hlavne pribylo i vice typu rastru, coz vsechno zvysuje naroky na pamet. Je to hold "next gen". Ne kazda hra to vyuzije a kdyz poladis detaily dolu, vypnes RT a spol, porad si zahrajes. Je ale skoda se pripravovat o vizual, kdyz emusis :)
@melkor, dedekhribb
S pochovavanim technologii to nie je podla mna take ciernobiele. Ked NV prestala tlacit na GPU PhysX, ujalo sa nejake open source riesenie ako Bullet? Nie. Proste o to nebol realny zaujem zo strany vyvojarov (btw. CPU PhysX sa stale pouziva). Ked sa uz nepouziva hairworks, pouziva sa open source varianta TressFX? Nie. Opat zrejme nie je zaujem. U GSync je to trosku ine. Ten skoncil nakoniec v highende, pretoze vacsine ludom staci Freesync, ktory je lacnejsi. Proste to, co pisal melkor vyssie. Tiez som za poslednych 6 rokov kupil iba 1 GSync monitor, ale za to 3 Freesync monitori. Naposledy to bol od Dellu Alienware s QD-OLED panelom, ktoreho Freesync varianta vysla v tom case o 350E lacnejsie. Takze da sa vo vseobecnosti hovorit o pochovavani technologii, ked "mrtve" su aj ich open source technologie od AMD alebo ked spolu koexistuju?
Obe firmy robia iba to, co je dobre pre nich. NVIDIA bude tlacit nove technologie vacsinou iba pre seba lebo aj to okrem ineho jej prinieslo 80-90% podiel v desktope. AMD sa tiez v ramci moznosti sprava podobne. Ani Mantle nebol ziadny dobrosrdecny skutok. V tom case malo AMD procesori s citelne nizsim single thread vykonom, kvoli comu dost zaostavali vo vtedajsich hrach. Vedeli, ze ich potom dost brzdia aj vtedajsie API a potrebovali s tym nieco urobit. Nerobili to pre hracov, ale pre seba.
Dedekhribb: Podla Vas je jej prinos maly? Ved okrem toho, ze casto taha hernu pocitacovu grafiku vpred, tak v profesionalnej oblasti je vidiet este o dost viac. Nielen v oblasti renderovania ale teraz aj v AI.
U hier je to dane aj tym, ze NV ma sice v desktope velky podiel, AMD ma zasa obe velke konzole. Nie je to ciermobiele. Ked o nejaku technologiu nakoniec nie je zaujem, tak s tym nic nenarobite.
mareknr
V jednom s tebou fakt nesouhlasím a to je open-source. Já si myslím, že cesta ke kvalitnímu SW vede právě tudy. Kdokoliv může udělat opravu chyby, nebo kód vylepšit, implementovat nový nápad. Příkladem jsou třeba modované hry. Nebo naopak M$, který musel přehodnocovat svůj vztah právě k open-source.
Já osobně jsem pro svobodné šíření informací, což je i open-source. Znamená to posun.
Jedna poznámka pro ty, co to neví - open-source neznamená automaticky “zadarmo”.
Já si nemyslim, že je nutné snižovat detaily. je nutné vypnout RT a to mi nevadí, podobně vypínám HDR. Sice mám HDR monitor, ale mně se to nelíbí, ikdyž je to reálnější a vypadá to opravdověji, tak já jsem díky létům hraní a sledování filmů, seriálů už zvyknutej na ten "neskutečnej" obraz a ten reálnej mi vysloveně vadí. :-)
Mareknr: a nebylo to třeba tím, že to byla naprostá capina? Všechny ty fyzikální enginy, vlasy, apod. byly implementovány vždy jako demo, tedy pro vlastní hru zcela nepodstatný vizuální efekt, který měl jen dopad na výkon.
Tak potom není divu, že se to moc neprosadilo, protože u hry, kde fyzika hraní dominuje, si stejně nasadí vývojáři své vlastní řešení.
Tak on ten 'realny HDR' obraz s vysokym jasem tak trochu nebo spis vic vypakuje sitnice.. Z toho duvodu mam HDR taky vypnute.
RT neni spatny, pokud se pouziva rozumne, aby ti nesel vykon totalne do kopru. Treba v Hogwards Legacy ti Zrcadleni dela i to, ze ti treba kresli "mozaiky" na podlahu, pokud mas svetlo skrze okno, kde ta mozaika je. To je fakt treba hezky efekt.
A jinak RT jak kde, jak co, nekde dela kompletne tmave nepouzitelne sceny..pak to stoji za pikacu.
Já se svou 3060 Ti kroutím třetí rok a na podzim začnu čtvrtý. Celou 4xxx řadu s klidným svědomím přeskočím, protože na hraní ve FHD/QHD mi bohatě stačí, co mám. V případě budoucího upgradu je mi zbytková cena současné grafiky úplně volná, prodávat ji nebudu, ale posunu ji na starší stroje v rodině. Je třeba těch +- 5 let pro tebe dostačující nebo kupuješ grafiky na dekády? :)
@tynyt: Bolo to v tom case nieco nove. Hairworks s TressFX bolo len take spestrenie. Ale taky GPU PhysX bol co sa tyka grafiky vyuzity na veci, co boli zaujimave a spestrili herne prostredia. Viem, ze budes namietat, ze to boli len blbosti a ze mohla byt fyzika vyuzita inak. Podla mna to ale niektorym hram pomohlo z hladiska atmosfery. Dnes pri modernych hernych engineoch to uz tak samozrejme nevyzera. Doba pokrocila. Aj ked moznost vyuzitia starej GPU na fyziku tu mohla zostat.
Ona to je vždy otázka toho, jakou bereš baseline. Pokud PCMR, tak věřím, že RT bude používat klidně i 60-70% hráčů. Ale když do toho zahrneš i hráče jako jsem já, kterým stačí nižší kvalita zobrazení, resp. hrají se staršími grafikami, tak to bude zase jiné číslo.
edit: navíc si myslím, že tento hon za stále lepším obrazem přivedl už dávno hraní na PC na scestí, které ho jednoho dne (při)zabije.
mareknr 1.5.2023 at 16:15
Ano nic velikého kromě toho, že zavedla standard DX karet proti DFX nevidím. Co tak světoborného KONKRÉTNĚ podle Vás přinesla? Prodala ohromné množství karet ale to je vše. To dělali i jejich konkurenti také i když v menším měřítku. Jenom dobře prodali kvantum karet což hlavně svědí o jejich vynikajícím marketingu. To ale jako přínos nevidím.
@fddekhribb: NVIDIA posuva dopredu pocitacovu grafiku v hrach. Mavali vacsinou nieco navyse, co konkrrencia nemala. Bol to GPU@PhysX, niektore sucasti Gameworks alebo teraz DLSS a k tomu lepsi vykon v RT. NV ako orva tiez priniesla adaptivnu synchronizaciu do desktopovych monitorov. Ano, bolo to iba na ich karty, ale niekolko rokov nemali realnu konkurenciu, ktora prisla az s Freesync 2. Ked sa zacala vyuzivat viac teselacia, tiez mali vykonovy naskok. Tiez maju technologie pre gamerov akk Reflex. AMD malo pocas tej doby iba robustnejsie riesenie pre asynchronne shadre a teraz viac VRAM. A to su veci, ktore v grafike a vo vyzore hier nevidis. To, ze si NV casto nechava veci iba pre seba, neznamena to, ze sa tym neposuva nic dopredu. Mozes to samozrejme oznacit iba ako marketing a tym to pre teba konci. Ale je to normalna praca s viditelnym vysledkom.
mareknr 2.5.2023 at 19:59
No ale tady píšeme o grafických kartách. I když to rozšíříme na hry pak veliký problém je v tom že tady Nvidii válcuje AMD, Microsoft i Epic.
S tím Gsync vs freesync krásně dokazujete impotenci Nvidie. Navzdory lepší technologii a počáteční startovací pozici podělali co mohli souboj prohráli. Takže přínos je maximálně v odstartování víc nic.
Nvidia to podělala tím, že si nechala ukrást konzole. konkurenti ji nyní válcují ostatní právě přes konzole protože i když mají mnohdy horší technologie. Nvidia má nějaký mentální problém s tím aby jejich SW běhal na konkurenčním HW a proto to vždy dopadne blbě.
@dedekhribb: NV a ani Intel nemali zaujem cenovo konkurovat AMD kvoli konzolam. V tomto ma AMD navrch, ze dokaze urobit kompletne APU za dostatocne nizku cenu, ktoru konkurenti nechcu podliezat.
A inak v com drtia menovane firmy NV? Ta ma predsa v desktope 80-90% podiel a v hrach sa casto nachadzaju technologie od NV. Pozri v kolkych portoch z konzol je DLSS. Microsoft sa nemal problem dohodnut s NV na 10 rocnej zmluve, aby ich hry boli na Geforce NOW. No a neviem preco spominas Epic.
mareknr 2.5.2023 at 22:14
"NV a ani Intel nemali zaujem cenovo konkurovat AMD kvoli konzolam." Tak to je pěkné zdůvodnění toho, že Nvidia i Intel jsou neefektivní a nebyli schopni v tomhle byznysu obstát. To je jak z marketingového oddělení jmenovaných společností. Pěkné zdůvodnění prohry.
V čem je drtí? Ve množství v rozsahu na trhu. Vylétněte výš a podívejte se celý trh chipů ne jen na PC. Podívejte se na hospodářské výsledky společností a máte odpověď na svoji otázku. Dnes kupříkladu Intel má další ze svých negativních rekordů. Trh říká něco jiného než si myslíte Vy.
@dedekhribb: Pozrite si dobove clanky ked sa AMD dostalo do oboch konzol naraz. Pise sa v nich, ze AMD ponuklo riesenie za taku cenu, ktoru NV odmietla podliezt. AMD ma proste vyhodu v silnych APU, ktore nema ani NV a ani Intel. Ze isli cenou nizko mozete vidiet prave na tych hospodarskych vysledkoch. A tie btw ma NV niekde uplne inde nez AMD. A ked hovorite o cipoch na celom trhu, pocitate aj tie, co isli do profesionalneho segmentu
alebo Tegra cipy v Nintende? BTWvv profesionalnom segmente trhu to NV taha este viac nez v hernom. Mali podporu v renderingu vzdy na ovela vyssej urovni a teraz sa dost angazuju aj v AI. A to nehovorim o vybudovani CUDA platformy na vyvoj. Vy to len nieste schopny uznat, pretoze to NV robi pre seba a nie pre konkurenciu. AMD tak isto robi vsetko iba pre seba, aby nezaostavala za konkurenciou (Freesync vs GSync, FSR vs DLSS) alebo aspon budila dojem, ze ma to iste (GPU Havok ci Bullet vs GPU PhysX). V tychto prikladoch len reagovali na konkurenciu, aby mali alternativu voci tomu, co prislo. Len tam to vnimate inak lebo open source.
mareknr 3.5.2023 at 7:54
Ale to je jedno. Největším motorem vývoje jsou hry. Ty posouvají vývoj dopředu ta masa hráčů kteří si to koupí ne profesionálové. Proto spatřuji hloupost Nvidie i Intelu v tom, že si tenhle byznys nechali utéct.
Nvidia si dělá pro sebe? To je její věc a její peníze. Kdyby ty peníze prochlastali tak by to mělo asi větší efekt. To mne na tom mrzí. Dělají věci které nejsou díky jejich politice "jenom pro sebe" neživotaschopné. V AMD se poučili z chyby Nvidie. Dělají to pro taky pro sebe ale dají to k dispozici i ostatním a proto z toho profitují a Nvidia je hrobníkem svých dětí.
@dedekhribb: Zda sa Vam, ze sa NV angazuje v hrach malo? Ved na internete roky citam ako podplateni vyvojari implementuju do hier technologie od NV a poskodzuju tym AMD. Teraz ked nie je NV v konzolach, tak je nic a cela jej snaha je v tomto smere podla Vas marna? Aj teraz sa v popularnych hrach pouzivaju ich DLSS a RTX, kde je to prave NV, ktora taha raytracing dopredu a to vratane moderneho herneho upscalingu, kde maju najlepsie riesenie. Plus ste tiez zabudli, ze prevadzkuju aktualne asi najlepsiu cloud suzbu na hranie hier, kde za 200E rocne mate k dispozicii na hranie HW za niekolko tisic eur? Mozno na Vas dolieha nasilna kampan Honzy Stacha, ktory sa snazi vsetkych presvedcit, ze NV kasle na hracov.