Krasa.
Zde take recenze a mereni 3070 FE:
https://www.guru3d.com/articles-pages/geforce-rtx-3070-founder-review,1.html
Těmi 8GB to zabili. Na hodně her to ve 1440p bude v pohodě, ale nové hry už to bude omezovat. https://youtu.be/j5JHMCXE_bo
No, 3080ka je mega ale toto mi vzhľadom k cene a spotrebe príde ešte lepšie.
3070ka sa dostala na výkon 2080Ti čo sa pomerom naposledy stalo s 1070 vs 980Ti. Len trocha zamrzí že tu tá pamäť je oproti minulogeneračnému highendu nižšia - ako veľmi to bude vadiť ukáže až čas.
+ ak bude mať porovnateľný Radeon 16GB tak je jasné akú kartu kúpia ľudia s kategórie "kupujem ju na 5 rokov"
Akokoľvek, takto výkonná 3070ka dáva dostatočnú vieru vo veľký posun 3060/60Ti ? až niekde ku 3080/Super a to by bolo za nejakých 349-399USD super.
Tak a je to tady. Mainstreamovy jednodussi cip GA104, na kterem je RTX 3070 zalozena, jiz dokaze na svem 8nm procesu Samsung vyrobit a razem vidime i efektivitu, kterou ta karta ma.
Jednoznacne se potvrzuje, co tu celou dobu rikam, GA102 bylo na Samsung prilis velke sousto a ten to neustal. NVidia si muze jen nadavat, ze si to tak zbytecne podelala u TSMC. Huang jiz horce lituje.
Ovsem ja si pockam na recenze 6800XT a 6800. Duvodem je tech 8GB pameti, coz neni mnoho a do RTX 3070 jsem sice ochoten jit narozdil od podelane RTX 3080, ale pouze pokud by karty od AMD nejak tragicky vybouchly nebo by se ukazaly jako papirove. Jinak bych dal prednost tem 16GB videopameti u AMD.
Nove Radeony predstaveny.. a AMD letos uz podruhe sama sebe prekonala :))
.. podle AMD matrice je 6800XT stejne rychla jako 3080 ve 4k a ve 1440p rychlejsi a ma vyhodu ve vice pameti. Cena je trochu vic nez 'kosmeticky' nizsi, ale aspon vetsi VRAM je vyhodou.
.. 6800 je lehce rychlejsi ve 4k nez 3070, ve 1440p je rychlejsi uz ji vic nez jen kosmeticky, 16GB VRAM zase vyhodou. Cena bohuzel vyssi, ktera 'kompenzuje' vyssi vykon a vice VRAM.
.. 6900XT v principu stejne rychla jako 3090, mene VRAM (ale na hrani 4k staci s prehledem), cena znatelne o tretinu nizsi. Z pohledu hernich ultras asi nejzajimavejsi nabidka (vyjma RT).
Ceny jak vidno, bohzuel celkove asi moc nespadnou, i kdyz AMD predstavilo vyhodnejsi nabidku.
Lidé si furt stěžují na pouhých 8GB Vram. Za mě je to furt dostačující. Já hry stejně nehraji na ultra a hry jako Doom Eternal, Call of Duty... žerou více jak 10GB Vram klidně i v QHD, ale nepříjde mi, že by to nějak extrémně ovlivnilo FPS.
Nehledě na to, že ty textury se dají vždy schodit na vysokou hodnotu, kde rozdíl je minimální, jen už to žere třeba o 2GB vram méně.
Lidé chtějí více Vram, protože přišla RTX 3090 s 24GB nebo kolik to má, pak AMD a hned koukli na testy na youtube na hry, kde si některé berou klidně i 15GB...
Spíš doufám, že už i u RTX 3060 bude aspoň těch 8GB.
5 generácií ? 970ka mala 4GB a potom...
GTX 1070 - RTX2070/S - 3070 - 3 generácie. Kde si nabral 5 ?
+ "to sa v historii vyvoja grafik ešte nestalo" pre vyváženosť pripomeniem že kamaráti z AMD zase vymenili v mainstreame a cenovej relácii do 300USD 8GB pamäte za 6GB (5600XT) i keď RX480ka mala 8GB už v 2016tom a v cene ani nie 250USD...
AMD/nVidia to proste prispôsobujú návrhu čipu, trhu, podmienkam, konkurencii a xy ďalším faktorom - 8GB u RTX3070 sa môže zdať málo rovnako ako "posun" na 6GB z 8GB v mainstreame. Ale, tak to proste je.
Tak to by hlavne NVidia mela delat osvetu, aby se nestavalo to, co u meho kamose. Rikam mu, proc si chces kupovat desku od Gigabyte, kdyz mas tehdy B450 od Asusu levnejsi a i lepsi?
"No, mam uz od Gigabyte grafiku, kterou menit nechci, tak aby to spolu sedelo."
Je u BFU potreba delat osvetu, ze vyrobce desky a GPU muze byt opravdu jiny a nicemu to nevadi!
GA102 byla nejspis i mirena puvodne do jineho, spis vypocetniho segementu a NV nejspis menila plany v zavilosti na tom, jak v unicich 'stoupal' vykon potencialni RDNA2 v konzolich... Proto asi onen zruseny GA103 a misto neho GA102 pro 3080 a 3090. Aspon by to mohlo vysvetlovat NV fopaux se spotrebou, ktera NV neni moc podobna.
Hele ale tohle lidi říkali i u 3080 FE, když její recenze vyšly o dva dny dřív než custom karet, ale když pak vyšly recenze custom modelů, tak byly většinou tišší (někdy o hodně) i chladnější zároveň. Tady zase některý karty budou i tříventilátorové a nepodceňoval bych jak ti AIBové umí dělat axiální chlazení. FE má ovšem výhodu, že je krátká a přesto má to "okno".
(Ale teda decentní vzhled, v tom vedou FE opravdu hodně.)
Jinak teď jsem narazil na vtipnou věc, když jde o tu kartu Founders Edition.
Ona má na napájení ten novej 12pin, ale adaptér, který k tomu Nvidia dává, už není na dva osmipiny (z nichž u RTX 3080 ale z každého bere ale jenom 6 vodičů), ale jenom na jeden osmipin. Ale borci z něj zase nevzali všech osm vodičů, ale zase jenom šest. Takže karta má krásnej novej 12pin, ale s tímhle adaptérem to ze zdroje vlastně napájíte celé ekvivalenetem šestipinu.... Picard.
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/power4_small.jpg
Jinak to PCB má plný 12pin, tam problém není, ale v kombinaci s tímhle adaptérem je to na draka a udělali by líp, kdyby tam vrzli úplně standardní 8pin.
Ano 3060 by měla dosáhnout na výkon 2080/2080S, typicky je o 20-30% pod 70 řadou a třeba pro majitele 2070 je 3070 velice zajímavá karta, protože na ni 2070 ztrácí i přes 60% (zdroj digital foundry) nicméně 2070S ztrácí cca 35-40%, takže 3060 bych viděl lehce nad 2070S a to je přesně ta 2080/2080S, ale pokud to bude trošku nad, nebo pod už je celkem irelevantní. Zajímavé bude sledovat kam se posune low end, jestli se dostane nad výkon řádově GTX1080.
Jinak k tomu odkazu? Co to znamená ?
My můžeme zjistit alokovanou VRAM, nemůžeme zjistit kolik VRAM je nutných k vykreslení snímku.
Příklad Snowdrop engine, aspoň v Division 1 se snaží držet alokaci 3/4 dostupné VRAM. Na 4GB kartě bude hra používat +- 3GB, na 8GB kartě bude hra používat +- 6GB, na 24GB kartě bude používat +- 18-19GB, pokud tolik vůbec dokáže zaplnit.
S tím že nejdříve se ta paměť použije na věci nutné k vygenerování aktuálního snímku a to co zůstává do těch 3/4 VRAM, se nacpe texturami pro okolí aktuálně zobrazené scény.
Tzn alokováno bude třeba 6GB z 8GB VRAM, ale pro vygenerování snímku stačí 3GB. Nebo jak vysvětlíš fakt že některé hry umí i na FHD alokovat víc jak 8GB VRAM ale zároveň karty s 6 a 4 GB paměti v té hře nijak neztrácí, tzn netrpí na nedostatek paměti?
Více paměti je sice nice to have, ale 3070 není karta pro pohodové 4k hraní, ale max na UWQHD, spíše QHD bez kompromisů, tam to bude stačit ještě dlouho, stejně jako 10GB bude dlouho stačit na UHD a možná i pro 5k, ono potřeba paměti neroste s počtem pixelů linéárně. Největší využití paměti dělají textury a ty jsou stejné pro 720p jako pro 2160p, rozdíl je ve frame bufferech a nějakém pracovním prostoru. Rozhodně to nepotřebuje 4x víc paměti než FHD, často jsou ty rozdíly v řádech stovek MB
Ale tak to bylo vždy, nejdříve se vydá top segment a postupně obnění zbytek. Konec konců ta 3070 se začne prodávat až za pár hodin a lidi si stěžují že tu ještě není nižší model..
Naprosto stejně je to u AMD. Uvádí váýkonově srovnatelné karty a pak má jen 5700XT a nižší a ty karty jsou vzhledem k ceně a aktuálně dostupném výkonu docela nevýhodné stejně jako Turingy od NV.
Ale než vyjdou karty z nižší cenové relace, tak si stejně člověk nic jiného nekoupí.
Ja mel sveho casu problem s kompatibilitou mezi produkty stejneho vyrobce. Karta ATI od MSI a deska MSI spolu nemluvili jak meli a po nainstalovani ovladacu komp padal. Byl to nove poskladany komp. Nakonec jsem kartu vymenil s kamosem za nVidii. Od te doby se nVidie drzim. I kdyz jsem skladal sestavy s kartami ATI, resp pozdeji AMD, tak me nikdy nepresvedcili. Naposledy s prichodem DX12 si pamatuji na velke problemy s ovladaci u nekterych her. Oproti tomu s nVidii jsem za ty roky nemel zadny vazny problem. Resp zadny ktereho bych si vsiml.
Jeste u rady RX platilo, ze ve stejne cenove hladine je AMD je lepsi na benchmarky, nVidia na hrani.
Souhlasim s JO. Vubec neni jiste, proc zrusili GA103. Nebylo by pravdepodobnejsi, ze kdyby chteli AMDecko pohrbit, ze by spis posunuli RTX 3070 na GA103, nez ze by ho rusili?
Ja jsem porad presvedcen, ze hlavni problem je u Samsungu. Nakonec zname Huanga, klidne uz v dobe, kdy nam z kuchyne prezentoval herni Amperu, uz mohl vedet, ze je to v prdeli a ze Samsunguv proces neni pro GA102 a GA103 vhodny a Samsung dokaze nejlepe GA104 a jednodusi cipy. Takze to NVidia zredukovala na GA102 s tim, ze dej se vule bozi, protoze proste TSMC je v tuhle chvili nedosazitelna a nikdo jinej neni.
Ale tohle je relativně maličká kartička - 24cm dvouslot a přitom provozní vlastnosti vynikající. Ono se stačí podívat na srovnání otáček ventilátoru v porovnání s Turingem a je hned vidět, že ten pokrok je celkem zásadní. A Pascal blower je samozřejmě úplně jinde.. NV na to jde asi krok po kroku, aby vendory šokově nanas*ala. ;)
https://cdn.mos.cms.futurecdn.net/SR39K9Up8F8tmgqGkXeHi-2048-80.png
Jj, AS byla modla co přidávala i 50% výkonu dle některých a i když vývojáři řekli že to jsou jednotky procent a ještě těžce vydřených že primárně jde o snížení overheadu procesoru díky DX12, tak si pořád jeli svou.
Dnes? Škálování u her, které podporují dvě grafikcá api často znamená že NV benefituje z DX12 více než AMD, byť to jsou fakticky nerozeznatelné rozdíly (zdroj Gamer Nexus), hlavně kde jsou ti neskuteční obhájci AS.
Ale neva, dnes je to Infinity Cache, zákazníkovi je sice zcela u zadele co je uvnitř čipu, on kupuje výkon, ten dostane a jestli je čip s infinity cache nebo bez, nebo na jakých nm, kolik má výpočetních jednotek nebo takty... nic nehraje roli protože výkon té karty je prostě daný, Pokud budu mít kartu A s výkonem X a bude mít infinity cache a když mám kartu B s výkonem X bez infinity cache, tak to zákazník nijak nepocítí, ale to možná procento HW entuziastů se o tom bude rádo hádat :)
Buď videopaměti nebo cenou. Asi skončily doby, kdy se do 16k dal koupit highend, který v době vydání utáhnul všechno na max detaily v minoritním rozlišení. Dneska to je 4k. Víc prostě dát nechci. Grafika není něco, co mi bude sloužit několik let. Špatné je, že jestli chci naplno využít svůj monitor, tak potřebuji něco s HDMI 2.1, ale zároveň to musí byt značně výkonnější, než moje RX 5700XT, aby mě to přimělo ke koupi.
Vzhledem k tomu že většina grafik na trhu má méně než 8GB, tak 8GB bude stačit do té doby dokud tu nebude mezi hráči - ideálně kolem poloviny - rozšířeno víc jak 8GB VRAM.
V současné době více VRAM mezi hráči jednoduše není, víc než 8GB má jen velice malá minorita hráčů, dokonce menší než třeba 9+ jader u CPU. Nejrozšířenější jsou 4 jádra (něco přes 40%), 6 jádra mají asi polovinu (kolem 20%), a méně jak polovinu 6 jader tvoří 8 jádra (pod 10%). A víc než 8 jader má jen pár procent hráčů.
A jde to vidět 4c/8t CPU dnes stále bez problému dokáží uživit výkon mainstreamu (GTX1080Ti, RTX2070-RTX2080S, RX5700XT) a není se čemu divit pár let zpět 7700k a GTX1080Ti byl vlhký sen nejednoho hráče. Navíc s rostoucími rozlišeními monitorů klesá potřeba silnějších CPU, nicméně pořád je absolutně nejvíc hráčů na FHD rozlišení a nad něj je to jen malá minorita. Monitor totiž lidem dokáže sloužit klidně déle než grafika či celý počítač.
Všechny mají 8GB a ta poslední je přesto tak 3x výkonnější něž ta první, o cca 60% výkonnější než ta 3. v pořadí.
A to mluvím o 4k, kde by těch 8GB podle někoho měl být velký problém. Jenže on není, roste přenosová rychlost, interně funguje lepší komprese dat a ve spojitosti s dalšími vylepšeními evidentně nic nenasvědčuje tomu že by paměť neměla stačit.
Na 4k to pořád nebude, myšleno 60+ FPS a max detaily.
A rychlejší bude, otázkou o kolik a s čím. Počítám že 6800 bude v průměru do 10% rychlejší než 3070 - v rasterizaci, v RT přes RTX nula výkonu v RT mimo RTX uvidíme. V DLSS titulech bude výrazně ztrácet.
Smart memory přidá pár procentíček výkonu v 4k, ale je třeba koupit předražený Zen3 aby to fungovalo. To už je lepší koupit levnější Zen2 nebo ještě levněšjí Intel, a za rozdíl cen si koupit 6800XT nebo 3080, vyjde to levněji a výkonu to poskytne víc.
A co se kritizovalo? Pokles výkonu? Proč se pokles výkonu kritizuje u RT ale nekritizuje u samotné rasterizace? Však low vs ultra je často násobný rozdíl, proč tedy nenadáváme na to že vyšší detaily ubírají výkon ale u RT který přináší realističtější a detailnější herní zážitek nadávát?
Poměr zůstal samozřejmě +- stejný, ale výkon šel celkově nahoru, tudíž i hry s RT běží rychleji. 3070 je proti 2070 posun i o více jak 60%
No kdyby tam byla vyřešená komunikace těch dvou procesorů, překlad instrukcí a koherentní propojení cache/RAM, tj. sice by to bylo strašně pomalé, ale Windows ty jádra navíc viděl, tak možná jo... :)
Problém byl v tom, že to mělo strašně moc háčků o kterých Nvidia mlčela, ne v tom, že ta paměť neexistovala vůbec.