napájení je kvalitní , bodejď by ne když má ten malý čip TDP 300W. To asi souvisí i s tou poznámkou o hlučném chlazení a použití speciální pasty, protože ten čip nejen hezky papá, ale taky bude pěkně topit :-)
Pokud jde o hraní, tak kromě hardcore fanoušků ta karta nemá moc šancí někoho oslovit ( pokud ji nedostanete třeba jako dárek) Od Navi se dá čekat podobný výsledek, možná přece jen o trochu lepší ve smyslu toho, že pujde o menší mainstream čip. Takže do vydání nové GPU architektury AMD nemá kromě Polarisu nic zajímavého a Nvidia bude lepší volbou, obzvláště po vydání vlastních 7nm čipů.
Jsem zvědav zda někdo otestuje RVII v Davinci Resolve/Studio. Možná, že si karta časem najde cestu i do eGPU řešení. https://www.blackmagicdesign.com/products/blackmagicegpu/
Pozn. Možná jsou ty AAA v podstavci dokonce tři (dle přiloženého baleni a kontaktů v podstavci). Aspoň to tak vypadá z videa HUB.
Někdo, myslím, že Tynyt, v předchozích diskuzích psal, že tahle karta je zajímavá a že se s ní Lisa hlavně chtěla ukázat na CESu a že nemám předjímat, že to bude fail. No, ať se na to koukám ze všech stran, tak čím dál víc mi ta karta přijde nezajímavá jak pro hráče, tak pro profi využití (provozní vlastnosti). Lisa se s ní ukázala tak, že si jen opětovně veřejně podkope pověst GPU divize a nikdo už si od nich kartu nekoupí, i kdyby za to třeba jednou stály... a že to bude těžký fail? To už nepředjímám, ale jsem si jistý... Btw, jak dlouho je tu 1080Ti? Vyměnil by ji někdo za tohle? Každý nechť si odpoví sám...
Umí Nvidia GPU stejně dobře spolupracovat s Free Sync monitory jasko AMD GPU ? Je funkce free sync stejně funkční nebo nefunkční nezávisle na použité GPU (AMD versus Nvidia) ? Předpokládám, pokud by tomu zatím tak nebylo, že Nvidia postupně doladí ovladač a bude tomu tak. Tím Vega VII ztrácí body... Nvidia dobře věděla co se u konkurence chystá a naučila se Free Sync a vydala 2080Ti spolu s 2080.
Chtěl bych si koupit 7nm GPU, a líbí se mi 16GB paměti, ale zatím vyčkávám.
Alew furt je PCB z části neosazený a toho hliníku tam moc není i když to zvenčí vypadá, tak díky hlubokým větrákům je to skoro celé vevnitř prázdné. Pokud to skutečně bude žrát 300W, tak to logicky tak moc chladit nebude, navíc když většina tepla půjde do desky. Ty větráky jsou malého průměru, takže budou muset točit.
Jj, toto je tzv. “zimni edice”, ladena do stribrne, v chladnych dnech zahreje. Aneb 2v1 - hrajte o sto sest nekolik hodin bez bez ztuhnutych prstu. ;)
A ted vazne, s tou pameti to bude max na rendery, hraci to nevyuziji. Nicmene profici to zase neoceni skrz spotrebu, takze.... Jak jste psal, jedine co ma dnes AMD zajimaveho jsou RX 4x0 a 5x0 vyjmna noveho nesmyslu RX590.
Tohle vydali jen aby jakože ještě mněli HiEnd... Je to z nouzecnost stejně jako RX590... I když to už radši toto, kde je aspoň nějaký pokrok než RX590, kde jen zvedli takty...
Já jsem zvědavý co Navi. Ne pro sebe grafik mám dost, ale jak se ty grafiky povedou a co budou umět. A ne nikdo to nebude měnit 1080Ti jsou pořád velmi zajímavé grafiky a dají se sehnat za míň než tento Radeon... Díky čemuž se vlastně z 1080Ti stala nyní nejzajímavější grafika.
Zkus definovat co znamena slovo "fail". Je snad cely Turing fail proto, ze RT je momentalne v plenkach a pomer vykon/cena se proti predchozi generaci temer nezmenil a efektivita se nikam vyrazne taky neposunula?
Pokud ano, tak musis Turing nazyvat uplne stejne failem.
Ja osobne si to nemyslim, stejne jak si nemysim, ze Veka je fail. Mezi cernu a bilou existuji velke mnozstvi odstinu sedi...samozrejme pro nekoho, kdo nechce videt jen dvoubarevne.
Nadšenie môžeme čakať maximálne u takých ako DD. Tam už to je vidieť na jeho preview. Výkonovo tá karta nie je zlá. Je fajn, že má AMD GPU na úrovni RTX 2080. Má výhodu v tom, že ide o citeľne menší čip (keďže využíva 7nm výrobný proces) a 16GB VRAM. Na druhej strane žerie viac aj napriek nižšiemu výrobnému procesu (zrejme problém architektúry Vega). Pre ludí, čo radi kupujú AMD je to aspoň alternatíva. Každopádne Turing je modernejší a má navyše RT a Tensor Cores. Určite by si zaslúžil viac VRAM, ale koľko GPU má dnes a bude mať viac ako 8GB VRAM? Podľa mňa ani najbližšie 3 roky nebudú vývojári robiť hry tak, že by urobili z 8GB VRAM handicap. Takže nový Radeon VII je slušná karta, ale nevidím dôvod pre nadšenie.
GeForce GTX 1080 Ti - March 10, 2017
áno, AMD potrebovalo na výkon 1080Ti +2roky (bez mesiaca) oproti nVidii, oveľa lepších 7nm výroby a HBM k tomu, z toho hľadiska to zázrak vážne nie je a áno, dalo by sa povedať fail. Ale čo, je to proste tak.
Každopádne, samotná karta verím zlá nebude a rozhodne by som ju nenazval FAIL-om ?
Veď prečo aj, bude mať výkon +/- RTX2080/1080Ti, podobnú cenu, áno vyššiu spotrebu ale aj parádnych 16GB pamäte.
Ako tvoj názor, ale podľa mňa fail vyzerá inak...
Napsal jsem:
"Tohle je pouhá vycpávka pro období, než uvedou novou řadu karet. V2 je sice zajímavý počin, ale je vidět, že jen opravili/upravili starou V1 a shrinkli ji na 7nm.
S ohledem na cenu, výbavu apod. si myslím, že tu kartu ani moc prodávat nechtějí, a chtějí mít jen marketingový argument, že prodávají hiend."
Dále jsem zmínil, co na té kartě považuju za zajímavé:
"nvidia má nějakou 7nm kartu?
nvidia nabízí herní kartu s HBM?
přináší shrink běžně 30% výkonu navíc?"
Jinak celá diskuse je zde (včetně urážek goga, maudita, aj.): https://www.cnews.cz/amd-radeon-vii-dalsi-detaily-dvojita-presnost-fp64-pcie40-nereferenci-karty-tdp#comments
Z ní jasně plyne, že jsem nic o zajímavé kartě nepsal (počin není totéž co karta).
Nevím nic o tom, že bych psal něco na téma předjímání. Napsal jsem, že tato cenová skupina je mimo mého zájmu, a tudíž je pro mě nezajímavá (a Crhům a podobným mamlasům rovnou sděluji, že má ochota utrácet či neutrácet nesouvisí s výší mých úspor a volných prostředků). Stále si myslím, že AMD jen prodává čipy, které nemá možnost dát do profi karet, a tím tak snižuje náklady na výrobu a zároveň má tak možnost říct, že prodává herní hiend. Naopak si nemyslím, že z leaknutých výsledků se dá říct, zda to je či není fail.
Tak pokud se potvrdi, ze Vega VII sotva dozene RTX2080 (a to sotva je dulezity, protoze vychazime z marketingovych zdroju AMD), bude to opravdu legracni. Vzdyt 7nm proces nabizi temer 4x vetsi hustotu transistoru na milimetr. Zda se, ze GCN architekture uz nepomuze vubec nic.
A to smesny zamereni "na AI" - vzdyt muj desktopovej Turing ma diky TensorCores nekolikanasobne vyssi vykon nez ta jejich "profi" karta, pricemz u Vegy kdyz vyuzijou vykon k AI vypoctum, utrpi tim vykon ve 3d (vyuzivaji se stejna jadra), zatimco u Turingu od Nvidie muze aplikace zaroven zvladat AI i 3D grafiku, protoze oboje ma vlastni nezavisly hardware :D
Mám přírodní borovici. Sorry jako
foto: https://jcrha.rajce.idnes.cz/vseho-chut/#RIG.jpg
Do RTX šiju, jak jen to jde, ale fail je to hlavně a předevšim cenově. Výkonově a provozníma vlastnostma ani náhodou. Kdežto tenhle Radeon na 7nm, který by měl mít oproti 2 roky starým kartám ve všem náskok? Opět ať si každý odpoví sám... P.S. Kdyby 2080Ti stála do 25k, už ji mám doma. Ale z principu jim nebudu tu zlodějskou marži dávat. A RT mě vůbec nezajímá, zatím je to pro mě techdemo, uvidíme v dalších generacích... výkonem a vlastnostma ale je tam, kde jsem si ji představoval...
Slušná GPU? To snad ne... kdo koukne na cenu/výkon/provozní vlastnosti (na dlouho očekávaných 7nm), nemůže tohle říct a už vůbec ne to koupit... 16 GB je jediné plus v dlouhém seznamu mínusů téhle karty. S tím, že pro hráče nemá 16 GB v 99 % her význam... a až význam mít bude, bude mít v case už kartu úplně jinou...
JJ Marku však tak jak jsme se už spolu bavili já jen v tom RT nevidím tu výhodu je to tak na ukázková dema a než přijde větší rozšíření RT ve hrách, tak ty první grafiky už na to nebudou mít výkon... Čili beru ty grafiky tak jaký mají výkon bez RT.
Tento Radeon vidím jako z nouze cnost... Není to FAIL ale není to ani hitparáda a ty provozní vlastnosti...
Já se těším na ZEN2. Už aby to tu bylo a mohl jsem to otestovat.
Jinak Marku to DLSS může být zajímavé jak jsem říkal, a to víc jak celé RT. Pokud platí to že při pohybu nepoznám rozdíl v kvalitě tak je jedno jesli je to upscaling nebo není.
viz https://bit.ly/2D6SM6W
no jo, AMD totiž mezitím se snaží konkurovat Intelu a vydalo Ryzen 1xxx a poté 2xxx. Jakýpak procesor vydala nvidia? - Jo počkat, ty zelený tydýti vlastně žádný nevyrábí.
Už se nemůžu dočkat, až začne grafiky vyrábět i Intel, ten by Huangovi se svými finančními možnostmi těžce mohl pomuchlat tu jeho trapnou koženou bundu :-)
Tynyte, ted jsi mel jedinecnou sanci rict, ze jsi od te karty ocekaval vic a ze je to pro Tebe zklamani, ktere nebude mit vyuziti ani na hry ani v profi sektoru... proste zravej kockopes co (mozna zatim) nevyuzil potencial 7nm... misto toho balancujes nad tim, ze "zajimavy pocin" vlastne neni "zajimava karta" a ze vlastne Lisa udelala genialni marketingovy tah tim, ze vzala (udajne) zmetkove cipy, sla se s nima chlubit na verejnost a defacto tak udelat premieru a povest prvni 7nm GPU. Opravdu bys novou genearci uvedl takto? Zmetkovyma cipama? A pak bys je rozesilal do redakci i s darkama okolo, kdybys nechtel udelat dojem? A o to prave jde, ta karta na nikoho dojem udelat nemohla, protoze se nepovedla. Kdyby vysla 2 roky zpet, rekl bych ok, ale stejne bych koupil 1080 nebo 1080ti. Ale dnes? Skoda slov...
Tak tak, lidi neřeší cost of carry, tedy cenu za vlastnictví, v tomto případě provoz té karty, případně že mohl ty peníze dát jinam a to mu přineslo větší zisk (ziskem rozumějme třeba více zábavy), Rozdíl mezi 2080 asi nebude tak velký, počítám že v horším případě to bude kolem 80W, nicméně 80W je pořád dost . Pokud to poběží ve výkonu 5 hodin denně, tak se bavíme asi o 7 stech za rok na elektřině navíc, pokud to má sloužit někomu 5 let (přece 16GB VRAM = dlouhá životnost) tak celkový rozdíl je 3.5 tisíce.
Pak bude dobré odhadnout zůstatkovou cenu těch karet, resp prodejní cenu staré karty ale kdo by kupoval 5 let starou kartu, že.
Proč by měla Nvidia potřebovat 7 nm grafiku? Proč HBM? Vždyť si vystačí s tím co používají a konkurence je ne a ne překonat. Tak proč?
Mimochodem, Nvidia samozřejmě čeká až jim AMD u výrobce vyladí 7 nm výrobu.
A kdepak jsou ty oberžblebty o tom jak 7 nm proces automaticky přinese kvantum výkonu navíc, daleko menší spotřebu. Realita?
Pomer cena/výkon má byť lepší ako u RTX 2080. Prevádzkové vlastnosti sú sklamaním vzhľadom na 7nm výrobný proces, ale zasa to nie je niečo, čo sa nedá prekonať. Preto to podľa mňa fail nie je. Ja by som si osobne tiež Radeona VII nekúpil a uprednostnil by som RTX 2080 kvôli podpore GPU PhysX (hrávam sem tam stále aj tieto staršie hry), Gameworks a hlavne RT a Tensor cores. Teraz využijem rétoriku AMD fandov - podľa mňa je Turing lepšia GPU do budúcnosti ako Radeon VII. Radeon VII ale určite nie je fail. Je to proste alternatíva. Na fail by musela byť výkonovo aj náročnosťou na prevádzku citeľne horšia. A to predsa nie je.
Je rozdil kritizovat nejakou skutecnost/vlastnost produktu a odsoudit smahem cely produkt. Nazyvat cely produkt failem, je odsoudit ho smahem. Podle mne je tohle chyba a kotektni je treba rict, ze v necem nesplnuje ocekavani.
Veka 7 nesplanuje ocekavani v efektivnosti, ta je mizerna. Pro nekoho nemusi splnovat ocekavani ve vykonu, protoze bych chtel 2080Ti+. Ale to jsou zklamane ocekvani, nikoliv fail. Vykon se preci posunul oproti predchozi generaci AMD, efektivita taky. Posun tady je, byt treba mensi nez by se dalo cekat. Vypocetni vlastnosti te karty je taky lepsi nez predchozi generace, pameti ma vice, atd..
Je to sede, neni to jen cerne nebo bile..
Turingy jsou zajimave karty, kdyby NV nesetrila na spatnych mistech.. typicky 6GB RAM pro 2060, neprepalila to cenove a nevzbudila falesna ocekavani ohledne RT. Ocekavani nekterych nesplnil ani vykon 2080Ti, ale presto to neni fail. Teda krome ustrelene ceny...
Veľkosť čipu a ani výroba nie je samozrejme pre zákazníka dôležitá. Je to výhoda iba z pohľadu AMD, že by mali mať lepšiu výťažnosť a výroba čipu by ich mohla stáť menej. Aj keď je otázne či to tak reálne je a teda otázne je v akom stave je 7nm výroba. Ale máš pravdu, že pre zákazníka to je vlastne jedno.
Nechápu. Nerozumím tomu, co jsi čekal od die shrinku, kromě snad opravy toho, co v původním designu nefungovalo?
AMD vzalo starou Vegu, udělalo shrink a maximálně opravilo pár zjevných a snadno opravitelných chyb. Čekáš, že se změní zásadním způsobem účinnost na takt, nebo příkon? Těch AMD inzerovaných cca 30% výkonu nahoru je v tomto ohledu docela slušný skok, ovšem velmi pravděpodobně ve značné míře zajištěný pouhým růstem dosahovaných frekvencí.
Čo majú CPU, Intel, Huang a jeho kožená bunda spoločné s Radeon VII? Tvoj osobný problém s firmou NVIDIA resp. s nesympatiami voči Huangovi je len tvoj. To s týmto nemá nič spoločné. Ani sny o tom, ako Intel NV v budúcnosti ukáže. :-)
Inak otázka aký procesor vydala NVIDIA je ako keby sa niekto iný pýtal akú Tegru vydalo AMD? Alebo aké SoC zariadenia pre AI vydalo AMD? NV tiež nerieši iba grafiky pre hry, ale majú širšie portfólio produktov.
O Bože, do čeho jsi to duši dal?
Pokud jsi nepochopil co jsem napsal, stačilo se zeptat, namísto rozvíjení podivných teorií. A jak vidím, už jen to, že jsem prozřetelně dopředu jasně vysvětlil, že počin není karta, bylo více než moudré.
Napíšu to ještě jednou, snad srozumitelněji (pokusím se používat jednoduché, krátké věty):
1. Radeon VII není nový.
2. Radeon VII je 7nm shrink. (zajímavá věc (počin), jedná se o první velký 7nm čip v prodeji pro běžné spotřebitele)
3. Radeon VII je komplement (doplněk) profesionálních produktů. Zřejmě jsou na něj použity čipy, které nejsou použity v profi grafikách.
4. Ty si myslíš, že se jedná o neprodejné čipy po MI50/60, které nikdo nechce, já si myslím, že jde o čipy, jejichž vlastnosti nesplňují interní normy pro profi karty.
K tvé otázce: AMD si novou výrobní technologii ověřovalo historicky právě takto, tedy prostým shrinkem s minimálními změnami.
"Dojem" mohla udělat i nvidia - zřejmě tak ale neučinila, ale použila pro RTX stávající 12nm proces. Apropos, testy už jsou venku, že se bavíme o dojmech?
A dále si myslím, že uživatelé, kteří přehlížejí vyšší spotřebu Intelu vůči AMD, mohou s klidným srdcem přehlédnout i vyšší spotřebu AMD vůči nvidii, tím spíše, pokud pro AMD mají SW, který ji využije (např. střih videa). takže nevím, proč bych měl naslepo tvrdit, že ta karta nemá využití na hraní ani v profi sektoru?
Jak souvisí Ryzeny s Radeonem? Radeon má osazený Ryzen nebo co? Jak souvisí Intel grafika s Radeonem?
Bavíme se zklamání z toho co Vega60 dokáže, vzhledem k tomu že má papírové předpoklady dotáhnout to o hodně dále, s tím Intel, ani Ryzen nesouvisí, stejně tak s tím nijak nesouvísí že NVIDIA nedělá CPU.
Pokud chcete argumetnovat tím že AMD musí bojovat s konkurencí na více trzích a štěpit své zdroje, ano, souhlasím. Ale co s tím já, jako potenciální zákazník mám dělat? Já chci nejlepší produkt za své peníze a ten mi AMD nechce dodat, Proto bych kupoval NVIDIA kartu, proto bych kupoval Intel procesor. Ani v jednom totiž AMD neumí uspokojit mé požadavky tak dobře jako konkurence, byť RVII má největší šanci mě oslovit díky 16GB paměti, ale trpí nedostatkem výkonu
@oldass & komplik a spol.
Vy nevíte, že kdo chce výkonnou grafiku, tak má i na silný zdroj a kvalitní skříň s dobrým airflow???
To ví přeci každý hráč už od do Fermi.
;-)
Aneb jak se spousta lidí nechává ovlivnit marketingem. Jednou byl výkon nadevše (Fermi) a vzápětí byla na prvním místě spotřeba (Kepler a novější).
Ok, nemam s tim problem, pro me je fail synonymem pro tezke zklamani. Takze pokud to bude zni lepe - neni to fail, je to pro me tezke zklamani mych ocekavani od 7nm vyroby. Ta karta neni ani dost dobra na to, byt odpovedí na 2 roky stary highend pascalu a ja tak nemam jediny duvod se o tu kartu vice zajimat. A nebudu sam, protoze ta promile lidi, co je presvedci ke koupi 16 GB VRAM, povest R7 nezachrani...
Kde prosim je v 1440p 8GB bottlenecekm natolik, ze se musi stahovat detaily. Pokud takova hra je, opravdu nepatri mezi to zminene 1 % her, o kterych jsem psal? A pro zbylych 99 % her 8 GB neni a nebude nejaky cas zadny problem, co myslis? Nehlede na to, ze ja psal o 2 roky stare 1080Ti, ktera ma 11GB... tam je taky nekde problem, nebo vyhledove bude, ze bych mel zvolit R7 misto ni?! Ale chapu, mozna casem 1-2 hry najdes a budes mit opet neprustrelny argument ;-) ;-)
https://www.youtube.com/watch?v=pfnzHA3-MhM
od 4:08 to začína, merané v 1440p.
Toľko k tvojím nezmyslom a tak potrebným 8GB do Full HD...
+ ten zábavný dodatok "když chce textury na maximum s vyhlazováním" - áno a potom bude mať s RX480-590 v nových hrách 25-30fps slideshow :D
"už 8GB je v nových hrách tak na fHD když chce textury na maximum s vyhlazováním. 16GB vypadá jako overkill, ale jen z pohledu 3 roky starých her."
Ano hry umí využít víc paměti. Pusťme si RotTR na Titanovi a bude využívat 9GB VRAM, Pusťme si to na 2080 bude to 8GB, pusťme to na 1050 a vystačí si s 2GB bez dopadu na výkon.
Prosím tedy přesně KTERĚ TITULY mají problém s 8GB ve FHD tak aby byl měřitelný rozdíl mezi 6 a 8GB.
Prosím které tituly v 1440p vyžadují více než 8GB paměti aby to bylo měřitelné a snížením detailů se měřitelně zvedne výkon kvůli chybějící VRAM
Kde je 8GB limit pro 4k že se projeví na výkonu.
Tady by bylo ideální srovnávat buss interface zátěž. Mít ty "kritické" scénáře a kouknout jak se chová na 4GB, 6GB, 8GB, 11GB a 16GB kartě. Pokud zátěž bude výrazně vyšší a karta nebude podávat očekávaný výkon, dá se říct že je bottleneck kapacita paměti.
Vidím to například v X-Plane, když to přeženu s nastavením a jsem v místě kde se správně sejdnou detailní textury, výkon se propadne klidně na polovinu a z řádu několika procent zátěže buss interface to skočí na 50%. Ale tohle je extrémní scénář a extrémní konfigurace, která s běžnou hrou nemá nic do činění. Jen textury pro povrch mají v mém připadě 2.6TB
Z pohledu výroby ano, menší plocha, chyba na wafferu zničí jen tu malou plochu, ne výrazně větší. Ano, na druhou stranu 7nm má být poměrně drahá výroba a pak je otázka zda větší technologie není efektivnější. To je krásný příklad těch HBM, propustnost 1TB/s ale nezdá se že by to bylo nějak zásadně lepší než karty s poloviční rychlostí.
Jak jsem někde napsal, mám za to že ta karta měla potenciál obrovský ale nevyužila ho.
https://www.youtube.com/watch?v=tLyIu3lMdAc
tady je nové video...
BFV DLSS dostane a mělo by to být snad v řádu dní, stejně jako Anthem co používá stejný engine.
Někde jsem narazil na nějaké čísla, že už to bylo zkoušeno. 1440p, Ultra s RTX2060, 90FPS RTX off, RTX on 65FPS, RTX ON DLSS ON 88 FPS, tzn. téměř bez dopadu.
Mě je jedno co s tím kdo dělal, výkon navíc to má, dokonce na ceně to vyrostlo ještě víc než ten výkon.
Tak jak tak, výrobní technologie to má, dle některých českých autorů naprosto prvotřídní a znamená to že je to prostě the best, tak bych čekal i the best výkon a provozní podmínky, což se bohužel nestalo. Takže mám pocit že potenciál technologie při výrobě je nevyužítý
Ach jo, pises o tom krasne, ale tak nejak prazdne. V marketingu se tomu rika damage control... Reknu to taky jednoduse, svymi slovy... Pro drtivou vetsinu zakazniku je R7 nova karta, od ktere ocekavali, ze i diky 7nm bude konecne odpovedi na highend NVIDIE, obzvlast po predchozim VEGA failu. Nezajima je, jestli je to SHRINK nebo neni. Vytvari to pro ne PRVNI dojem ze 7nm grafik AMD a ten se IMHO nepovedl... vic k tomu nemam co.
Jj, někteří jeDDinci když se mluví o AMD vs. Intel tak vytahují jak je AMD super když konkuruje Intelu, ale když se mluví o AMD vs. Nvidia, tak přeci není možné kvůli financím konkurovat.
Reálně je ale naprosto běžné, že malé firmy svým jiným pohledem na problematiku často umí udělat daleko lepší věci než velké korporace, které velmi často pro svoji velikost mají klapky na očích ajedou si setrvačností svým daným směrem.
A tento fanatik může být ve finále rád, že ta Nvidia hlavně kvůli patentům nedělá ty procesory.
pokud můžu mít stejný výkon s menší spotřebou, proč bych bral to samé se spotřebou vyšší? Pokud Radeon VII bude výkonem na úrovni 2080 a spotřebou na úrovni Vega64, navíc nemá RTX a DLSS, tak jasně prohrává bitvu o pozornost 16GB zní cool a pro minoritu to bude také důvod ke koupi té karty, ale pro většinu lidí to nebude mít význam a až to začne mít význam tak zas ta karta nebude mít výkon.
Vzhledem k tomu, ze hustota transistoru se zvetsila mezi 14nm a 7nm ~4x, tak ten vykonnostni posun je opravdu mizerny (alespon ten prezentovany primo AMD). Schopnost vytahnout vyssi takty muze byt klidne z vetsi casti obecnymi rozdily mezi procesy GloFo and TSMC, nez primo 14nm->7nm prechodem. To v AMD zcela jiste vedi moc dobre, ale my se o tom muzeme jen dohadovat. Pochybuju, ze takovou informaci oficialne nekdy vypusti (muzu se plest).
Ta analogie je spatna, protoze HBM neni lepsi technologie, nez GDDR6. Je jina a ma jine priority. HBM ma vetsi sirku, ale obecne pracuje na nizsich efektivnich frekvencich, zatimco GDDR6 naopak ma mensi sirku, ale pracuje na vyssich efektivnich frekvencich. To mimo jine znamena (alespon tak jak to na zaklade dostupnych informaci chapu) mensi latence v pripade GDDR6 pro mensi bloky dat. To ale muze byt dost vyznamna vec, pokud je cela architektura na mensi bloky dat navrzena (hint: tile-based rendering), protoze pak ty mensi bloky muzou byt on-demand dotahovany do lokalni cache rychleji, za mene cyklu, nez v pripade HMB. U HMB k dosazeny rozumnych latenci bude nejspis nutne zarovnavat praci precizne tak, aby si o vetsi data rikali klienti soucasne ( a to neni zadarmo).
Tyhlety uvahy o "uber HBM", co tu rozsiruje hlavne Soucek (a Stach s Olsanem ochotne papouskuji, kdyz tu technologii primarne tlaci AMD), jsou dost jalovy. Jedna se o dve rozdilny technologie, kde kazda je vhodna pro jiny pristup, ale neda se objektivne rict, co je lepsi.
A pak je tu samozrejme cena a komplikovanejsi osazeni HBM.
K čemu paměť do budoucna když to do budoucna nebude mít výkon
GTX2080 je pořád jen výkon kolem GTX1080Ti, tzn ideální pro FHD hraní bez kompromisů .- plné detaily (což mnohdy není ultra preset), FPS minimálně 60 (max a avg jde tlačit nahoru snadno i slabšíma kartama, ale minima jsou klíč k plynulosti)
https://www.overclock3d.net/reviews/software/fallout_4_high_resolution_texture_pack_review/4
V 4k 6,15GB... usage, což neznamená že to je requirement a ta hra nepreloaduje/neuvolňuje textury které nutně nepotřebuje
viz můj příklad s RotTR, na 11GB kartě pápne 9GB VRAM, ale karty s 8, či 6 GB podávají předpokládaný výkon - tzn nejsou limitovány pamětí.
Nicméně RTX2060 vážně necílí na 4k a v 1440p i jen usage naprosto v pohodě.
Tady jde krásně vidět jak rozlišení nehraje výrazný vliv na VRAM, jde o textury a paměť pro samotné počítání všeho
Hele mě je naprosto u zadele proč to má výkon jaký to má, nebo proč to nemá výkon jaký bych čekal že to může mít.
Jediné co je pro mě relevantní je to že bych čekal od 7nm a potažmo HBM2 výrazně lepší spotřebu než konkurence se žravějšími paměťmi a větším výrobním procesem (ano tady ještě nevíme přesně, ale tušíme) a s ohledem na to i vyšší výkon.
Třeba ale za můj názor mohou jen novináři co 7nm a HBM2 hypují :)
"rotoze ta promile lidi, co je presvedci ke koupi 16 GB VRAM, povest R7 nezachrani…"
.. tohle je ale celkem neopodstatnene tvrzeni z nekolik aduvodu
- nevis kolik tech karet planuji, tudiz nemuzes ani tvrdit, ze se neprodaji
- osobne pochybuji, ze AMD s touhle kartou cili pouze na hrace
- nevime, kolik byli naklady AMD, aby tuto kartu vyvinulo. Vzhledem k predpokladu, ze se jedna de-facto jen o modifikovanou profi kartu, budou naklady nejspis hodne nizke (ve srovnani s novym produktem), tudiz pro AMD je to win win situace
Opravdu zajimave karty prijdou stejne nejdrive 2020, pokut tedy NV letos neprekvapi, takze kdo chce jen upgrade, muze ignorovat s klidem jako Veku 7, tak Turingy.
AMD mohlo znizit spotrebu alebo zvysit frekvencie vdaka 7nm procesu. Potrebovali navysit vykon cipu, tak museli zvysit frekvenciu cipu, lebo GCN je asi limitovane na 64CU max.
Ak by ponechali takty ako ma Vega64, tak by TDP nebolo 300W ale dajme tomu 200W.
Vyhoda HBM2 je v tom, ze ma nizsiu spotrebu ako GDDR6 a radic zabera menej miesta na cipe, ale to je asi vsetko.
Tych 16GB HBM2 sa na cene prejavit muselo a 7nm tiez nie je najlacnejsie. Ak by bola ta karta len s 8GB, tak si myslim, ze o $100 mohla byt lacnejsia.
7nm je zatial najlepsi vyrobny proces, ale ten ti zo zastaralej architektury, ktora ma svoje limity nevie urobit prvotriednu.
Ak sa im podarilo zvysit vykon o 25-30% len vdaka pouzitiu 7nm, tak z mojho pohladu bol potencial 7nm vyuzity celkom dobre.
Takovou optikou je ovšem fail i vydání karet RTX, ne?
Slibovaný raytracing se nekoná, DLSS nefunguje nikde. Hry co měly vyjít s podporou tu ani po čtvrt roce nejsou.
Ach jo?
BTW, já jsem se jen snažil uvést na pravou míru tvé posunování mých výroků směrem, kterým jsem je nezamýšlel, a který se mi nelíbí.
Každý engine to řeší jinak, jednou se hra začne cukat jindy rovnou spadne nebo obojí. Každopádně RE2 ukazuje směr kdy na nové hry bude 6 GB max na fHD a to ještě bez vyhlazování. Když se vezme v úvahu že 8GB karty jsou široce dostupné od jádra Hawaii tak je spíše s podivem že tu kapacitu pořádně využívají hry až v roce 2019.
Už jsem to tady psal, já od RTX dostal přesně to, co jsem očekával a chtěl, obzvláště od 2080Ti. Tzn. skvělé provozní vlastnosti a vysoký výkon. DLSS a RT mě vůbec, ale vůbec v této generaci nezajímají. Nebýt totálně nesmyslné ceny, už by byla doma. Zcela očividně jsou naše optiky na to co je fail zcela rozdílné.
BTW. Tvé výroky jsem interpretoval tak, jak jsem je pochopil. Pokud jsi je zamýšlel jinak, tak sorry. Z psaného textu to může leckdy vyznít jinak... občas to u Tebe například vyznívá dost do červena, a to jakože za každou cenu... dnešní diskuze budiž toho důkazem. Vydat tohle NVIDIA, ukamenuješ ji a Tombo Ti k tomu bude pouštět We are the champions...
"Reálně je ale naprosto běžné, že malé firmy svým jiným pohledem na problematiku často umí udělat daleko lepší věci .."
..uvaha sice dobra, nicmene dost chybna v danem kontextu. Nemas tam 2 podstatne promenne, bez ktere je ta veta nepravdiva. Prvni je situace trhu, kdy je obrovsky rozdil mezi trhem, ktery je na svem zacatku a trhem ovladanym monopolem/duopolem. Stim se samozrejme pak uzce poji i ta druha promenna a to je kapital.
"technickou diskuzi" :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D s tebou? :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D * au bolí mě už břicho z toho smání.
Měl by sis přečíst znova první mou větu. K té se to celé vztahuje. Udělat výborný výrobek často není vůbec o penězích. AMD prostě ty výborné grafiky už dlouho nemá. Brečení že na to nemá peníze je pouhopouhý alibismus. Nic jiného.
To jestli z toho pak dokáže firma vytřískat kapitál je úplně jiná věc. To je třeba případ AMD v oblasti CPU.
žádný výkřik ale zcela reálně naměřené údaje. Testni nového RE2 a pak se pochlub kdy ti hra spadla na nedostatek paměti. I starší hry využijí docela dost videopaměti pokud se jedná o 1440p. Stařičký Far Cry 4 bez problémů dá 5GB s vyhlazováním. Já mám své podložené proto to píšu. 8GB není žádná hitparáda a dvacet tisíc za 8GB nebo deset za 6GB kartu je brutální předražení vzhledem k tomu že grafiky už mnohdy jedou na doraz. Nepotřebuji žádná YT videa a praxi vidím ve svém vlastním stroji.
Nemám RTX kartu, takže si to nepustím. Nicméně na tom videu je DLSS obraz výrazně ostřejší než s TAA a i některé objekty jsou vykresleny dle mě lépe. A to při až 50% nárustu výkonu.
4k jsem neviděl ale pochybuji že se něco zvedne z 18 na 36FPS. Nicméně pokud je to stížnost na FPS, tak je třeba brát v úvahu že je to benchmark který má těm kartám zatopit a měl by zatápět kartám i za pár let. Pamatuju nějaký postarší 3DMark kde snad byl DX10 jako novinka a běželo mi to 5-10FPS, hry v DX10 ale rozhodně na té kartě běžely výrazně rychleji.
btw tady je graf jak jednotlivé RTX karty ziskávají s DLSS v tom Port Royal testu. 2060 je na tom nejlépe s 50%, RTX2080 a 2080Ti mají jen 42% navíc, 2070 45%
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-3dmark-port-royal-benchmark/
tady jsou i high resolution screeny DLLS on vs off
zajímavé je že recomended karty jsou 1060, rx480, 3GB VRAM, takže opět jsme spíše u toho že hra umí využít více paměti ale na výkon to nebude mít dopad jako třeba ten RotTR.
Pro nedostatek VRAM hra nespadne, tedy pokud nepotřebuje víc než je sdílená paměť, u mě je celkově dostupná paměť pro GPU 24GB z čehož 16GB je sdílená RAM, 8GB fyzická VRAM.
Je to ostřejší asi jednak protože ten filtr DLSS obraz přiostřuje, ale hlavně tam to TAA strašně rozmazává pohyb. Nevím, jestli je to ještě normální nebo už zprasený, ale je škoda že to neporovnají s nativním obrazem bez AA nebo s nějakým jiným post-processingovým AA, který by takhle nerozmazával.
Takhle vůbec není vidět, jak dobrej ten upscaling je...
TRak opět ten příklad na videu RotTR https://www.youtube.com/watch?v=GGa50ja5oYU
moderní herní enginy když mají prostor, loadují do paměti věci, které může použít později. To jde krásně vidět na tom videu, kdy to začne asi na 4GB a aniž by kamera pohla nebo se na scéně objevily extra objekty, postupně využití VRAM skáče nahoru.
Některé enginy pak přizpůsobují různé parametry automaticky. Příklad je The Division a snowdrop engine, Pokud nemáš kartu s 6GB paměti, tak hra nemusí použít nejvyšší kvalitu textur (ta nejde nastavit, hra si ji řeší automaticky právě dle dostupné paměti), engine taktéž v době kdy není vytížený načítá do paměti věci, které nejsou zobrazené a nepoužívají se ale pokud se kamera pohne, je předpoklad že budou tyhle objekty využity, to může odstranit/nebo aspoň redukovat takové ty otravné "doskakující textury".
V zásadě to funguje stejně jako prefetch ve Windows, do paměti se nahrají aplikace/knihovny, které se nejčastěji používají preventivně protože se předpokládá že něco z toho uživatel bude chtít spustit, pak není třeba čekat na disk, vše už je připraveno. Když je pak potřeba paměť na něco jiného, systém tu paměť s prefetch daty uvolní.
Proto vyšší využití VRAM neznamená že to ta hra nutně potřebuje. Proto by bylo dobré testovat na totožném HW a pak mu paměť omezit... Vzhledem k tomu že vývojáři RE2 doporučují 3GB, tak bych se nebál že 6GB karta bude mít i v max nastaveních propady výkonu
Řekl bych že většina grafik zdaleka nemá 8GB, ba ani těch 6, spíše 4 či méně. Přecijen starých karet, které výkonem ještě stačí na méně náročné hraní nebo jednoduše lowend karty s 2-4GB tvoří největší podíl.
Zajímavé je že dnes AMD fanoušci tvrdí že 6GB je málo i na FHD, ale když vyšla RX480 tak všichni chválili do nebe 4GB levnější verzi s tím že 8GB potřeba není ...
No samo že AMD platí ranec za paměti, problém je že s 8GB už by museli ten čip předělat. Jenže zákazníkovi "coby, kdyby" nepomůže
Ony se předně zvýšily takty, které jsou primárním zdrojem toho výkonu navíc, těch taktů jde ale dosáhnout i na větším výrobním procesu, NV má tyhle takty už přes 2.5 roku.
No jiste, zase ty pohadky s upscalingem. DLSS je autoencoder. A autoencoder neni upscaling ;)
https://en.wikipedia.org/wiki/Autoencoder
Ty budes sam sebe tak dlouho obelhavat, az tomu za chvili fakt zacnes verit :D
"AMD prostě ty výborné grafiky už dlouho nemá"
.. s tim souhlasim, nicmene porad potrebujes dostatene velky budget, aby jsi mohl uvest byt jen prumerny produkt. Pokud jsi nekdy byl soucasti nejakeho projektu, kteremu napr. dalsi mensi budget, nez pozadoval, tak musis vedet o cem mluvim. Vysledny produkt, pokud vubec bude funkcni, tak je vetsinou plny kompromisu, ktere samozrejme maji svoje dusledky. A to se bavim jen o SW branzi. Navrh komplikovaneho HW, jako je grafika, je mimo moji rozlisovaci schopnost.
Jestli je nedostatek penez "dlouhodoby alibismus" nevim, nicmene je to urcite jedna z nutnych podminek (krome odpovidajiciho know how) pro uvedeni usepesneho produktu.
Tady je test na moji 2080Ti, cca 18->36fps
https://i.imgur.com/zxrwYIt.png
Uz se mnozi i jine testy, ktere narusty ve 4k potvrzuji. Je ovsem nutne pripomenout, ze narust vykonu se bude lisit engine od enginu. 3Dmark RT cores hodne pretezuje, narust bude vetsi, nez bych cekal treba od SoTR.
Test DLSS v 3Dmark... je na urovni TAA. Nekde je kvalitou trochu lepsi, nekde naopak horsi. Dochazi i k "problikavani".
" By and large, image quality with DLSS is comparable to TAA, sometimes better, but also sometimes worse. This is particularly clear by a flickering vertical and horizontal edges. The lower resolution, which is calculated for DLSS, is also noticeable every now and then."
https://translate.googleusercontent.com/translate_c?depth=1&hl=cs&rurl=translate.google.cz&sl=de&sp=nmt4&tl=en&u=https://www.hardwareluxx.de/index.php/news/software/benchmarks/48531-3dmark-mit-dlss-im-kurzest.html&xid=17259,15700022,15700124,15700149,15700186,15700191,15700201&usg=ALkJrhhEqtARTR1m0P2GLgle-ulDnCCCQw
To co pise hwdlx se naprosto nesetkava s realitou. TAA podava nesrovnatelne horsi vysledky ve vsech ohledech. DLSS se vyslednym obrazem blizi supersamplingu. Panum nedochazi, ze v demu je hodne artefaktu od samotneho RT, ktere nam s AA co delat, DLSS si nemuze vymyslet neco co ve zdroji neni.
Ne, prostě hromada peněz prostě není automaticky zárukou úspěchu. To platí v oblasti, kde je prakticky jen a jen nějaká předem daná práce a čím víc lidí zaplatím, tím ty práce udělají více.
Oblast grafických karet je IMHO pořád ještě o nápadech jak co udělat efektivněji, lépe.
Stejně tak jako tisíce malých firem které přijdou s něčím zajímavým, převratným a v čemž jsou špička a jejichž rozpočet je mnohdy minimální. Takové firmy jsou bohužel následně koupeny těmi velkými neefektivními korporacemi.
@J.Olsan.. kazdy kdo aspon trochu pracoval s fotkama, viedem tak vi, ze nejde z obrazu v nizsim rozliseni udelat lepsi obraz ve vyssim s lepsi kvalitou, nez ma nativni vyssi rozliseni. Kdyby to tak bylo, byla by uz davno v upscalingu videa a fotek revoluce.
To ze ten supersampling vylepsuji na zaklade trenovane AI, ktera se sazi odhadovat, co v tom obraze je je sice zajimavy pokrok, ale vzhledem k poctu ruznych kombinaci, ktere se tam vyskytuji, je to jeste beh na dlouhou trat..
@Saruman: Nepadla mi zatiaľ žiadna hra kvôli nedostatku VRAM. Drvivá väčšina hier čo vidím má problém vôbec presiahnuť 7GB. Obsadenosť 5 - 6 GB VRAM je taká normálka. Task managera so štatistikami a GPU-Z mám pustené vždy pri každej hre, aby som mal prehľad o vyžívaní zdrojov, takže to mám tiež z vlastnýc h skúseností. Sem tam sa stane, že hra by vedela využiť aj viac ako 8GB VRAM, ale nestalo sa mi, že by to malo nejak zvlášť negatívny dopad na výkon alebo že by rovno hra kvôli tomu spadla.
Okrem toho viac ako 8GB VRAM má dnes minimum hráčov (oproti celku). Vývojári s tým musia počítať a silne pochybujem, že sa toto zmení v najbližších 2 alebo 3 rokoch.
RTX 2080
+ lepší spotřeba
+ hybridní raytracing
+- DLSS
-8 GB VRAM
Radeon VII
- horší spotřeba
+ 16GB VRAM
DLSS rozmazává textury, takže nic pro fanoušky nVidie, kteří preferují "kvalitu" zobrazení. Proto si přece pořídili RTX, který odrazy nenapodobuje jako rasterizace, ale počítá je hybridním raytracingem, pro ně je jákekoliv rozmazání textur zcela nepřípustné. :-)
Za dva roky si, ale ani ten hybridní raytracing nezapneš protože budeš potřebovat více FPS, abys vůbec nové hry rozchodil a nebyla to slideshow.
Takže pojedeš hry s vypnutým RTX a tedy stejně (jenom rasterizace) jako u toho Radeonu.
Ale budeš mít problém spustit hru s více detaily, protože 8GB VRAM je v některých hrách často limitní s určitými nastaveními už dnes. Proto 8GB vs 16GB může znamenat zcela nehratelné vs hratelné se sníženými detaily.
Summa summarum - dle mého RTX 2080 zastará mnohem rychleji než Radeon VII.
Ano, ale ty pohledy se nevylucuji, nybrz doplnuji. Dneska, i kdyz budes mit sebeinovativnejsi firmu, ktera prijde s vylepseni efektivity/vykonu grafik rekneme o 50% na stavajicim procesu, tak se bez toho, aniz by ji vzal pod kridlo (koupil) jeden z hracu (Intel, AMD, NV) stejne nema sanci prosadit. Uz to nejde. Trh je rozdeleny, dokud nenastane nejaky zlom, ktery ten smer kompletne zmeni.
U NV to vypada, ze ma jak zdroje, tak know how (samzorejme i marketing), kterym je schopna urcovat vyvoj celeho segmentu. Je otazkou, jestli AMD vubec jeste ma na to, aby se ji podarilo neco takoveho, jako v pripade Ryzenu. Je mozne, ze tenhle navrat se uz nestane, protoze AMD na to nema.
Co ji momentalne na PC hrani achranuje jsou jednak ceny a hlavne konzole.
Uvidime 2020..
Jeste jinak.. podivej se na architekturu Ryzenu.. tady vidis celkem zretelne, ze byla delana s cilem vysoke efektivity celkovych nakladu. Nastesti se jim to povedlo i vykonove, ale navrh Ryzenu je kompromisni se slabsimi misty, prave kvuli tomu, aby ho byli schopni vubec vyrabet. Neco co Intel nemusi moc resit (zatim)..jede si svoje monolity a je vysmaty, protoze s jeho kapitalem nejsou vstupni naklady tak kriticke, jako u AMD.
mareknr: mám ten dojem, že jsem ti to už několikrát vysvětloval. Nemám problém se samotnou technologií (teda kromě fakt amatérského uvedení, ale to je problém nvidie, ne můj), ale s tím, že ji vydávají za něco, čím není.
Když už jsme u těch koní: když na koně navěsíš blinkry a světla, tím z něj ještě auto neuděláš. Ale když jej pojmenuješ třeba hippomobil, tak s tím problém mít nebudu.
@tynyt:
"Máš pravdu, první auto pana Benze bylo pomalejší než kůň.
Ale prozraď mi, kde dneska nakupuješ obrok pro svého oře?"
A teraz povedz na základe čoho teda kritizuješ aktuálnu podporu RT v RTX, keď ti v tomto prípade nevadí, že je GPU na 7nm prevádzkovo na tom horšie ako výkonovo porovnateľná GPU na 12nm, ktorá má ešte k tomu citeľne väčší GPU čip? Hlavne, že je to prvá GPU na 7nm. Prečo je potom problém u prvých grafík s podporou RT len preto, že sa v prvých generáciách bude používať iba na čiastočné fíčury? Či v tomto prípade chceme mať hneď auto rýchlejšie a lepšie ako ten kôň?
tynyt: Vysvetľoval si to, že ti vadí, že sa RT nepoužíva na celú scénu ale iba na niektoré fíčury. To chápem. To, čo mi nie je jasné, je že prečo sa na tio pozeráš úplne inak ako teraz na 7nm Radeon VII.
Každopádne RTX grafiky podporu RT majú a je možné cez pomocou nej renderovať kompletne celú scénu v RT. Ako PoC viď už spomínaný Quake 2. Takže nie je prečo to volať inak. Aj Microsoft podporu vo svojom API volá DXR a teda DirectX Raytracing. Taktiež sa nikde neprezentuje, že by sa dnes v hrách cez RT renderovala celá scéna. Vždy sa hovorí o tom, ktoré fíčury (odlesky, tiene,...) dané RT využívajú a aj sa celý tento spôsobb renderovania volá hybridný rendering a nie rendering pomocou raytracingu.
"DLSS rozmazává textury" Ale prd. Youtube rozmazava textury pri kompresi videa. JPEG rozmazava pri kompresi obrazku.
Najdi si recenzi s nekomprimovanym vystupem. A jasne, ze se najdou pripady, kdy DLSS nezvladne vystup dokonale, ale prevazujou ty pozitivni. Vetsina recenzi se shoduje na ostrejsim a lepsim obraze u DLSS vs TAA, zvlast v pohybu.
prof. Tomáš Jungwirth, Ph.D., který se svým týmem vyvinul prototyp mikročipu z antiferomagnetu, jenž dokáže ukládat data tisíckrát rychleji než dnes běžně používané počítačové paměti. https://archiv.ihned.cz/c1-66112010-cesti-vedci-meni-svet-pocitacu-vyvinuli-prevratny-cip-tisickrat-zrychli-prenos-dat
Já jsem nebyl ten, kdo v tomto vlákně vytáhl DLSS vs TAA. Jen jsem upozornil, že srovnání kvality DLSS vs TAA v Final Fantasy se dělá snadno, když je tam TAA tak špatně implementováno.
Pokud vím tak Final Fantasy XV je zatím jediná hra (Infiltrator je pouze demo) co má možnost zapnout DLSS a podporu do hry dodělávali ve spolupráci se samotnou nVidií.
@Maudit
Hele, jestli chceš tvrdit, že v tý neuronový síti je "zakódovaný" to vyšší rozlišení hry tak bezeztrátově a dokonale, že to není upscaler ale nahrazení vykreslování na nativním rozlišení, tak jseš regulérní mašíbl.
Příště přijde Nvidia s čím, perpetuum mobile, cestování časem a výroba energie z entropie?
Ano, DLSS je rozhodně lepší než TAA, ale také to nepopírá co tvrdím.
Např. Final Fatasy má hodně špatnou implementaci TAA.
viz článek na Techspot
https://www.techspot.com/article/1712-nvidia-dlss/
Final Fantasy XV is a particularly poor comparison because its stock standard anti-aliasing, TAA, is a rubbish implementation of that technology, which blurs the otherwise sharp, clear imagery you normally get with native 4K.
I ty sám jsi musel pžiznat, že:
"A jasne, ze se najdou pripady, kdy DLSS nezvladne vystup dokonale"
Zas blbe ???? A pritom je to tak jednoduchy, jak pro prvnacky. Vstupem autoencoderu jsou i naucene znalosti o objektech ve scene, ne jen lowres input ????
"The first encoding layer might learn to encode easy features like corners, the second to analyze the first layer's output and then encode less local features like the tip of a nose, the third might encode a whole nose, etc., until the final encoding layer encodes the whole image into a code that matches (for example) the concept of "cat".[5] The decoding layers will learn to decode the learnt code representation back into its original form as close as possible."
https://en.wikipedia.org/wiki/Autoencoder
Ze je DLSS autoencoder bylo uvedeno primo pri jeho prezentaci.
A zase blbe ???? V ni neni zakodovany to vyssi rozliseni jako nejaka sada velkejch fullscreen obrazku, ale detaily malych prvku, ktere se pak skladaji do vetsich atd., ale nevime kolik urovni (to v zadne prezentaci nebylo). Proto se v souvislosti s autoencoderem mluvi o kompresi. Z lowres inputu ta sit pozna pak treba hranu sedacky. A naucila se vedet, jak ta hrana ma vypadat a jak ji rekonstruovat. Vsak na ty prezentaci taky ukazovali, jak ten jejich framework dokaze doplnit zcela ztraceny casti obrazu. Sci-fi co? Nemozny, co? Jenze ze si takovou vec nedokazes predstavit ani pochopit je jen tvuj problem. Pro stejne omezeny lidi bylo pred 100 lety stejny sci-fi pocitac nebo let na mesic .. ????
A jestli mas problem pochopit, kolik vlastnosti se v neuralni siti da "ulozit", tak si uvedom, ze neurony mezi vrstvama jsou spojene stylem kazdy s kazdym. Chapes, kolik kombinaci to dela uz pro blby tri vrstvy o 1000 neuronech? ;)
Maudit> Jo jo, na Final Fantasy vidieť ako "dobre" je to momentálne schopné "rekonštruovať" malé detaily. ;-)
https://www.dsogaming.com/articles/final-fantasy-xv-dlss-is-23-faster-than-taa-in-4k-constant-60fps-on-the-rtx2080ti-comparison-screenshots/
A rozhodne, keď v prezentácii uviedli, že vedia "doplniť stratené časti obrazu", tak je to zaiste ekvivalent kompletného obrazu. Človeče... je rozdiel medzi skutočnými dátami a odhadovanými/aproximovanými, prípadne umelým doplnením nejakých detailov, aby obraz nebol rozmastený.