Před rokem jsem chtěl koupit PC na provoz ve 4k, ice lake 4 - 8c, 1080Ti a 32"4k monitor.
Za rok tu bude zen 2 na 7nm a nebo ice lake a pokud bude v prodeji GFX 1080Ti asi nebude jiné řešení.
Kafé nachci, RTX 2080 Ti na 4k :-) ?
Jensen Huang se měl postarat o jiné řešení, následník 1080 Ti bez RT a RT karta do druhého slotu jako přídavná, ale nevím jestli by to bylo možné.
Takéto riešenie by ale pre Nvidiu nebolo prvý krát. Viď situácia Geforce 4Ti vs Geforce 4mx kedy slabší súrodenec vôbec nemal pixelshadery. Ako vtedajší vlastník Geforce 4mx som veľmi rýchlo zistil, že mi nové technológie chýbajú. Ak sa to potvrdí, tak je to pre mňa bohužiaľ nezaujímavá karta.
Gratuluji Maudite,opět jsi dostál své pověsti a jako směsný čert z krabičky jsi opět bodoval....Chápu že někdo ti sahnul na tvoji modlu.Ale ono to není ani tak vtipné jako tragické.
Ono se dá pochopit že nVidia se snaží marketingově okecat svoje selhání kolem RT.Tedy oni se už ani moc nesnaží a raději uvádí i nové karty bez RT.Ono jestli a (to je ta obrovská otázka) se RT někdy masově rozšíří,tak to nebude příští rok a ani pravděpodoně další ale rozšíří se v momentě kdy RT utáhnou karty kolem 200-300$.No a potom tu máme obrovský trh s konzoli kde nemůže nVidia nic nabídnout...A ne,starý chcípák jménem Tegra se nepočítá.
Vtipné je že drtivá většina majitelů karet od nVidie si RT stejně neužijí prostě proto že koupí mnohem levnější model.Když se podívám na Steam tak stejně skoro všichni koupí max tu RX1160,ale mnohem pravděpodobněji 1050...
Takže prosím přestaň donekonečna šířit BLUD že RT cokoliv na trhu ovlivní.Stejně tak jak AMD trpí že nemá verzi RT jednotky na svých kartách...To je asi poslední co AMD trápí.Ono když se člověk podívá na tragikomedii kolem dvojkových karet nV,tak se nedá nevzpomenout na podobný fall s FX řadou a zcela pohřbenou příležitost s PhysX a ,,revoluční,, fyziky ve hrách. V té době to také vypadalo na revoluci (alespoň podle nV.):) a v reálu se počet her kdy PhysX bylo výrazným přínosem se v pohodě spočítá na prstech...Smutné co?
Není lepší GK na non-RTX 4K než je RXT 2080Ti (pomineme-li tedy finančně náročný RTX Titan). Jako vlastník ASUS Strix 1080Ti OC vím, že i této kartě na vysoké detaily ve řadě her ve 4K dochází dech (rozuměj fps <60). S RTX 2080Ti by těch her bylo díky ~35%+ náskoku asi podstatně méně, ale za jakou cenu. Nové GTX 1080Ti jsou již prakticky celosvětově vyprodané, zbývají možná tak ještě nelákavá provedení okrajových výrobců.
Nejvýhodnější doba na výhodný nákup GTX 1080Ti (z druhé ruky) bude myslím asi až po vyjítí 7nm RT 3080Ti.
Nepotvrdi neboj, i ja cerstvy fanda AMD, ti mohu smele rici, ze technologie rady RTX 2000 se nikdy standardem nestanou. DLSS je naprosta kravovina, kterou vetsina studii ignoruje a vzdy to bude jen volitelna funkce a RT bude nejdriv za 5 let a to jsem velky optimista, navic soucasna generace RTX 2000 ma RT implementovano tak, ze je to stejnak uplne nepouzitelne jako nakonec vetsina dalsich vychytavek od NVidie.
Napriklad mohu dat cerstvou zkusenost ze Zaklinace 3, ktereho jsem rozehral a u ktereho jsem na graficke karte NVidia GTX1080 teda pomerne vykonne grafice, musel vypnout technologii NVidia Hairworks, protoze jsem po zapnuti teto volby nebyl schopen udrzet na grafice 60 FPS pri dnes beznem rozliseni 2560x1440. Tak k cemu ty NVidiacke technologie jsou, kdyz se to pak stejne musi vypinat, protoze u hry z roku 2015 to nedavam na highendove grafice vydane o rok pozdeji!
Souhlas, měla to být přídavná karta pro RT + udělat 2080 TI bez zbytečných jednotek, pak (pokud by to nezabila cena), tak by to byl prodejní trhák. A kdo by chtěl RT, tak si přikoupí kartu... jak jednoduché, ale to by muselo mít vedení Nvidie místo očí s dolarovkama opravdu mozek.
Selhání to přece není.
A v těch levnějších kartách RTX daleko spíš není čistě proto, aby se zákazník přitlačil ke koupení těch vyšších, než že by rezignovali nebo tak něco. Tj. tzv. segmentace trhu... A potom taky proto, že to potřebuje větší výkon, takže v levnějších kartách by to už asi opravdu nemělo smysl.
To GPU bylo z velké části připravené ještě než vůbec RTX 2080/2080 Ti přišlo na trh, takže těžko čekat, že by nějak reagovalo na přijetí/ohlas.
PhysX byla vyborna technologie pro fyziku ve hrach a neuspalo to proto, ze to podporovaly jen karty od NVidie. Vyrobcum se to kvuli teto omezenosti nechtelo implementovat a ti, kdoz to do her dali, obvykle dostali od NVidie fianancni pobidku. Skoda, ze NVidia svym nekompetentnim jednanim PhysX pohrbila, mela by to byt pro vsechny vystraha, aby se to uz nikdy neopakovalo.
Raytracing je naopak soucasti DirectX, takze tam to bude vyuzitelne pro vsechny. Problem je preci uplne jinde, nikdo ani NVidie nema dostatecne vykonne grafiky, aby raytracing byly schopne zpracovat. Kupovat si teda grafiku rady RTX 2000 postrada smysl pro vsechny hrace, kteri maji doma QuadHD nebo UltraHD monitory, na nichz RTX nefunguje. Uz tenhle fakt zcela demotivuje vyvojare her a raytracing upadne na nejakou dobu do zapomneni.
" a v reálu se počet her kdy PhysX bylo výrazným přínosem se v pohodě spočítá na prstech"
Vieš vôbec na čo sa PhysX v hrách používa? Nebol to iba marektingovo pretláčaný GPU PhysX, ale aj jeho CPU verzia, ktorá sa hojne poiužíva aj dnes. Schválne si pozri ake fyzikálne API používa väčšina hier postavených na Unreal Engine alebo Unity.
Tie hovadiny okolo RT, čo si popísal, ani komentovať nebudem. Pre teba by to bol fail vždy. Niečo by si si na to ako argument vymyslel.
No to je otazka. Kdyby vyhodili cele RT a TC, tak se muzou dostat na jakou spotrebu? Max 50%? A pokud by si ten cip papnul treba 50W tak je to na notebook stale prilis. Asi lepsi pockat par tydnu na specifikace, protoze se skutecne muze jednat i o "refresh" GTX 10x0, coz by take byla zajimava varianta.
Tak Hairworks jsou hodně náročné, na druhou stranu, když je namaxuješ tak fungují na vlasy všech, mají tam pro ně speciální AA a ten pohyb vlasů je dost viditelný.
Ale souhlasím, že to je první věc, kterou vypneš, když nemáš požadovaná fps.
S 1080Ti ve 1440p už není problém jet na Witcherovi přes 60fps s namaxovanýma Hairworks, to mám vyzkoušené. :)
Ale důležité je, že na to na rozdíl od RT nepotřebuješ speciální HW, nijak to neovlivňuje cenu grafik, atd. Je to prostě technogie, která ti dá super animaci vlasů za cenu řekněmes 25-30% výkonu, takže stejně jako aktuálně RT je to "hodně náročná kravina", kterou moc lidí nebude používat.
Jenže na rozdíl od RT kvůli tomu všichni nemusí platit za grafiky výrazně víc. Takže nevídím důvod, proč to Nvidii otloukat o hlavu.
Naopak je super, že takovéto technologie vznikají (btw AMD má vlastní "hairworks" - AMD TressFX - velice podobná technologie a dokonce ji ani neměli později, tuším) - prostě pokud mám výkon navíc pro danou hru, tak proč to nezapnout. Pokud by takto fungovalo RT, tak si nikdo nestěžuje, jenže tam potřebuješ třetinu, nebo polovinu čipu vyhradit na RT cores + Tensor cores, takže to je úplně jiná věc, než nějaký SW jako Hairworks.
To je videt, jak jste vy AMD fans omezeni. Raytracing nefunguje jako PhysX. PhysX aktualizuje objekty ve scene vicemene asynchronne. Nemusi se to delat kazdy frame a je to zlomek dat oproti raytracingu. Proto bylo mozne pouzivat pro PhysX vypocty druhou kartu.
Raytracing se ale pocita pro kazdy frame, potrebuje mit nactenou celou scenu v BVH, a pro kazdy objekt pristup k jeho datum, kdyz se do nej paprsek trefi. To vsechno 10 miliard-krat za sekundu. To tezko muze jit mimo cip. Vase naivita je az zarazejici ????
"DLSS je naprosta kravovina, kterou vetsina studii ignoruje a vzdy to bude jen volitelna funkce a RT bude nejdriv za 5 let"
No jasne, ve svete AMD fans na DLSS a raytracing vsichni kaslou. Reality check:
https://www.nvidia.com/en-us/geforce/news/jx-online-3-dlss/
https://www.nvidia.com/en-us/geforce/news/justice-online-geforce-rtx-ray-tracing-dlss/
https://www.nvidia.com/en-us/geforce/news/battlefield-v-december-4-dxr-update/
https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/
https://www.techpowerup.com/250610/metro-exodus-goes-gold-and-sees-release-one-week-earlier-than-originally-announced
atd. …
:D
"PhysX byla vyborna technologie pro fyziku ve hrach a neuspalo to proto, ze to podporovaly jen karty od NVidie."
PhysX nie je iba GPU PhysX. Prečo to stále ignoruješ? A nielen ty? Čo sa týka GPU varianty vôbec nebol problém v tom, že to išlo iba na GPU od NV. Zober si taký open source Bullet, ktorý bol postavený na OpenCL. Prečo sa podľa teba nepoužíval keď bežal na kartách od Nv aj od AMD. Vôbec to nie je také jednoduché.
"Kupovat si teda grafiku rady RTX 2000 postrada smysl pro vsechny hrace, kteri maji doma QuadHD nebo UltraHD monitory, na nichz RTX nefunguje."
Čo je toto za blbosť? To akože keď si dám vyššie rozlišenie ako FHD, tak si nebudem môcť RTX zapnúť pretože na týchto rozlíšeniach nefunguje? Tvojich vysnívaných 60 FPS v 2K odrazu nestačí? RTX 2080 Ti toto dáva s RTX na ultra v BF V a RTX 2080 to dáva tiež s RTX na medium. To akože znamená, že to tie karty nezvládajú?
No kdyz vidim vas DDWorld mentaly, tak se vazne musim smat. PhysX je uz nejakou dobu soucasti GameWorks, vy chytraci. Pouziva ho opravdu dost her. I ceska Arma 3 nebo Kingdom Come: Deliverance. Enginy jako Crytek, UE, Frostbite a Unity - ty vsechny GameWorks vyuzivaji. Tak jakej neuspech? ???? Mozna ve Stachovo a Souckovo imaginarnim svete, ve kterym se oddavate tem vasim AMD orgiim.
Btw, PhysX je od verze 4.0 open-source ????
Kvôli tebe som si toho zaklínača zapol teraz tiež a vyskúšal pár nastavení. V 2K v prvej dedine s Hairworks on som bol okolo 60 FPS stále. Klesol som niekedy na 55, čo bolo najhoršie. Samozrejme keď sa dočítava časť mapy, tak FPS poklesne aj nižšie bez ohľadu na to, či je Hairworks on alebo off. Musel si teda strašne trpieť. :-) V 4K som mal s Hairwoks Off okolo 43 FPS a s Hairworks On minimum 35 FPS. "Brutálny" pokles FPS v 4K, ktorý mi asi mal zničiť zážitok z hry. Takže sa priznaj Redmarx. Je Hairworks jediná fíčura, ktorú musíš v hrách vypínať a kvôli ktorej nemáš stabilných 60 FPS? Z mojich skúseností je na to potrebné doladenie nastavení viac hier, aby museli spĺňať takúto špecifickú potrebu. Všetky tie fíčury, ktoré musíš vypnúť alebo zmierniť sú podľa teba tiež zbytočné? Alebo je to len Hairworks? Čo keby si prestal konečne troliť?
Vzhledem k tomu, ze jsou nova GPU Nvidie 2x rychlejsi a zaroven 2x energeticky efektivnejsi, nez GPU od AMD, nemusis mit vubec strach :D
"Compared to AMD, NVIDIA is now almost twice as power efficient and twice as fast at the same time!"
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/38.html
:D
Za to já občas nadhodím, když někdo vychvaluje tyto bonusové technologie od NV, když toho přinášejí tolik a někdo by je chtěl mít standardem všude, ať si tedy někdo zkusí zapnout Hairworks spolu s kompletním GPU PhysX včetně APEX a k tomu Ray Tracing, pak uvidíme, kolik ty inovativní a přelomové technologie pojedou fps.
Takže fyzika na takové pokročilé úrovni se pěkně dlouho nestane běžnou součástí her vylepšující herní zážitek, tím myslím součástí herních mechanik, protože výkon vždy byl tak tragický, že si každý těch pár vizuálních drobností vypnul pro zvýšení fps.
jj, jasne. Ja nic proti Hairworks nemam. Chtel jsem tim rict, ze vsechny tyhle technologie jsou bonusove a nikdy to nebude tak, ze by byly povinnou soucasti hry. Ve vysledku si to zapne je nepatrne mnozstvi hracu, jestli vubec nekdo, ikdyz recenzenti her jsou taky hraci. Spis je teda podpora tehlech efektu marketingovou zalezitosti.
Jak pise KRoman47, proste ve vysledku, kdyby mel clovek zapnout ve hre vsechny efekty a jeste to hrat na 4K rozliseni, tak mu na to nestaci ani 4 zapojene RTX2080Ti vedle sebe.
Jestli teda nekdo jako ja, mluvi o tom, ze by tu RT efekty mohli byt do 5 let, tak jsme jeste velci optimiste. Mnohem pravdepodobnejsi je, ze bezne hracske grafiky z cenou dejme tomu do 20K Kc nebudou RT efekty zvladat driv jak za 10 let, protoze vykon se s takovou razanci proste nezlepsuje. Zabyvat se tim dnes nema zadny smysl.
No když pominu ten útočný tón tak je to pravda. Ono teda ještě RT cores dělají jen část práce a ten výpočet ray tracingu v RTX zároveň potřebuje i shadery grafiky. Takže oddělit by to v téhle podobě skutečně nešlo (a taky by se musela duplikovat paměť a tak dále, takže nakonec by to bylo o dost dražší).
RT neni standard NVidie, RT je prirozenou soucasti DirectX a NVidie ho pouze implementovala podle standardu DRX a pojmenovala to RTX. Pokud bude za 10 let stale DirectX existovat, tak se mozna dockame i her s vyuzitim RTX, za 10 let bude vykon grafik jinde.
Ale neni to jiste, ze za 10 let bude RT hromadne vyuzivan, porad je mozne, ze se diky vyssimu vykonu zlepsi i efekty rasterizace a tudiz na RT furt vykon nebude.
Je to proste ve hvezdach.
To by nedávalo smysl - xx50 karty jsou obecně rády, že nové náročné hry dávají na FullHD a cca. medium detaily při hratelných fps. Takže tam pak mají lidé vypnutých i spoustu standardních efektů včetně stínů a odrazů a lepšího AA. Tzn. v tomto segmentu je více než kde jinde tlak na co nejvyšší základní výkon při co nejnižší cenně.
Aby tam ještě dávali větší poměr RT + Tensor cores než do hi-end karet, to by asi nebyla cenově vhodná karta, pro lidi, kteří za grafiku nedají ani 5 tisíc. :D Nic ve zlém, ale to je vážně ujetá představa.
Do takových karet by RT mohl přijít až, když by ve většině vydávaných her byl velmi široce používaný a blížily se i hry, které by bez RT ani nešly hrát - ale to se bavíme vyloženě o budoucnosti, těžko říct jak vzdálené, každopádně víc jak třeba další 2 generace grafik.
Presne tak a to je myslim ten duvod, proc Nvidia mohla zkouset RT nejdrive v profi segmentu a s odladenim az v hernim (napr. RTX 30x0). Na druhe strane chapu, ze pro ne je RTX 20x0 levnejsi a lepsi pro “business”, kdyz si dela reklamu s “prvenstvim” na trhu a zaroven ji to i pekne zaplati zakaznici. Business model a PR maji rozhodne lepsi nez AMD, aplikaci technologii take. Stejne se ale ukazuje, ze RTX je v 2 rade stale lehce nedopecene, proto ty nazory o “chci radeji vykonnejsi kartu bez RT a T cores”. Treba 1080 Ti uz se ve 4k zadychava a 2080 Ti je zase draha kvuli RT, takze i ja to vidim tak, ze 4k hraci, kteri cili na ultra rozliseni ve 4k s 60+ fps bud zaplati ranec za 2080 Ti, nebo musi cekat na jine reseni at uz v nove karte, nebo bazarovkach a Nvlinku.
To bohužiaľ nemá. PhysX má v hrách úplne rovnaký prínos ako Havok či iné fyzikálne API. A hier využívajúcich PhysX je dosť veľké množstvo. Vy sa zameriavate iba na GPU PhysX, ale ten je iba malou podmonožinou toho, čo PhysX ako celok dokáže. Takže Redmarx proste klame, aj keď zrejme verí tomu čo píše. Ale predpokladám, že sa chceme baviť o faktoch a nie to tom, kto má silenjšiu vieru v niečo, o čom nič nevie.
Souhlas. Ja hlavne uplne nechapu, proc kazdy cili na 60 FPS. Krome strilecek a zvlastepak ve hrach jako Witcher 3 je to se syncem prece uplne do nejakych 30 FPS v pohode. Opravdu nechapu, proc bych mel u Witchera plakat, ze mam jen 40 FPS a ne 120. Pro me je grafika hodne podstatna, ale pokud bych mel resit, ze nejaka hra je "nehratelna" kvuli Hairworks, tak ta hra by sla rovnou z disku, kvuli nudnemu obsahu a hratelnosti.
Strilecky v multiplayeru jsou samozrejme jina pohadka, ale tam se snizuji napr. i efekty kvuli "viditelnosti" nepritele - takze nejake Hairworks by me tam absolutne nezajimalo, zvlaste pak kdyz mirim na ten pixel, co se prave pohnul, aby me nedostal driv, nez ja jeho ;)
By mě zajímalo, kolik lidí, co má RTX opravdu RT používá v reálných hrách. 0,00001% + testeři karet. Akorát to zpomaluje hru a rychlost je třeba v BF V celkem důležitá. Takže ano, kdo chce být stále mrtvý a je tím pádem masochista, pak používá RT zapnuté.
Takže suma sumárum... ano RT jednotky jsou zatím zbytečné - a chápu, že se to Nvidiotům typu Maudit nelíbí, protože Nvidia přece RULEZ!!!
"ze se diky vyssimu vykonu zlepsi i efekty rasterizace a tudiz na RT furt vykon nebude"
Problém je, že čo sa dá technicky (aj keď s vysokými nárokmi na výkon) dosiahnuť v RT celkom bez problémov, to sa cez rasterizáciu musí fake-ovať a pridáva to veľa práce navyše. A zároveň sa to tiež stáva náročnejšie na výkon. Prirodzená cesta s narastajúcim výkonom je práve prechod k RT. To je niečo, čo stále nechcete z nejakého dôvodu niektorí vidieť. Tie tvoje odhady najskôr 5 rokov a teraz zasa 10 rokov sú len také výkriky do tmy. Nikto vôbec nečakal, že by sa mohol RT objaviť v herných grafikách už teraz a je to tu. To čo na jar zvládli 4 Volty, teraz dokáže jedna GPU. Pre niektorých je to ale očividne málo. Je to od NV, tak je to automaticky zle. Je to vidieť aj na tom, že aj keď sa výkon v RT zdvihol a RTX 2080 Ti teraz zvláda v BF V ultra RT na 2K s 60 a viac FPS, tak vám to stále nestačí aj keď je to oveľa lepšie ako vami posmešne proklamovaných 60 FPS vo FHD. Už vtedy 2080 Ti dávala 40-50 FPS v 2K, ale odmietal si to ty aj iní vidieť. Stále ste kecali o tom, že je 2080 Ti na FHD. Aj keby to bolo 60 FPS v 4K, našli by ste si na kritiku niečo iné.
Tvoje neschopnost pochopit psanej text je az zarazejici (jeste horsi, nez u prumernyho AMD fanouska. PhysX je soucasti GameWorks. GameWorks je ve vsech velkych enginech. Je dost pravdepodobne, ze ve vetsi ci mensi mire bude PhysX vyuzity u vetsiny z her, postavenych na tech enginech.
A fakt neverim, ze by si mel GTX1080. Na to ses moc AMD ultras. Myslim, ze od leta ti neveri nikdo (ani ostatni AMD fans, i kdyz sem urcite napisou, ze jo). 100% mas Vegu, jeste s podpisem Koduriho, ted uz vyskrabanym a prelepenym fotkou Lisy Su ????
CPU PhysX je vo veľa súčasných hrách. Písal som to už aj predtým, ale ty máš svoju vieru, ktorej sa držíš a je úplne jedno kto ti čo napíše. Budeš stále mlieť svoje blbosti. GPU PhysX zasa bude v Metre Exodus. To je asi jediné čo ťa môže s GTX 1080 zaujímať, pretože ten iba ten bude akcelerovaný grafickou kartou. Ak sa v KCD používa PhysX, tak len CPU a tam je jedno akú grafuckú kartu máš. Dokážeš chápať aspoň túto základnú vec?
A proc by mel byt nekdo "AMD fans" jenom proto, ze se mu nepozdava RT?
Neberte to osobne J. Olsane, ale tohle je logika idiotu typu Maudita na na mentalni urovni prvniho stupne zaklani skoly. Potazo..lidi kteri jsou dusevne nenormalni.
Mne se na AMD taky nelibi urcite veci, proto jsem fanousek NV nebo Intelu? :)
Potazmo, protoze kritizuji veci, ktere se mi na Intelu a NV nelibi, tak jsem fanousek AMD?
RTX je uplne "dopecene" (jezis to je vyraz). Schopnost vyvojaru to pouzivat, to je to nedopecene :)
Diky tomu je ted prave ten nejlepsi cas investovat do RTX technologie, protoze v hardwaru je vykonu dost a realny vykon bude nejaky cas de facto zadarmo stoupat, jak budou vyvojari vylepsovat svoje implementace.
Snahy vas AMD ultras navodit ideu toho, ze by ten hardware nemel dost vykonu, selhaly v momente, kdy uz prvni patch BF5 zvedl vykon o 50%. A dalsi prijdou :D
Take si myslim, ze RT je budoucnost, protoze pridavat efekty pomoci rasterizace nepujde donekonecna. A rozhodne bych nebyl tak samozrejmy v tvrzenich, ze tyto technologie se neujmou, nebo to bude trvat 10 let.
Stejne tak DLSS a podobne technologie muzou vyrazne pomoci mensim financne oriantovanym produktum, jako jsou konzole, kde je hlavni parametr cena, ale zaroven je treba nezaostavat za PC.
Ale jak uz jsem tu parkrat zminoval, kamen urazu je cena RTX, ktera prijde velke skupine lidi jako premrstena. Ciste teoreticky, kdyby Nvidia vydala RTX radu za cenu stavajicich GTX, tak by proti RTX mohl argumentovat jen opravdu hloupy a fanaticky clovek. Protoze ale cena RTX je vyrazne vyssi, tak se vedou spory o to, zda-li je ta pridana hodnota v RTX vuci cene ospravedlnitelna. Pro spoustu lidi neni, proi jine je.
Tyjo tady je dneska snad celej ansambl z DDWorldu :D Kluci vy z toho raytracingu fakt snad nespite :D
Jasny, chapu, ze se skupinove snazite o damage control (zvlast fake ucty Stacha a Belky - treba Redmarx - jsou ted hodne aktivni), ale ono to pak vypada spis jako nareky. AMD proste ty technologie nema a jeste dlouho mit ani nebude, vzhledem kolik z jejich grafickyho oddeleni utika ted lidi. Ale treba bude AMD spokojeny i v lowendu, ne? Nebudte hned takovi pesimisti :)
"Proto jsem netvrdil, že to nikdo nemá zapnutý – někdo se prostě rád kochá… a umírá"
No jo. V pohode súhlasím s tým, že kto hráva mulťák tak si takéto fíčury zapínať nebude. :-) To ale neplatí iba o RTX, ale všeobecne. Vypínajú sa vtedy kvôli FPS viaceré nastavenia. Nikdy som ale doteraz nepočul, že by niekomu vadili, že tam také možnosti vôbec sú. Aspoň to tak bolo doteraz.
Maudit: Hezký, já o koze a Maudit o voze. Ani jedna myšlenka, která by vyvrátila moje tvrzení. Jsem rád, že si mi potvrdil, že mám pravdu. Díky moc :)
BTW na DDworld jsem chodíval tak před 3-4 lety, teď tak jednou dvakrát za rok, takže sorry Maudite, opět smůla. Fakt mě mrzí, že si u toho trubka a ani nedokážeš argumentovat. Co už :D
Marek: ne, každej kdo má RTX kartu si RT určitě vyzkoušel, to by byl blázen kdyby ne, ale pak stejně zjistí, že FPS nejsou tak dobrý, jak chtěli, a buď půjde dolů s detaily a nebo vypne RT, aby jim FPS zase vyhouply nahoru - toť vše, co jsem chtěl říct. Prostě každý podle svého rozlišení, typu karty atd.
Proto jsem netvrdil, že to nikdo nemá zapnutý - někdo se prostě rád kochá... a umírá
"PhysX je soucasti GameWorks. GameWorks je ve vsech velkych enginech. Je dost pravdepodobne, ze ve vetsi ci mensi mire bude PhysX vyuzity u vetsiny z her, postavenych na tech enginech." .. aha :D to by jsi tu mohl taky udat nejaky zdroj a ne jen svoji fantazii..
Budulinku, to ze je nejaky framework nebo engine obecne podporuje nejakou featurku (jako napr sadu toolu Gameworks) jeste neznamena, ze je v konkretni hre, ktera dany herni engine pouziva, budes vyuzivat.
Mozna by jsi mel druhe mene nalepkovat a radeji se podivat na sebe do zrcadla...
abych tady nefantazmagoroval jao ty, tak tady je zdroj, ktery potvrzuje co jsem napsal vyse mauditku...
"NVIDIA's PhysX is a scalable multi-platform game physics solution, that has been used in many of today's popular games. In addition to the native physics engine of CRYENGINE (CryPhysics), this feature allow CRYENGINE users to use the Nvidia's third party physics engine (PhysX) as an external physics engine within the CRYENGINE."
https://docs.cryengine.com/display/CEMANUAL/NVIDIA+PhysX
Tudiz tvoje tvrzeni o tom, ze kdyz je neco soucasti neceho, ze to bude i "vyuzito" je usmevne, potazmo lzive.
Podle stranek NV zase PhysX tak moc rozsireny neni...
https://www.geforce.com/hardware/technology/physx/games
Nevim, jetli je ten seznam udrzovany, ale napocital jsem 41 her, z toho je docela dost i nekolik dilu jednoho franchise jako je napr. Batman saga, nebo Metro saga.
Ja proti PhysX nic nemam (teda vyjma kecu, ktere tady pousti demagog Maudit), ale vzhledem k celkovemu poctu hernich titulu, asi budou jineh phys. enginy minimalne stejne uspesne nebo i uspesnejsi.
.. a protoze neumis anglicky, tak ti tu prelozim jedno dulezite slovni spojeni "In addition to the native physics engine"..coz znamena neco jako "Dodatecne (volitelne) k nativnimu fyzikalnimu enginu"..
A kdyz jsi tady budulinku uz zminil ten Cryengine, tak tech her, ktere vyuzivaji jeho nativni fyzikalni engine bude mozna i vic, nez her ktere vyuzivaji PhysX dohromady...
@tombomino: V Cryengine je iba ako third party rozšírenie. PhysX je ale natívnou súčasťou Unreal Engine aj Unity.
https://docs.unrealengine.com/en-us/Engine/Physics
"Unreal Engine 4 uses the PhysX 3.3 physics engine to drive its physical simulation calculations and perform all collision calculations. PhysX provides the ability to perform accurate collision detection as well as simulate physical interactions between objects within the world. Having physics in your game will help improve the immersion value of every scene, as it helps players believe that they are interacting with the scene and that the scene is responding back in some way or another."
https://blogs.unity3d.com/2018/11/12/physics-changes-in-unity-2018-3-beta/
"PhysX 3.4 represents several years of progress in the area of computational physics. We used to wait for a year or so to let the new version of PhysX mature, before shipping it in Unity. This time around we’re shipping the latest one, after having put as much effort into testing as possible."
Hry postavené na týchto engine-och využívajú PhysX ako fyzikálne API a je ich hodne. A to sa týka nielen hier pre PC ale aj na konzole.
Na stránkach NV sú uvedené iba hry, ktoré využívajú GPU PhysX. Havok ako CPU riešenie by som porovnával iba s CPU PhysX (keďže hier akcelerujúcich Havok cez GPU je 0 a tam by potom toto pomyslené skóre bolo 41:0 pre PhysX :-)). Hier, ktoré využívajú CPU PhysX bude obdobne ako tých s Havokom. A ako som napísal vyššie, skoro všetky hry postavené na Unreal Engine či Unity používajú PhysX, pretože ten je natívnou (nie iba doplnkovou) súčasťou týchto herných engine-ov.
Môžeš si napríklad pozrieť dosť veľký zoznam PhysX hier na
http://physxinfo.com/
Ten je ale tiež aktuálny iba k januáru 2017. Implicitne je na tej stránke zobrazený opäť zoznam GPU PhysX hier, ale vieš si to v hlavičke tabuľkky prepnúť na zoznam tých, ktoré používajú CPU PhysX. A už vtedy ich bolo dosť.
@tombomino:
Prečítaj si ešte raz túto stránku, o ktorej sme už raz bavili:
http://www.codercorner.com/blog/?m=201808
"When your character does not fall through the ground in Fortnite, it’s PhysX. When you shoot a bullet in PayDay 2, it’s PhysX. Ragdolls? Vehicles? AI? PhysX does all that in a lot of games. It is used everywhere and it is not going away."
Keď si pozrieš ten zoznam hier u NV, je tam uvedený Payday 2 či Fortnite? A vidím inak, že NV v tom zozname má aj niektoré veľké hry ako Witcher 3, ktoré GPU PhysX nevyužívajú. Takže je to zrejme taký mix a idú podľa mňa sami proti sebe, že ten zoznam neudržiavajú ako tak aktuálny.
@tombomino: JJ. Presne. NV marketingovo tlačila iba GPU PhysX a prezentovali to iba ako PhysX. Tak si veľa ludí doteraz myslí, že PhysX hry sú iba tie, ktoré boli súčasťou tohto marketingu. PhysX je ale plnohodnotné fyzikálne API, ktoré sa naozaj používa vo veľkom. Len to už teraz tak nie je vidieť.
Ono je to s tou fyzikou v hrách celkom zložité a nie úplne tak ako si niektorí ludia predstavujú. A teraz nemyslím implementačne, pretože do toho nevidím. Hovorím o presadení lepšej fyziky do hier. Doteraz čítam názory o tom, ako NVIDIA pochovala možnosť dobrej fyziky v hrách pretože obmedzila PhysX iba na jej GPU. Keď si ale zoberieš aký to bol veľký skok oproti tomu, keď na to bolo treba samostatný akcelerátor od AGEIA, tak sa možnosti GPU akcelerovanej fyziky dostali k oveľa väčšej komunite hráčov. A aj tak musela NV dotovať nasadenie PhysXu v hrách. Zabúda sa ešte aj na to, že vývojári mali možnosť používať aj GPU akcelerovanú open source fyziku v podobe Bulletu, ktorá bola implementovaná v OpenCL. A nikto po tom neskočil. NVIDIA tiež časom niektoré časti GPU PhysXu označila za "deprecated" a nanovo ich prepracovala v rámci nového API, ktoré nazvala Flex. To je samostatné API, ktoré je postavené mimo PhysX a jeho výhodou je to, že je efektívnejšie ako predchádzajúce riešenie a aj to, že okrem akcelerácie cez CUDA podporuje aj akceleráciu cez DirectCompute a teda je možné ho akcelerovať aj na AMD grafikách. NVIDIA samozrejme tlačí do hier hlavne verziu s CUDA implementáciou, ale vývojári majú opäť na výber aj DC časť a opäť to nikto samovoľne nevyužíva. Zasa sa Flex objavuje iba tam, kde to NV podporí. Mne to príde tak, že samotní vývojáriu nemajú z komerčného hladiska záujem o pokročilú fyziku v hrách a že problém je hlavne v tomto. Pretože možnosti za posledných 10 rokov mali a zatiaľ ich nevyužili.
XOX je myslím až o 30% výkonnejší než PS4 Pro. To sa musí nejak prejaviť. Som zvedavý kam laťku posunie PS5.
Inak PS4 Pro nie je úplne slabý po HW stránke. Má 8 jadro, 8GB rýchlej zdieľanej pamäte a jej GPU časť má myslím okolo 2300 stream procesorov. Výhodou konzolí je ale to, že sa na nich hry programujú na železo. Tam sa používa niečo ako low level API zrejme od počiatku. Čo je ale logické. Keď máš zariadnie, ktorého HW je jednotný, tak to môžeš takto využiť. Takže sa z toho HW dokáže vytiahnuť viac ako na obdobnom HW na PC.
Inak Red Dead Redemption 2 a Kingdom Come si časom kúpim určite tiež. Ale musím dohrať to, čo mám teraz a to je ešte na dlho. :-) Niekedy sa ale kochám nad tým, čo dokázali vytiahnuť v Horizon Zero Down. Je sice vidieť, že na 4K na PC to nemá. Ale je to viac ako obstojné vzhľadom na cenu.
Ja som si teraz na 10E kúpil Until Down a v zbierke mám kompletnú sériu Uncharted a tiež kompletné edície Tom Raider hier z poslednej série. Okrem posledne vydanej. Tú kúpim až keď bude tiež kompletná. A inak ak si nehral ešte Last of Us, tak to silne odporúčam. Parádna príbehová hra ktorá sa aj výborne hrá.
LOL tombomino, tombomino .. spocitej hry s podporou GameWorks. PhysX uz se davno neuvadi jako samostatna komponenta. A treba KC:D vyuziva GameWorks, dokonce na nej cekali, az bude implementovany:
"Support for Nvidia Gameworks is in the pipeline. We work closely with the team from Crytek, so we what CryEngine is capable of. As soon the Gameworks are implemented, we will have them too. Our programmers have already taken a look at it and we are looking forward to use that."
https://gamingbolt.com/kingdom-come-deliverance-tech-interview-ps4xbox-one-optimization-gameworks-and-more
Blby co? Realne se GameWorks pouziva v tech nejvetsich enginech, ale AMD denial masina jede na plny obratky a pro ne je to "neuspesna technologie" :D :D :D :D
Nekdy si rikam, ze tohle vase ohybani reality nedelate ani tak kvuli "tem ostatnim", ale spis kvuli sobe, aby se vam nerozpad vas hodnotovej system tak uzce postavenej na "AMD is the best" :D Mozna by sme do vas nemeli jit tak tvrde, aby ste si jeste neublizili :D
Jasne, je to plne dopecene a na trhu mame 21 her s plnou podporou RT a DLSS. ;)
Jasne, ted je cas investovat do RTX karet, protoze jsou novinka na trhu a nemaji konkurenci a cena je vysponovana - takze ted je ten pravy cas? :D
Maudite, kupte si 4 2080 Ti, Kozenak bude spokojeny a vy budete moct vyrvavat na webech o AMD ultras ;)
Maudit: Dobre, tak rekneme, ciste teoreticky, ze mame cip, ktery zvlada FullHD pri 60 FPS na high, ale neobsahuje RT cores. Nebo muzeme mit cip o stejne velikosti, ktery zvlada FullHD pri 60 FPS jen na medium, ale ma i RT cores -> takze co mame udelat, abychom dostali high detaily? Zapnout ve hre RT?
Pri prepokladanem oklesteni a nizsi cene pripadneho "2050" cipu mi RT cores smysl nedavaji (prikon a vyzarene teplo, zakladni vykon cipu, velikost a propustnost pameti).
Maudit 24.12.2018 at 15:53
Dobre zase bez o odpovedi, jak je u vas zvykem, zato urazky.
Tak ja to zkusim vysvetlit jeste jednou ciste pro Maudita - rec byla o RT cores v 2050 (jestli nejaka bude). Vy jste tvrdil, ze tam RT cores davaji smysl, ostatni tu tvrdili, ze prave tam to smysl nedava.
Muzete teda vysvetlit, proc si myslite, ze v nasledniku karty GTX 1050, ktera dnes dava FullHD na medium detaily pri cca 60 FPS by mel obsahovat RT cores, kdyz se da vzhledem k Nvidia portfoliu ocekavat, ze bude vykonem pod RTX 2060? Tedy, jestli nejaka ?TX 2050 vubec bude.
Prosim o nejaka fakta a ne blabol typu "uz brzy ma vyjit Metro Exodus a to teprve uvidite". Diky.
Vsechno je samozrejme uz v predchozich postech, ale dobre, pro ty pomalejsi ..
Kdyz budeme uvazovat dost konzervativni posun o 30% procent ciste v rasterizaci, tak 2050/2050ti by mely byt schopne zvladat fullhd v pohode. Pak staci pridat nejaka RT cores a je to v klidu. Jen ta RT cores budou mozna muset byt v jinem pomeru, nez u predchozich karet, protoze tam uz by to mohl byt bottleneck. Ale treba se pletu. Dalsi moznost je jak tvrdi Jan Olsan segmentace trhu, neboli pokud RTX 2050/2050ti nebudou, bude to spis s obchodnich duvodu, nez z technickych.
Maudite
Alich se Ti tu byť marně snaží vysvětlit, že zapnutí RT sráží celkový výkon... Už na 2060RTX jsem zvědavý jak to bude zvládat... 2050 by měla ještě méně RT výpočetních jednotek... Čili i kdyby to mělo výkon 1060/580, tak po zapnutí RT by to bylo použitelné tak na 720p... Leda, že by to mnělo více RT jednotek... což nebude...
KOCHREN 24.12.2018 at 18:54
Tak nejak, dekuji.
Samozrejme nevime, co v tom cipu bude, ci nebude a jestli vubec bude. Mne, pri stavajicim vykonu 1050 (a Ti) to moc smysl nedava, ale nevim vsechno, proto se tu ptam lidi, kteri maji dost jasno - jako napr. pan Maudit. Misto toho jsem dostal neurcite odpovedi jako "mel by" a "v pohode" a jeste "pro ty pomalejsi" ;)
Takze to vidim tak, ze Maudit vi stejne prd jako ja, jen ma mnohem vice jasno v tom, co urcite bude a jeste nevaha neurvale komunikovat.
Maudit, uz na vas nehodlam reagovat, protoze ty neustale demagogie, lzi, nesmysly a urazky, co tu sirite jsou hodne smutne a nevedou nikam. Diskuze s vami je proste o ...... Hezke Vanoce.
Hele mauditi trubko.. za prve, ty jsi tvrdil neco o tom, ze se PhysX pouziva v CryEngine. Pravda je takova, ze je to volitelna komponenta. Tudis tvoje tvrzeni je lez, jako ostatne vetsina tvojich prispevku.
PhysX je soucasti Gameworks, nicmene to nic nezmanema, Opet lzes, protoze z Gameworks muzes pouzit lidne jen jednu technoligii, ostatni pouzivat nemusis., stejne jako nemusis pozuivat PhysX.
V jedne veci jsem se spletl, myslel, jsem ze PhysX je pouzivana jako graficka fyzkika. Pravda je opacna, ze je pouzivana hlavne jako CPU fyzika a tam je rozsirena.
Takze byt tebou vezmu si zase prasky a vratim se zpatky do Bohnic, nez te zacnou hledat..
A