Odpověď na názor

Odpovídáte na názor k článku O kolik je Turing lepší než Pascal? Nvidia vydala první benchmarky GeForce RTX 2080. Názory mohou přidávat pouze registrovaní uživatelé.

  • Tento text je již více než dva měsíce starý. Chcete-li na něj reagovat v diskusi, pravděpodobně vám již nikdo neodpoví.
  • 23. 8. 2018 19:58

    Maudit (neregistrovaný)

    Tak konecne jsi to pochopil. Trvalo to jen dva dny LOL

    I kdyz sem ti to teda musel polopaticky vysvetlit nahore:
    "Funguje to tak, ze oni renderuji v jejich datacentru statisice obrazku treba v 8k, 16k (nebo jakemkoliv vetsim rozliseni, Huang tomu v keynote rika super-resolution) a ta neuralni sit se uci nahradit nutnost renderovat obraz ve vetsim rozliseni svoji vlastni logikou, z kontextu obrazku."

    Ale je to tam. Tak a ted mi schvalne rekni - kdyz pouziju superresolution obrazek jako ground thruth, treba 4k obrazek, jak rika Huang, co bude vychozi obrazek, treba v tech 1440p? To bude lower resolution image. A co se uci ta neuronova sit? Zrekonstruovat tu ground truth, ten 4k obrazek.

    Uci se doplnit chybejici data. A co s tim pak muzes udelat? Zvetsit rozliseni (ale bez AA), nebo ponechat stejne rozliseni a pouzit ty extra samply na super-sampling. Proto se tomu rika Deep Learning Super-sampling. Opet popsano uz nahore :) Ocividne to spousta lidi pochopila, protoze to vysvetleni ted ctu uz I na jinych webech a forech. Jen AMD fans jak ty s tim maji problem. Jako jasne, AMD fans maji obecne nizsi rozlisovaci schopnosti, proto jsou schopni koupit jejich grafiky a CPU. Ale I to uz prestava vysvetlovat ten level tuposti ted :) Bud se prekonavate (ve spatnem slova smyslu) nebo to proste delate na schval - mozna I nevedomky v ramci pudu mentalni sebezachovy. At uz je to jak chce, je sranda to sledovat.