Ideál je mít na práci 4K monitor a na něm hrát hry ve fullhd. Jeden herní pixel bude nativně tvořen čtyřmi skutečnými pixely panelu, takže žádná mazanina. Hraní ve 4K není pro někoho, kdo počítá každou pětitisícovku a zalekne se karty se spotřebou 300 W. Mně se to nelíbí a doufal jsem, že herní 4K se rozšíří rychleji, ale musím respektovat realitu a hlavně svoji averzi vůči příliš žravým herním PC. FullHD se stalo novým lowendem (menší rozlišení nemá smysl kupovat) a zároveň i mainstreamem (ta část co chce vysoké fps) a jako takového se ho opravdu hodně dlouho nezbavíme.
jinak ke článku, pokud je to pravda tak si AMD hodně věří v efektivitu svých pidičipletů že zaválí stejně jako u CPU. Ale NV není Intel a ti se dle nadhazovaných šílených příkonů hodně dobře jistí.
Ještě se nabízí teorie že jim jde o maximální efektivitu bez ohledu jestli budou mít TOP grafiku. Pak by i přes nižší "ženské" ambice vydělávali nakonec víc díky lepší marži na levných čipletech.
"4K monitor a na něm hrát hry ve fullhd. Jeden herní pixel bude nativně tvořen čtyřmi skutečnými pixely panelu"
POZOR!!!
Mam monitor od iiyama se 4K a ve fullHD je to rozmazane.
Proc?
Protoze debilni monitor misto aby to udelal presne tak jak pises, teda 1px (4K) = 4px do ctverce (1080p), tak elektronika monitoru provadi vlastni interpolaci, obraz "vylepsuje" a neda se to vypnout.
Takze ano 4K kvalitni monitor je idealni, ale jaky, protoze co vim, tak nejen iiyama, ale i Dell a AOC maji tuto "vylepsovaci" interpolaci.
Pokud s tim ma nekdo zkusenosti a dal by mi vedet monitory, ktere to nedelaji, tak budu rad.
Po doporučovaném rozmýšlení bych řekl asi tohle. No vydržíme alespoň déle než jinde. To v zemích kde dají přednost nenažraným konkurenčním grafickým kartám tak by sice měli díky příkonu přežít ale zapomínáte, že po zapnutí těchto karet si vyhodí jističe protože na to nemají dimenzované přívody. Takže vlastně umrznou mnohem dříve než u nás v Čechách. Kontaktujte proto svého dodavatele energií a pořiďte si silnější jistič.
Ano Nvidia není Intel ale stejně jako Intel jdou cestou pálení elektriky a stejně tak oba nemohou naplno využít chiplety které ještě nezvládli. V případě "mužských" ambicí Intelu i Nvidie stojí ty, jak píšete "ženské" které už jednou porazili Intel. Stejně jak se negativně v hospodaření projevuje konec chipového sucha u Intelu to samé se děje i u Nnvide. A to je další důvod proč asi nemáte pravdu. Fakta prostě říkají, že spíše vyhraje opět AMD.
A to podotýkám, že bych rozhodně neměl radost kdyby Nvidia vyhořela stejně jako Intel.