To, že má Intel výkonnejšie desktopové procesory je každému jasné, napríklad v hrách to pekne prezentuje počin
užívateľa pctuning, ktorý testoval hromadu herných titulov na novom Ryzene a štyri roky starým Intel 6700K, víťazom sa stal staručký Intel. V iných desktopových aplikáciách to je podobne.
Najnovšie v AMD konečne docvaklo, že treba myslieť aj na dlhodobú spoľahlivosť procesorov, tak znižujú povolenú hranicu teploty do 74st., po dosiahnutí padá boost o 200MHz, čiže aj výkon, ale hlavne Vcore.
Benchmarky jsou pravdivé výhradně na procesorech technologie 14nm až 14+++++++++++nm. Vše ostatní je prostě jen lež. :-)
Navíc výkon procesorů závisí také na tom, jak má kdo rád kterou značku. To je na tom to nejlepší - že si můžeme vybrat pět testů ze sta a tvrdit, že je Intel výkonnější. Až o 3%...
Ať si tvrdí co chtějí. Kdo rozumný by z takových informací vycházel při výběru CPU?!
Ale když jsem si vloni vyzkoušel Ryzen 2xxx, musím jim dát v mnohém za pravdu. Oproti přetaktovanému Haswellu, který jsem měl do té doby, jsem v aplikacích které používám nepoznal žádný zásadní rozdíl. Zpracování videa/fotografií minimální posun. V některých věcech byl Ryzen ještě pomalejší díky slabému jednovláknovému výkonu: šlo např. o rotoscope či warp stabilizaci videa v After Effects, tam byl Ryzen doslova mrtvej. (kdo nevěří, ať si vyzkouší). Když jsem pustil Cinebench, výsledky se dostavily, ale v jiných aplikacích, v reálných scénářích moc ne. Ač by měl být Ryzen 2xxx papírově 2x svalnatější než Haswell, v reálných situacích to tak nebylo. :( Pro mě to bylo velké zklamání a Ryzen šel zpět k prodejci. (ještě, že máme možnost 14ti denní "zkušební doby")
Takže za mě: výhody nízkých latencí jsou pro Intel velké plus stejně jako vysoké frekvence, na kterých se jejich CPU do teď daly provozovat. Přínos je znát všude. Intely také velmi dobře škálují a dokáží při nízké zátěži šetřit. (nízká spotřeba)
Procesory s výkonem získaným hlavně vyšším počtem jader se vytěžují v dnešní době stále hůř.
Každopádně by se měl Intel probudit a inovovat, chrní už dost dlouho. Místo letáků chrlit nová CPU.
Jan O. - ďakujem za objasnenie ohľadom KS-ka, už som sa zľakol, že som čosi prehliadol.
- Comet Lake vypadajú zaujímavo, hlavne frekvenčne, ale asi zoberem i9-9900KS, už sa mi moc nechce čakať.
- video - pre mňa nemá zmysel kódovať video procesorom, trvá to večnosť. Napríklad originál stopa z GH5 4K/60p, 150Mb/s 4:2:0 v kodeku H.264 pretaktované 6-jadro exportuje 10 až 25 násobok času do kodeku H.265.
nVidia má RTX 2080Ti s veľmi kvalitnou akceleráciou HEVC a keď sa krmi vysokotaktovaným procesorom čas renderu vychádza na neskutočný real time. Zaujímavý je čas aj pri vstupnom H.265 a stejnom výstupnom formáte, len 1,3x vo vysokej kvalite.
" Má takhle například ten enkodér Nvidie psychovizuální RDO, btw? To je asi nejdůležitější fíčura, které dnes, nebo lépe řečeno v téhle dekádě v enkódování videa existuje. (Má vůbec RDO?) "
Neviem odpoveď, každopádne to skusim vyhľadať v docu nVidie. Mne ide o vlastne o ten vizuálny vnem, to čo zobrazuje panel. Rozdiel CPU vs. GPU pri solídnom bitrate nevidím. Pokial extrahujem snímok z originálu Fuji X-T3 a porovnám s výstupom CPU vs. GPU výrez 1:1 je to OK.
A je to tady, v AMD dostali strach z degradácie Ryzenov a znižujú výkon za účelom spoľahlivosti :
citujem z pc-hardware :
" AMD v nových verzích mikrokódů AGESA změnilo chování turba v procesorech Ryzen 3000 tak, aby bylo méně agresivní, a to za účelem zajištění dlouhodobé spolehlivosti procesorů. AMD tak mělo asi obavy, aby nové Ryzeny nebyly až moc přetěžovány a nezačaly snad ve velkých počtech selhávat. "
"V iných desktopových aplikacích" je dost široký pojem...
Ale napadlo mě se podívat na srovnání https://www.anandtech.com/bench/product/2260?vs=2520 (s 3700X, který stojí stejně jako kdysi 6700K). V neherních testech jsem našel jediněj, kterej byl rychlejší na i7-6700K (3DPMv1 1T v legacy testech, to je jinak výtvor Iana Cutresse, ne normální aplikace, i když to je asi jedno, je to holt nějakej výstup z kompilátoru, kterej se může stát každýmu).
Ale ani v těch testech her na tom není ten Ryzen vůbec špatně, spíš naopak.
VLadar, nez zacnes fabulovat, proc se nepodivas na nejake testy .. co treba tady PCMark10
https://www.tomshardware.com/reviews/ryzen-9-3900x-7-3700x-review,6214-11.html
- 2 ze 3 webovych testu je Ryzen 3900x a dokonce i 3700x rychlejsi nez 9900k (ne ze by na tom nejak zalezelo, ale prece)
- 2 z 5 u MS Office je Ryzen rychlejsi nez 9900k, zase, ne ze by na tom v praxi zalezelo
- v produktivite, 9900k je rychlejsi, rozdily jsou ale vetsinou tak male, ze se v praxi ani neprojevi.
Mne by zajimalo, cim je teda ten Intel rychlejsi..
Nevim, co cekas.. 9900KS bude nejspis stejny, jen lepe binovany chip nez 9900k. Stejna architektura, tim padem stejny radic, mozna jen jina revize. Se podivej co dava 9900K na 5Ghz a vis vsechno, co potrebujes vedet o 9900KS. Se podivej co dava vyberovy 9900K na 5,2Ghz a vis nejspis, kde lezi strop vykonu pro 9900KS.
Jo tak to potom víc jader není třeba, i když IMHO kvalitativně ty GPU software nikdy nedoběhnou.
Ale asi obecně jenom na hry pak bude 9900KS dost overkill. O trošku vyšší výkon v těch hrách bude, ale většině lidí by ty procenta za tu cenu navíc asi nestály proti 9900K, případně asi často i i7-9700K.
Zatím to vychází z vyjádření jednoho OC člobrdi z ASUS. Na kolik je to oficiální a pravdivé se zanedlouho určitě ukáže. Zatím mají různé desky různý strop u stejného CPU. Jako sranda je, že pokud si nastavím ručně voltáž, tak už to neposkakuje k ani přes 1,4 Přesto to jede all core 4,2 (bavíme se o R5 3600) Nastavené napětí mám na 1,35. Pokud to je pravda tak to určitě není v pořádku. Zas na druhou stranu spoustu PC už šlo ven s BIOSem kde tato možná úprava není. A ne každý si mění BIOSy. Když to jede tak na to nesahá. To by v tom případě mělo docházet k hromadnému umírání CPU. No uvidíme. Mi to zatím bez potíží jede. (R7 3700 ,R5 3600@4,2-AC, i R7 1700@4-AC, R5 1600@3,9-AC)
Myslíš to tak, že nyní mají Ryzeny 3xxx ještě horší latence jak předchůdce a 3600 či 3700 řada poloviční zápis do RAM než měl předchůdce?
Protože mít RAM write 25GB/s je vážně pokrok :-) :-)
https://www.guru3d.com/articles_pages/amd_ryzen_5_3600_review,21.html
Na nové Ryzeny dojde, už sem si nechal poslat od NOCTUA redukci na chladič (AM4), vyzkouším si vše, ale až budou konečně funkční BIOSy a nebudu muset řešit žádné potíže. Dnes je na ně zbytečně brzy.
@Jan Olšan, GPU akceleráciu už podporujú profi strihové programy ako Premiere, DaVinci, EDIUS. Kvalita je už na takej úrovni, že nemáš šancu to rozoznať na veľkej 4k telke. Najlepšia je osobná skúsenosť, skús, uvidíš. Samozrejme hovorím o kvalitnom zdroji a dátovom toku 40Mbit/s v prípade HEVC 4K/60p.
Tentokrát už AMD bude musieť vydať oficiálne vyhlásenie a ísť s pravdou von, zmenili špecifikácie výrobku, prestáva sranda. Ty si na tom s R 3600 ešte v pohode, no čím vyšší/drahší model procesora, tým bude problém vážnejší. A to stále neni na trhu 16-jadro s proklamovaným boostom 4.7GHz, tú frekvenciu neuvidí ani kúzelník. Od začiatku bol nezmyselný hazard dopovať nový Ryzen tak vysokým Vcore, už im to docvakáva.
Nechci ti brat iluze ,ale i9 9900K na 5GHz se velmi spatne , opravdu velmi spatne chladi . Coz znamena investovat do poradneho vodnika . Na nejake AIO muzes zapomenou a skrtnout si ho z hlavy. Protoze v intenzivni zatezi ani ne 2 hodiny to AIO prestava stihat... O poznani lepsi je i7 9700K to s AIO jde uchladit i na 5,127Ghz dlouhodobe . Ale i ten vodnik neni zcela levna zalezitost.
"Herné testy 6700K som uviedol ako príklad"
No ale moc podle mě nesedělo, ten AnandTech bench to ukazuje spíš naopak... Core i7-6700K oficiálně podporuje jenom DDR4 2400, takže ta je tam použitá (pro Ryzen oficiální DDR4-3200) a trochu ho brzdí (ve hrách). Ale ten Skylake tam má někde tak velké propady, které se jen tím vysvětlit nedají. A o těch aplikacích, kde je to podle vás stejné už vůbec, ty DDR4 prakticky nezmění. Takže ten post byl dost vedle.
..a co teprve benchmarky, kde se jede na "TDP" procesoru ;)
http://www.comptoir-hardware.com/articles/cpu-mobo-ram/39273-test-amd-zen-2-x570-a-ryzen-7-3700x-ryzen-9-3900x.html?start=9
Nevim proc resis "latenci". Kazdy trochu rozumny clovek, co o vykon CPU nejak zajima, preci resi vykon v SW, ktery pouziva. At to josu hry (kde se latence projevi) nebo programy, ktere vyuziva.
Myslim si, ze latence ti muze byt uplne jedno, pokud ti v SW podava vykon, ktery potrebujes.
Dneska existuje tuna benchmarku a review po Netu, ktere ti ukazuji, jaky vykon muzes v SW/hrach cekat. Podle toho co te zajima.
Pokud o tom nevis Hnizdile, tak vetsina firem vydava jednak updaty a jednak vydavaji nove verze programu. Nikde neni napsano, ze kdyz testujes verzi z roku 2018, tak verze z roku 2019 nebo updatovana verze z roku 2018 nemuze prinest nejake vykonostni posuny u nekterych cinnosti. Tohle je celkem bezna zalezitost, dost prekvapujici, ze se na ni vubec ptas.
Samozřejmě se od té doby v A/V programech nic nezměnilo. Warp jede stále na jedno vlákno a mnoho dalších částí programů využije sotva 4 jádra.
Ono to není kolikrát ani dost snadné i pro vývojáře, protože jakmile začnou využívat GPU, je díky rozdílnosti ve výkonu grafických karet těžké vytížit jak CPU tak GPU a docílit toho, aby jedno na druhé "nečekalo".
"Herné testy 6700K som uviedol ako príklad, ďalej by sme mali zrovnávať aktuálne procesory."
Jenže v prvním příspěvku tvrdíte, že "V iných desktopových aplikáciách to je podobne."
Jak vám odkazem ukázal autor článku, NENÍ TO PODOBNÉ, ve všech aplikačních testech dostává 6700K na zadek, ale vy jste se ani neobtěžoval se na ten odkaz podívat a rovnou šup reakci.
Vtipné je, že to ani ve hrách neplatí. Buď jsou výsledky +- stejné resp. v rámci chyby měření, nebo 6700K dostává na zadek, a to velkým rozdílem.
"Kvalita je už na takej úrovni, že nemáš šancu to rozoznať na veľkej 4k telke."
Na základě čeho tak tvrdíte? Jako ASIC enkodér může aspoň teoreticky konkurovat ve vysokých FPS/realtime, kde nemá CPU enkodér dost prostoru. Ale když se bude kódovat na kvalitu, tak prostě GPU/ASIC dostane od softwaru čočku. Pokud ne, tak to bude svědčit o tom, že je x265 špatně napsaný... Má takhle například ten enkodér Nvidie psychovizuální RDO, btw? To je asi nejdůležitější fíčura, které dnes, nebo lépe řečeno v téhle dekádě v enkódování videa existuje. (Má vůbec RDO?)
"Najlepšia je osobná skúsenosť, skús, uvidíš."
No já právě s videem docela pracuju a vývoj enkodérů osobně sleduju (hobby), proto jsme měli prakticky jako první zprávy o zrodu x265 https://www.cnews.cz/pristi-tyden-prijde-x265-oficialni-naslednik-enkoderu-x264-pro-format-h-265/ nebo tohle https://www.cnews.cz/video-kodek-av1-nahradi-nova-verze-av1-1-0-neni-kompatibilni/ (tam je vtipný, že to od té doby pořád ještě Google/AOM nějak neoznámili, takže tak nějak ten náš článek je jeden z mála, jestli ne jediný kromě postu na Redditu, kde se o tom mluví... ale nevím o tom, že by to porušení bitstream freeze bylo zrušeno. Asi bych se na to zase někdy měl přeptat v kanále).
Takže no, jak to říct... na svoji zkušenost a to, co vím/slyšel jsem od vývojářů dám spíš, než na něčí dojmologie založené na PR blozích...
Tak ja k to pises, to neni pravda. Na youtube existuji videa, kde napriklad v dobe po vydani Ryzenu, prichazela s updaty jejich lepsi podpora, zkracoval se cas celkoveho enkodovani apod. Staci zmenit/optimalizovat jenom vystupni parametry treba preddefinovanych presetu a casy se zmeni taky. Do toho se muze menit zpusob implementace nekterych filtru, atd. CPU se vytezuje i pri pouziti treba NVENC nebo QuickSync enkoderu. Takze tvrdit, ze se nic nezmenilo a nic nezmeni je dost nesmyslne tvrzeni, ktere neni nicim podlozeno. Naopak, nove verze prinaseji nove featury, opravduji bugy, atd., to vse muze/ma vliv na vykon.
Tak výborne, video je aj moje hobby, prvú digitálnu kameru som nadobudol v roku 1995, to ešte SD PAL rozlíško. Za tých 24 rokov mi prešlo cez ruky mnoho prístrojov a v podstate všetky známe strihové editory. Takže prepáč, ale z mojej strany to rozhodne neni dojmologia alebo PR kecy. Ak to neni tajné, aké vybavenie používaš momentálne ?
Ja Panasonic GH5 /predaný/ v merku Fuji x-h2, x-t3, Canon GX10, Intel 16c/32t + RTX2080Ti
Olšan: Podle mě řešíte zbytečnosti.
Největší vliv na kvalitu má a vždy bude mít datový tok. Takže místo řešení minimálních rozdílů v kompresi GPU vs CPU stačí, tomu kdo chce kvalitní výstup, zvednout datový tok.
Druhou věcí je, že většina distribuuje videa přes YT, sociální sítě a je naprosto zbytečné řešit detaily, když výsledný encoding na těchto kanálech vše zničí.
preto, lebo keby sa sli bit Connor Mcgregor s Tysonom (ked bol na vrchole) 70 vs 109kg, tak ktory by asi tak vyhral? Preto musis do ringu dat rovnaku vahovu kategoriu, taky Klicko by sa s Tysonom bit kludne mohol. K 3700x by sa mal davat 8700/9700 ale tie roznesie v zuboch, tak davaju o 100€ drahsi 9700k. A k 3800x by si mal davat 9700k ale aj to je ako keby som sa ja isiel bit s Mcgregorom hoci mame rovnako kg :) tak knemu davaju 9900k, ktory je o 150€ drhsi. Intel je aktualne v perdeli jak bol v casoch K8.
Desky Z390 jsou bohužel taky drahé. Ty základní modely jsou totiž naprosto nepoužitelné a to se bavíme o stock a ne OC.
https://www.youtube.com/watch?v=cZcqw-K1drY
snajprik: S tou maximální spotřebou máš pravdu, ale není to reálný obrázek toho, kolik ti jednotlivá CPU vezmou.
Kolik uživatelů provozuje CPU neustále NONSTOP na plný výkon?! Většinu času tráví v minimální zátěži a tam AMD ztrácí, protože jejich CPU neškálují tak precizně jako Intely a ve výsledku PC s 9900 může spotřebovat méně energie než zmiňovaný Ryzen 3700, právě proto, že mimo maximální zátěž CPU žere méně. Takže tvé 88W vs 180W vypadá hrůzostrašně, ale není to reálný obraz spotřeby zmíněných CPU.
Spotřeba desktopových CPU intelu a AMD v klidu je prakticky totožná, rozdíly nehrají roli. CO žere je čipset X570, což znamená, že pokud někomu jde o spotřebu v klidu, měl by zvolit jiný.
U procesorů používaných na hry je spotřeba v zátěži zajímavější, jelikož jede hodně času v tomto režimu, i kdžy důležitější je stále spotřeba grafických karet.
Aha, takže když ho nemám v PC, tak o něm nemůžu diskutovat? :D :D Řekl bych, že jsem tu možná jedinej v celé diskusi, kterej s ním má nějakou zkušenost, ty ani nevíš že jsou nějaké revize. :) Tak podle téhle tvé teorie by jsi už měl nejspíš držet hubu o 9900K i o Ryzenech, protože nic z toho nemáš, trolle. :D
Mocný vladaři, vládče všech trollů... já měl 9900K v PC na zkoušku místo svýho 8700K. Topil v zátěži s mým AIO tak, že jsem si netroufl ho ani taktovat..
Dále byl mimo jiné problém ho rozběhnout na Z390 se starým BIOSem, který tuhle novou revizi nepodporuje (tedy prakticky to samé jak se tu onehdá vyčítalo novým Ryzenům), ale to by bylo na delší povídání.... :) Ale o tom, ty nemůžeš nic tušit, internetový teoretiku. :D
Ne, ty ještě nemůžou být. Budou to výběrové křemíky, tak by asi měly mít vyšší OC, ale jestli se to dostane až tak vysoko, to teď těžko říct.
Na to enkódování by byl lepší Ryzen, ale to asi víte, počítám že výběr 9900K(S) je kvůli těm hrám. Případně by asi ještě mohlo mít smysl počkat na toho Comet Lake-S příští rok v zimě nebo na jaře.
to ze je mvladar trol obecny a nektriticky je jasne, ale ze by byl problem vodnikem uchladit 9900K se mi nejak nezda, me vodnik chladi procak i grafiku coz kdyz se utrhnu a pretaktuju hodi klidne 400W+ .. i kdyz ho pouzivam ne tak na dren, tak tech 300W+ musi chladit ... jasny, ze vlastni okruh je lepsi nez koupenej vodnik, ale pokud to ma dva nedej boze tri vetraky, tak to musi v pohode uchladit 200-250W co pretaktovana 9900K dava
No když je řeč o výstupu z GPU versus CPU enkodéru, tak se bavíme o kvalitě komprese, zachování detailů a blízkosti originálu...
Teď mě napadá, že jste asi přehlédl kontext, kde na začátku je řeč o enkódování HEVC na procesoru oproti enkódování na GeForce RTX.
Můj post mluvil taky jasně o enkodérech.
Netvrdím, že to nejde, jen píšu, že já to ani nezkoušel. Protože na 240 AIO mi AIDA stability test dával něco kolem 85 stupňů na stock. Ale to jsem si dohledal, že je s touhle revizí celkem normální. Ve hrách do 70, tam není co řešit. Ono jedna věc jsou teoretické watty a druhá věc efektivita přenosu tepla.
Mas youtube? Tak si to tam najdi, ja ti vola delat nebudu.
Level kapacity znalosti tvojich a podobnych jako je oldass, mvladar je fascinujici...BFU, kteri chodi do diskusi a nevi, ze s novymi verzema programu se meni jejich vlastnosti.. kdo by to rekl. ze se SW meni :))
Koukam ze jste trollove na spravnem miste..vite ultra prd, ale chodite neustale diskutovat :D
tombomimo: nevím, jestli to má smysl, protože tvým cílem je zde urážet a honit své pošramocené ego, ale naposledy ...
Nový kodek jako např. h265 vznikl hlavně kvůli televiznímu vysílání, kdy je třeba dostat do jednoho vysílacího kanálu s omezenou datovou propustností co nejvíce TV kanálů a ušetřit tak peníze za distribuci TV signálu.
Nikomu zde nejde o kvalitu, ale o to, ušetřit prachy!
Žádný současný kodek ti nevyřeší složité scény, kdy se mění větší část obrazu. h264 i h265 si vylámou zuby na mnoha scénách, které by vyřešil jen vyšší datový tok.
Pokud myslis urazkami neustale mleti jedne nepodlozene fabulace za druhou..ano pak urazis svymi prispevky porad dokola :))
Tvoje predstava je opet famozni..takze oni to pouzili pro televizni vysilani..aha..ja myslel, ze dneska vetsina datoveho toku jde po Internetu. Takze pro internet to nevymysleli, ale pro TV vysilani ano..gratuluji, to dava naprosto smysl :) Kdyz by jsi aspon napsal, ze to bylo vyvinuto pro filmovy prumysl, tak to beru. Takhle je to jen dalsi polo-nesmyslna fabulace.
Nicene to nemeni nic natom, ze sirka pasma, at u TV-vysilani nebo sirka pasma, kterou zaberes pri streamingu pres Interent jsou z toho pohledu obdobne veci. Tudiz tyto kodeky se vymysleji presne z duvodu o kterych jsem psal, ze se potrebuje do mensiho bitratu vejit podobna kvalita, protoze sirky pasma nejsou nafukovaci. Tvuj argument o uspore penez je nesmyslny...protoze vsechno stoji penize, i blby opticky kabel z POPu do baraku, klidne by tam mohli natahnout 128 fiberovy, ale ten tam nenatahnou a v lepsim pripade tam bude max nejaky 8fiber nebo spis 2fiber. Proc asi, ze?
Kdyby to tak nebylo, tak to delat nebudou. Internet ma podobna omezeni jako TV vysilani, princip je porad stejny.
Takze opet..fabulujes
Tak napriklad neco od autodesku, ktery optimalizacim posledni roky moc nedaval...jeste z kraje letosniho roku mi ryzen 1700x renderoval srovnatelny vystup ve Fusionu 360 pri vytizeni ani ne 4 vlaken dobrych 15 min. Po jedne z letnich aktualizaci trva srovnatelna operace pri plnem vytizeni vsech 16 vlaken 1-2 minuty - docela dost vyznamny posun.
Myslis jako treba tady? :))
https://tpucdn.com/review/amd-ryzen-7-3700x/images/power-gaming.png
Rozdil cely 10W oproti 9900k, kde zravy/"neoptimalizovany" chipset 570, dela sam nejakych 10-15W..
Tomu rikam " Ryzeny skáčí do mnohem vyšší spotřeby i při nízké zátěži CPU."
....
Neuveritelne je to tak mozna pro tebe. Staci si vzit nektera tva 'neuveritelna' tvrzeni, ktere jsi tady napsal..
- Nový kodek jako např. h265 vznikl hlavně kvůli televiznímu vysílání.. :D :D
- Žádný současný kodek ti nevyřeší složité scény, kdy se mění větší část obrazu. h264 i h265 si vylámou zuby na mnoha scénách, které by vyřešil jen vyšší datový tok.
---samozrejme ty it guuuuuuruuu, nekdy potrebujes vyssi datovy tok, ale je rozdil jestli treba mas 5Mb a leze ti z toho koukatelna kvalita a nebo na to stejne potrebujes 10Mb, atd.. tyhle obecny plky tady hazes od boku porad.
-...
Mam pokracovat? :))
jfb: https://tpucdn.com/review/amd-ryzen-7-3700x/images/efficiency-singlethread.png
Ryzeny vezmou v malé zátěži jak vidno i 2x více energie než Intely! Viz. odkaz výše.
Podle tebe největší žrout (9900) vzal naopak energie nejméně! To je paradox co?! :-)
Dám sem celou stránku, aby bylo vidět, jak jsi se zesměšnil
https://www.techpowerup.com/review/amd-ryzen-7-3700x/18.html
Wholew system - X570 čipset mimojiné.
Mimochodem já jsme o 9900 vůbec nepsal.
"Olšan: Podle mě řešíte zbytečnosti. "
To opravdu ne.
"Největší vliv na kvalitu má a vždy bude mít datový tok."
To je pravda, ale když argumentujete takhle, tak je to zároveň absurdita. Datová tok je jeden faktor. Ale kdyby byl jediný, tak se pořád používá mpeg2. Vtip je v tom, že kvalita závisí na bitrate s určitýma jedněma podmínkama a enkodérem/formátem. Ale jak se pohne ostatníma proměnýma, tak stejná bitrate najednou znamená něco jiného.
Třeba s 5megabitovým kvalitním H.264 s psychovizuálníma optimalizacema budete mít lepší kvalitu než s 9megabitama v Mpeg2, který se používá na DVDčkách.
Některé formáty jsou horší a některé lepší, takže potřebují míň bitrate.
A stejně tak některé enkodéry stejného formátu jsou horší a některé lepší. A klidně to taky může být o 50% redukci bitrate při stejné kvalitě. Extrémní šmejdy typicky bývaly ty ASIC enkodéry, i když i tam je vývoj, zatímco sw enkódování třeba toho H.264 už tak od roku 2011 moc nepokročilo (mluvím o x264, nic jiného nemá cenu).
Když se bavíme o kvalitě enkodéru, tak to pak už není jenom o bitrate, ale o tom, jak se používá. Protože špatné enkodéry třeba i při velkém přidávání bitrate nejsou schopné některá místa zachovat bez artefaktů, nebo bez ztráty detailů. Typicky je to problém rozmazávání. Pořád zvyšujete bitrate, ale pořád vám mizí a mizí detaily z nějaké plochy, mizí zrno/Textura. Nebo máte pořád rozmazané/zmizelé objekty v tmavé části scény.
No a pak použijete pořádnej enkodér s psy RDO a najednou tam ty věci, co enkodér X prostě nemoh zachovat ať se dělo co se dělo, najednou tam jsou.
Takže fakt neřeším blbosti, ta kvalita enkodérů je velkej problém a jsou tam obrovský rozdíly a taky problémy k řešení. Proto taky nejsou pro nové formáty kvalitní enkodéry hned, ale třeba až za tři roky - nebo taky nikdy.
"Žádný současný kodek ti nevyřeší složité scény, kdy se mění větší část obrazu. h264 i h265 si vylámou zuby na mnoha scénách, které by vyřešil jen vyšší datový tok."
Tohle je zase takový myšlenka ignorující kontext.
Nový formát typicky zlepšuje využití bitrate, takže nemáte pravdu. Když se zachová stejný tok, tak se zlepší kvalita. Pokud je to dobrý enkodér, takže jsme zpět u toho, že tohle má cenu řešít a rozhodně to není blbost. (Pro kontext, tahle debata začala tím, že se bagatelizovaly/zpochybňovaly rozdíly kvality výstupu mezi různými enkodéry - jste mi docela šlápli na kuří oko, heh ;).
Složité scény umí dobré enkodéry tím navýšením bitrate vyřešit, říká se tomu variable bitrate a HEVC, H.264 to samozřejmě umí. Použijte v x264/x265 režim CFR a tenhle váma tvrzený problém de facto neexistuje.
TV vysílání (CBR, nebo VBV-constrained VBR) sice může být jedním z jejich hlavních cílů, ale to neznamená, že nepočítají s ničím jiným.
Velevážený vezíre, vladaři trollí říše, jediný kdo tu neceknul jsi ty, co tu začal zmateně blekotat o filmařině, když se zjistilo, že o kodekách nic nevíš. :D
https://www.extremetech.com/computing/291649-intel-performance-amd-spectre-meltdown-mds-patches
"the collective whack is ~15-16 percent on all Intel CPUs without Hyper-Threading disabled. Disabling increases the overall performance impact to 20 percent (for the 7980XE), 24.8 percent (8700K) and 20.5 percent (6800K)."
"AMD loses ~3 percent with all fixes enabled."
@mvladar (vlko)
Hele Tys tu napsal spoustu nesmyslů :-) Mnohém z nich jsem Ti lehce vyvrátil osobními zkušenostmi.
Ten trolling na adresu AMD je prostě přehnaný. A není ani humorný. Mě tu někteří jedinci nazývají "rudým" ale já na rozdíl od nich nekopu do Intelu či nVidie. Nemám proč... Používám podle potřeby všechny značky...
Dle Tvé logiky bych tu mohl začít vytahovat opětovné problémy s ovladači co snižují výkon a ne není to u AMD.
KOCHREN, proti tebe nemám nič, pretože sa vyznáš a vieš diskutovať o konkrétnych veciach. Ano, moja kritika AMD je tvrdá, je to protiváha proti tým, ktorý AMD ospevujú ako modlu.
Aznohh, proti tebe mám naopak moc, pretože si diletant a do ničoho sa nevyznáš, proste tvoje komenty sú len bohapusté tláchanie...
To není demagogie, to je přesně co jste tvrdil, když jste mluvil o tom, že jediné, na čem závisí, je bitrate.
V praxi fakt není nic dál od pravdy, a rozdíl mezi dobrým softwarovým enkodérem a špatným (nemluvě o nějakém ASIC švábu v levným ARM čipu) je fakt na úrovni MPEG2 × H,264.
Kdybych to měl vyjádřit jednou větou, tak jsem mohl říct, že jste úplně vedle a asi nevíte, o čem mluvíte (jestli trváte na "Co jsem napsal platí na 100%"...). Já se to pokusil vysvětlit a ilustrovat. Jako komprese do moderních video formátů je složitá oblast o který běžný lidi typicky mají plus minus žádnou představu, tak nevím, jak to chcete zprostředkovat snadno a rychle.
Edit: jestli chcete radši analogii, tak vaše věc s bitrate je jako byste tvrdil, že jediné, na čem v CPU záleží, je frekvence. Ano, vyšší frekvence u jednoho daného CPU zvedá výkon, ale pak je něco jako IPC, takže se klidně stává (často), že CPU s jinou architekturou bude rychlejší, i když má frekvenci nižší. Prostě klasika, nelze se spoléhat na jenom jeden faktor, když jich výsledek spoluurčuje víc.
Ty formáty videa jsou jako když se vyvíjí architektura třeba z P4 (mpeg2) na Core 2 (H.264), pak na Nehalem (HEVC). Najednou má CPU (kodek) mnohem lepší výkon (kompresi) se stejnou bitrate. A kvalita enkodéru je ještě jednou takový faktor, jako by se to IPC aplikovalo znovu (výrobní proces?)...
tombo, vidím že si to nepochopil, vysvetlím. V AMD sa jednoducho a opodstatnene obávajú degradácie procesorov, preto znížili max. turbo, od teploty 75st. sa zostrelí a klesne Vcore. Je to správne opatrenie, pretože vysoká teplota v kombinácii s vysokým napetím je uhlavný procesorový nepriateľ. Odskáče si to zákazník, to max. turbo bude vidieť asi tak 2x ročne.
Pochopil ?
Ty o tom fakt nič nevieš ? Však sa o podraze diskutuje po celom nete, už aj DDovečky protestujú. AMD zmenilo mikrokódy AGESA z obáv o spľahlivosť/degradaci nových Ryzenov :
https://www.svethardware.cz/asus-amd-v-novych-mikrokodech-zmirnilo-turbo-procesoru-ryzen-3000/50032
Ja narozdil od Tebe TROLLOLO umim cist..
"Od jistého shamino1978 zaměstnance firmy Asus a firemního overclockera se nyní dozvídáme, že z velké části jsou tyto rozdíly v taktech způsobeny tím, že AMD v nových verzích mikrokódů AGESA změnilo chování turba v procesorech Ryzen 3000 tak, aby bylo méně agresivní, a to za účelem zajištění dlouhodobé spolehlivosti procesorů. AMD tak mělo asi obavy, aby nové Ryzeny nebyly až moc přetěžovány a nezačaly snad vevelkých počtech selhávat. "
Protoze ti to mysli opravdu pomalu... tohle neni vyjadreni AMD, ale vyjadreni 'nejmenovaneho' zamestnace ASUSu. Pokud nechapes rozdil mezi oficialnim vyjadrenim a vyjadrenim anonymni osoby, doporucuji nejaky zakladni kurz chapani cteneho textu na urovni 8 tridy zakladni skoly..
Tak ty sa budeš vykrúcať i keď je jasné, že mikrokód je záležitosť AMD. V čase, keď musí AMD zaplatiť 12mil. doláčov žalobcom, dvorný výrobca čipov čelí vážnej obžalobe, AMD nemá nič iné na práci ako si poštvať verejnosť zmenou mikrokódu v neprospech zákazníka. Pochop, že k tomu kroku mali sakra vážny dôvod - strach z umíraní CPU. Zbytočne ma urážaš, prehral si, mýlil si sa.
ALe pendrek jsem se mylil...to jen ty placas jeden blud za druhym, protoze ani vzdalene netusis, o cem vlastne pises.
Jinak pokud jsi to jeste nepochopil..cele tvoje "AMD melo zavazny duvod", kde vubec nevis, jake duvody je k tomu vedli, je zalozeno na jednom komentari na foru zamestnance jine firmy, nez je AMD.
Já bych k téhle debatě jen zopakoval. Spousta CPU je už venku a většina lidí ani nemění BIOS. To by mělo následovat hromadné umírání CPU od AMD.
Z vlastni zkusenosti vim, ze vyskakovani napeti k a nad 1.4 se da lehce omezit rucnim nastavenim. Rekl bych ze prave v BIOSech je ted nejvetsi slabina. A opravdu ne kazda firma to zrovna umi. Jinak mi 3700X boostuje na 4.4. Nejsilnejsi ZEN2 ma mit takt az 4..7... No pridavam se s tim ze to bych chtel taky videt.
Co vidim jako hlavni problem do budoucna je chlazeni na mensich vyrobnich procesech.
a jeste neco k tomu vyjadreni, protoze beztak nechapes, o cem je rec. Test na HWunboxed, kde treba Gigabyte Auorus Extreme dosahuje vyssich boostu, nez je specifikace, ma nahranou AGESA 1.0.0.3.ABB. Pokud se podivas do originalniho komentare, ktery jsem ti postnul dolu, tak by to mela byt AGESA, o ktere zminovany zamenstnanec ASUSU nejspis mluvi. Alespon neni znama zadna dalsi ve verzi 1.0.0.3. Takze pokud to ctu spravne, tak i prestu "korigujici" upravu, deska stale boostuje i nad udavanych 4,50Ghz max boost.
https://youtu.be/o2SzF3IiMaE?t=238
".. i have not tested a newer version of AGESA that changes the current state of 1003 boost, not even 1004. if i do know of changes, i will specifically state this. They were being too aggressive with the boost previously, the current boost behavior is more in line with their confidence in long term reliability and i have not heard of any changes to this stance, tho i have heard of a 'more customizable' version in the future."
Olšan: To , že převracíte má slova je váš problém, ne můj.
Vaše analogie kulhá na obě nohy, cituji "vaše věc s bitrate je jako byste tvrdil, že jediné, na čem v CPU záleží, je frekvence"
Já někde tvrdil, že JEDINÉ na čem záleží je datový tok?! Ne.
Psal jsem: "Žádný současný kodek ti nevyřeší složité scény, kdy se mění větší část obrazu. h264 i h265 si vylámou zuby na mnoha scénách, které by vyřešil jen vyšší datový tok."
To je 100% pravda a nic se na tom nezmění.
Dále jsem psal: "Největší vliv na kvalitu má a vždy bude mít datový tok. " To je opět 100% pravda.
Vážně to není to samé jako vaše vsunuté: "jako byste tvrdil, že jediné, na čem v CPU záleží, je frekvence".
největší vliv na kvalitu != jediné na čem záleží
autodesk aktualizoval po stiznostech uzivatelu jeste za ryzenu 1xxx. ja se ptam na roky 2018-2019 a konkretni pripady.
tombomino 27.8.2019 at 9:12 Takze tvoje znalosti hluboce presahujici nas BFu mas jako od nejakych noobtooberek, ktere ani nejsi schopny uvset. dobry vedet, to ti pripomenu.
"Psal jsem: “Žádný současný kodek ti nevyřeší složité scény, kdy se mění větší část obrazu. h264 i h265 si vylámou zuby na mnoha scénách, které by vyřešil jen vyšší datový tok.”
To je 100% pravda a nic se na tom nezmění. "
Ne, to je naopak nesmysl, a už jsem na to reagoval, ale vy jste to podle svých slov nečetl (není moje chyba).
Tak ještě jednou tady: "Složité scény umí dobré enkodéry tím navýšením bitrate vyřešit, říká se tomu variable bitrate a HEVC, H.264 to samozřejmě umí. Použijte v x264/x265 režim CFR a tenhle váma tvrzený problém de facto neexistuje.
TV vysílání (CBR, nebo VBV-constrained VBR) sice může být jedním z jejich hlavních cílů, ale to neznamená, že nepočítají s ničím jiným."
Zkuste použít x264 nebo x265 v režimu --cfr (a když to bude třeba, se zvášeným --qcomp) a uvidíte, že mám pravdu. Asi jste to ještě nezkusil.
"Já někde tvrdil, že JEDINÉ na čem záleží je datový tok?! Ne. "
Z mého pohledu jste to tvrdil, proto jsem vám celou dobu namítal. A to zde: "Největší vliv na kvalitu má a vždy bude mít datový tok. Takže místo řešení minimálních rozdílů v kompresi GPU vs CPU stačí, tomu kdo chce kvalitní výstup, zvednout datový tok." Na začátku tohoto celého vlákna. https://www.cnews.cz/intel-marketingova-prezentace-proti-amd-ryzen-udajne-nerealne-benchmarky#comment-216259
"řešení minimálních rozdílů v kompresi GPU vs CPU" tady tvrdíte, že enkodér nemá prakticky žádný význam (pokud jste to říct nechtěl, tak jste holt napsal něco jiného, než jste myslel, opět není mode chyba, já můžu reagovat jenom na to, co tu vidím)
Pokud souhlasíte, že i kvalita enkodéru a formátu jsou důležité, což se vám pořád snažím vysvětlit (já totiž to, že je bitrate důležitá, fakt nezpochybňuju), tak jsme si mohli celé tohle divadlo odpustit. Proč mi tedy tak urputně odporujete, když taky souhlasíte, že jsou důležité všechyn tyhle tři faktory?
Olšan: vy jste dobrý šprýmař ... takže odmítáte “Největší vliv na kvalitu má a vždy bude mít datový tok. Takže místo řešení minimálních rozdílů v kompresi GPU vs CPU stačí, tomu kdo chce kvalitní výstup, zvednout datový tok.”
Ale píšete, že "to vyřeší variabilní datový tok" Vždyť tvrdíte to samé(!) pane Olšane! No nezlobte se na mě, ale na tohle čas vážně nemám. Vyhozený čas. Na podobné debaty si budete muset najít někoho jiného.
Naposledy. Píšete:
"Složité scény umí dobré enkodéry tím navýšením bitrate vyřešit, říká se tomu variable bitrate"
Takže tvrdíte to samé!! Navyšujete bitrate.
Kde budu trávit svůj volný čas je opravdu jen moje věc, do toho vám s prominutím nic není. Pane Olšane, sbohem.
p.s.: Říkal jsem si proč jsou tu v diskusi takoví exoti, teď už vím proč :-( .
Neznáte mě ani já vás, ale věřte, že z mého pohledu jsou místní debaty šílené a vaše poslední argumentace naprosto absurdní!
Asi si to budete muset celý nastudovat, kdež nechápete základy, já nejsem lektor/učebnice zadarmo.
VBR znamentá, že jedna scéna ve videu může dynamicky dostat 10x víc bitrate, ale nemusí se kvůli tomu zvýšit celá bitrate 10x. Může se naopak třeba jinde trochu snížit, dostanete nakonec stejně jako s CBR, ale máte všechny scény kvalitní.
Tohle ví i lidi, co video nikdy nedělali a jenom přičuchli trošku víc ke konverzi CDček na MP3ky.
A je to odpověď na rozdílnou náročnost scén (podle vás neřešitelnou), ne na celkové požavadky celého videa, což by bylo plošné navýšení bitrate.
Teda sorry, ale tohle teda už ta demagogie je, pustý vykrucování a posouvání branek.
Podívejte se tam, řeč je o variable bitrate, CFR režimu, jako řešení vašeho problému, že 'některé scény ve videu se nedají zvládnout bez ohledu na formát' (vaše tvrzení, nesouhlasím). Vůbec se tím nemyslí to, co mi tady cpete nebo děláte, že jste z mojeho příspěvku vyrozumněl (a ono to v něm nebylo).
A ještě máte drzost z toho utíkat s "No nezlobte se na mě, ale na tohle čas vážně nemám. Vyhozený čas. Na podobné debaty si budete muset najít někoho jiného."
Jako OK, klidně si dejte ragequit, na to máte právo. Ale co takhle můj vyhozený čas, když jsem tady trpělivě jako debil vysvětloval něco někomu, kdo nechce rozumět, řekne mi, že to nečte a skoro mám pocit že dělá, že to nechápe schválně (pardón, ale fakt mi to tak už připadá).