Ty se tady chlubíš jak máš vše důležité zazálohované a pořád nechceš pochopit, že můžeš mít poškozená data už v té záloze. Záloha a ECC jsou dvě rozdílné věci, které by u sereveru měli jít ruku v ruce.
------------
http://news.cnet.com/8301-30685_3-10370026-264.html
Google a jeho test ti snad stačit bude.
-------------
Přestaň se zaobírat katastrofickými a silně teoretickými scénáři a řekni mi kolik z tvých známých, příbuzných, kamarádů či kolegů ztratilo data vinou chyby v RAM?
Od tvého K čemu ECC? -> domací server bez ECC pamětí a bez jediného problému -> Zajištění integrity dat jde udělat i SW cestou, respektive vhodným FS (ZFS, ReFS...) je to jen další potvrzení, že dané problematice vůbec, ale vůbec nerozumíš.
Tyto chyby se velmi špatně reprodukují a je velmi těžké je lehce odhalit. To jsou častokrát ty zamrzlé a padající programy, artefakty v AV souborech apod.
Ne nadarmo existuje velmi oblíbené doporučení (ale ne všespásné): "A zkusili jste to restartovat?"
Častokrát to končí i reinstallem OS a do půl roku je to nanovo.
Vytahujes tu z clanku len data, ktore sa ti hodia a este ich tym vytrhnutym textom "prirovnavas" domace NAS riesenia k takmer nonostop vytazovanym serverom od Googlu.
"Google, though, found the rate much higher: 25,000 to 75,000 failures per billion hours."
Pokial som to pochopil spravne, tak v priemere vznikne v pripade googlu maximalne 75000 opravitelnych chyb v RAM za miliardu hodin operacii. Samozrejme ze cas medzi dvomi po sebe nasledujucimi chybami nebude vzdy rovnaky, ale ked to vydelim, tak mi vyjde ze chyba v najhorsom moznom pripade (tych 75000) a v priemernej dobe medzi chybami moze nastat nasledujuca chyba kazdych 555 dni (a samozrejme aj skorej) pocas pracovania s pamatou.
"While memory errors can cause serious problems, they're a lot less serious for PCs than for servers, Glaskowsky said. That's because servers keep a lot of data in memory, writing it periodically to the relative safe haven of a hard drive, whereas most of a PC's memory holds just application or operating system files or perhaps some content that's being seen but not edited."
"Mostly consumer PCs aren't manipulating huge amounts of data in memory," Glaskowsky said. "In many cases it's just for viewing purposes."
Teraz nam skus vysvetlit, ako bezny NAS v rodine, alebo v malej firme moze byt nonstop vytazovany s tym, ze vkuse zapratava a prepisuje pamat (ako v pripade Google serverov). Ak to v takychto pripadoch nenastava t.j. nonstop vytazovanie RAM (nie len read-only data), tak by priemerna sanca na nasledujucu chybu mala byt ovela nizsia.
Preto tu viaceri tvrdime, ze si paranoidny - pretoze normalne staci mat viac zaloh, nez verit v to, ze zrovna pocas ukladania dokumentu sa mi za 555 dni nastanu dve chyby (mame predsa zalohy dokumentov ze?)
Bohužel, žádnou takovou studii asi nikdo nedělal. To je ten problém. Vycházím z osobní zkušenosti a také z toho, že na netu nejsou tuny dojemných story, jak lidi přišli o svá data.
Ani tvoje statistika není relevantní. Domácí NAS nejsou servery Googlu a nejde to srovnávat ani přibližně.
To na tobě je abys dokázal, jak vadný modul se stovkami a tisíci chyb týdně kompletně zničil celý obsah disku.
Já vím, došly ti arumenty.
Co se týče důkazů, jsme si kvit. Tys nebyl schopný dodat stitistiku, já taky ne. Ta tvoje nesouvisející se nepočítá.
Na mé straně je fakt, že žádné hromadné problémy se zničenými daty nejsou. Jinak by toho byla plná fóra. Takže buď to vyvrátíš nebo konec.
Schválně, kolik lidí znáš, kterým chyba v RAM zničila data?