Nejak jsem nepochopil tu zminku o chybovosti:
Chybovost pod 0.01%. To znamena, ze jeden z 10000 files bude koruptnuty? Pri stovkach tisic files na disku vynasobenych frekvenci se kterou se files prepisuji, se mi to zda trosku moc. Kdyby to byla setina miliontiny, jeste stale by to bylo moc.
Krome toho, jestli je v tom patent od Oraclu (jak jiz nekdo zminoval, patent na vec co se ovsem pouziva desitky let), tak tento system bohuzel nema budoucnost.
To číslo je nesmysl pro novináře. Už jen ten znak procenta naznačuje, že to nemá s chybovostí ani spolehlivostí nic společného. Ta se u disků udává v úplně jiných jednotkách. A u FS samotného to ani nedává smysl, to je SW a buď funguje nebo ne. Jak chcete měřit spolehlivost kupříkladu OS, který funguje, ale při současném spuštění jistých dvou konkrétních programů padne na hubu? Podělíte dvojku počtem nainstalovaných programů? Nebo počtem všech existujících programů na světě? Možná snad po vzoru disků počítat průměrný počet kliků do vynuceného restartu :-)