Osobně nechápu pointu testu výkonu v článku. Jednak souborový systém tohoto typu asi nemá výkon jako jednu z hlavních priorit, jednak bzip2 je nejpomalejší rozšířený kompresní nástroj na linuxech. Gzip má daleko rychlejší kompresi/dekompresi (zde by bylo vhodné srovnání), LZMA aspoň tu dekompresi.
Navíc nechápu, o jaké „filesystem cache“ je řeč. I takový „dd“ umí O_DIRECT (jako iflag/oflag).
Tak mne by „výkon“ docela i zajímal, ale ne tak, jak je uveden. To, že měření vyplivlo pár čísel na 100MB archivu s 5 soubory je sice super, ale u (de)komprimace jaksi nemalou měrou záleží např. i na CPU a už jsem si tam nevšiml, zda-li to (de)komprimoval nebušený Xeon nebo Pentium po rodičích.
Navíc když si např. v Midnight Commanderu otevřu takový prťavý archiv s 5 soubory, tak výsledek se dostaví takřka okamžitě, ale co když archiv obsahuje desítky čí stovky tisíc souborů a má několik GB nebo raději desítek GB? To je přesně ten okamžik, kdy se mi nevyplatí archiv prostě rozbalit, ale rád do něj nakouknu. V tuhle chvíli je již Midnight Commander v podstatě nepoužitelný. U jakých hodnot je ona mazní míra použitelnosti u daného řešení? Klidně na to nemusíme být zlí a vyjděme z předpokladu, že se takový archiv mountne jednou za půl roku a pak tam někde proste visí.