> Nápověda: 100MB soubor se obvykle celý nacacheuje do RAM a efektivitu FS na něm nepoznáte.
Pry u soucasnych rychlosti disku (a na pomalejsich strojich) je vyznamny CPU overhead kvuli nutnosti pracovat (na urovni filesystemu) s obrovskym mnozstvim bloku. Tento problem by pry mely resit extenty ve filesystemu. Zda je to ale opravdu tak vyznamne, nevim.
Samozrejme, pokud uz je soubor v cache, tak uz to je asi celkem jedno a takovy benchmark nema moc smysl.
Minimálně ext2/3 s velkým množstvím bloků nemá při sekvenčním přístupu žádné vážné problémy. Horší je to při náhodných přístupech, protože datové bloky mají tendenci vyhazovat z cache indirect bloky (těch je řádově méně, ale o to častěji jsou potřeba). Docela dobře je vidět, že na terabytovém souboru je XFS cca 2x rychlejší na náhodných přístupech než ext2 (XFS má pro změnu výkonové problémy jinde, například při kombinacích čtení se změnami velikosti souboru). Ext4 má každopádně extenty vymyšlené pěkně, uvidíme, jak budou rychlé v praxi.
Chápu, že nebylo smyslem článku dělat zátěžové testy a uvedený test je jen pro ilustraci. Přesto by mne výkon docela zajímal. Především na desktopu je důležité (konkrétně při startu velkých desktopových prostředí), jaká je rychlost při náhodném čtení mnoha malých souborů. Taktéž, jaká je odezva při načítání adresářů obsahujících velké množství souborů (adresář "download" nebo porno kolekce :-D )
To moc nepomůže, i během jednoho testu se cache významně projevují. Aby měl test smysl, měl byste ho dělat spíše s řádově většími daty, než je velikost RAM.