Odpovídáte na názor k článku Linux dostává podporu defragmentace oddílů typu exFAT. Názory mohou přidávat pouze registrovaní uživatelé. Nově přidané názory se na webu objeví až po schválení redakcí.
Ano, když má jeden soubor 10 fragmentů, tak to není problém. Zátěž se zvětší, ale přečíst 10 souborů není žádná práce ani pro HDD.
Ano NTFS trpí na fragmentaci mnohem méně než FAT. Ale bude to IMHO lepší logikou při ukládání. Pravidelnou údržbu lze nastavit i pro FAT32 ve WinXP. Jenže to moc nepomůže.
V praxi jsem narazil na soubory které měli 10 000 fragmentů. HDD se tvářil jako by měl přečíst 10k souborů a to je sakra náročný úkol pro HDD (80GB 4200rpm 2,5" ATA100 8MB buffer), i když četl jen jeden soubor. Defrag.exe si s tím neuměl poradit. Buď byl soubor zamknuty pro čtení (swap) a nebo moc velký (PST).
Musela se udělat offline defragmentace.
Nebo soubor ručně nakopírovat jinam, smazat, udělat defrag a pokusit se ho vrátit na disk v celku do prázdného místa. Jenže během dne přišlo 10 mailů a PST mělo zase klidně 11 fragmentů.
Ještě jsem zkoušel O&O Defrag, uměl mnohem víc než M$defrag.exe, ale platit za to že M$ něco prodělal se mi nechtělo. To bych rychle zkrachoval :-)
A proto tvrdím že defragmentace dnes nemá smysl. Úlohy které v principu vytvářejí fragmenty (swap, PST,...) se přesunuli na SSD.
Fotky a filmy na fragmenty netrpí tolik. Stačí při zápisu na disk nešahat a vše se uloží v kuse.
Disky které na to používáme (ano taky mám) mají stovky GB, SATA, NCQ, 5200rpm, 16MB buffer....
Také je dost možná rozdíl mezi exFAT a FAT32 v logice ukládání. FAT32 byl dost tragický. exFAT používám jen na flashdisky. Takže zážitek z praxe nemám. Na HDD mám NTFS.
V pohodě to přečte každé blbuntu.
Někdy si ho automaticky otevře pro zápis. Což považuji za chybu. Ale většině to zřejmě vyhovuje.