Velmi pekny clanok. Co sa tyka volby komprimacnych programov gzip vs. bzip2 vs. ssh -C, pri takychto operaciach s velkymi subormi sa mi asi najlepsie osvedcila volba gzip --fast. Totiz rozdiel medzi --fast a --best je minimalny co sa tyka komprimacie, ale dramaticky co sa tyka casu. Z vlastnych skusenosti viem, ze gzip --best sa priblizne rovna bzip --fast (samozrejme je to "data dependent"), ale gzip je rychlejsi. Co sa tyka ssh -C, ssh pouziva na kompresiu gzip so standardnou urovnou kompresie -6, co sa da zmenit niekde v konfiguracnych suboroch (urcite pre server, neviem ako je to s klientom; principialne gzip komprimacia umoznuje, aby napr. od klienta k serveru isli data komprimovane -6 a naopak -1).
Clankov o zalohovani celych strojov/particii je vacie mnozstvo, ale pravdupovediac som este nenasiel poriadny a podrobny clanok o napr. hodinovej zalohe adresara s aktualne rozrobenym projektom, inkrementalnych zalohach, verzovani suborov, zalohovani adresarovych stromov cez CVS... A prave toto by som potreboval - pouzivam linux ako desktop, v podstate jediny dolezity adresar je ~/work ktory ma cca 30MB a zalohujem ho hodinovo (cez cron) na iny fyzicky disk na lokalnom pocitaci a raz denne (nadranom, tiez cez cron + ncftpput) na remote server. Je to primitivne, ale zatial to funguje. Rad by som si ale precital nejaky dobry clanok o elegantnejsich metodach, ako to urobit. To mala byt inspiracia...