1.) C a Python? to uz by stalo za to to prepsat cely do C
2.) Proc tu podporu velkejch souboru neprotlaci primo do GITu? ja myslim, ze zrovna tohle by GIT potreboval...
3.) Proc mam tarovat maly soubory do jednoho velkyho a pak je zas rozrezavat na chunky? Ja proste udelam git init v /etc a je to...
Obavam se, ze zustanu u gitu pro onsite zalohy a zalohy veci ktery chci sdilet na internetu a na citliva data, ktera chci zalohovat offsite budu dale pouzivat duplicity (pripadne nejakou nadstavbu)
1. to je docela bezna kombinace: rychlost vyvoje (python) + optimalizace (c) tam, kde je vhodna
2. odlisny zamer: git uz ma jasne danou koncepci i strukturu dat, kterou pouziva spousta dalsiho sw, zmenit ji znamena vlnu nekompatibilit ... bup je nadstavba, velke soubory rozreze pomoci rolling checksum ala rsync. git je pouzit imho zejmena proto, ze neni nutne reimplementovat kolo (packfile, branche).
3. tohle je jen demonstrace moznosti jak skladovat tarove backupy (inkrementalnimi zmenami po chuncich), stejne tak jsou zalohovat napr. image virtualnich masin. Zalohu struktury souboru umi dup save.
Btw, duplicity vypada zajimave, vcetne protokolu pro vzdaleny backup podporovanych out-of-the-box.