Riesim akurat synchronizaciu na sposob bidirectional rsync... 1 master + 3~4 geograficky oddelene slave, pre pripad straty spojenia. Klienti vzdy budu pracovat s datami zo slave. Konflikty pri editovani jedneho file viacerymi kludne moze riesit tak ze vytvori viac kopii suborov a klienti si to potom mergnu. Pozna niekto nieco lepsie ako unison? Dik za akekolvek nakopnutie spravnym smerom
Samba folder namapovany u uzivatelov. Tam nie je treba sledovat verzie a 99% suborov je human-unreadable kde by nemalo zmysel vediet ako sa ten subor binarne zmenil.
Potrebujem len aby ked uzivatel na mieste X ulozi subor, tak aby ked precestuje na druhu stranu krajiny ten subor nasiel. Preco to nechcem riesit len jednym centralym bodom je - vsade je tam pomale asynchronne pripojenie a relativne vela userov. Preto hladam riesenie na lokalny "working directory" ktory zmeny distribuuje na ostatne nody. Unison sa zda byt tym spravnym riesenim, ale zistujem ci nahodou neexistuje aj nieco lepsie
Tak jim hlavne nerikejte, ze SSHFS funguje i na Windows ;) http://code.google.com/p/win-sshfs/
Jeste existuje tohle: http://dokan-dev.net/en/download/ . Netusim, v jakem je to stavu, uz leta jsem nezkousel. Kdysi to chodilo, ale ne na kazdem stroji a obcas to padalo, asi v zavislosti na pocasi. Je mozne, ze se to zlepsilo.
ne, jednotka tam byla primountovana. v totaci mi odpovidala, v totaci by zkopirovani trvalo asi bambilion let a procak byl vohulenej. jeste dalsi na seznam tech co neobstali pri zalohovani z takove jednotky je cobian backup. zkousel jsem jeste asi dva dalsi programy na pripojeni sftp jako drive (priznavam, jeden jsem mel asi dva dny cracknuty, jen jsem pred koupi chtel vedet zda opravdu funguje) v kombinaci s vyse zminenymi nakonec jsem si s pomoci znameho napsal .sh skritp ktery volam pres windows planovac pres bash.exe a funguje proste paradne. Rad se necham poucit od nekoho kdo ma jine FUNKCNI, vyzkousene a pracujici reseni jak zalohovat cca 6GB webů (vetsina jsou php soubory, na dvou projektech je to neco jako IS takze tam jsou nahrane objednavky a tak). Uz si nepamatuju 100% ale myslim ze byl jeden program ktery vypadal ze to zvladne ale byl za asi 2000,- což se mi nechtelo. Pak byl myslim jeden program ktery by to zvladal, ale nepobral keyfile nybrz pouze heslo a to jsem opravdu nemohl v mem pripade.
Urcite vyse zmineny ssh+rsync by mohl byt pro pravidelne zalohy to optimalni. Jde o to, aby ten nastroj umel na serveru spocitat sumu souboru, na klientu spocitat sumu souboru, a kdyz jsou ruzne, tak soubor stahnout. Diky tomu se pri pravidelnem zalohovani stahuji jen zmeny. (Na serveru i na klientu se ty soubory musi cele precist, ale prenasi se jen rozdily.) O neco mene bezpecne, ale stale velmi funkcni reseni je vykaslat se na sumy a brat to jen podle casu zmeny. Rsync to stale umi dobre. Pak uz s lokalni vyrsyncovanou kopii muzete delat co chcete.
sshfs používám a je to fain, ale má to jednu velkou nevýhodu. Když vypadne na delší dobu síť nebo jen daný stroj… všechny programy využívající soubory přes sshfs se zmrazí a někdy přestane odpovídat celý systém. Už jsem si na to udělal shortcut, kdy se mi všechny sshfs oddíly umountnou, po čemž se vše zase rozběhne. Kdyby se sshfs zvládlo s tím poprat, bylo by to bezvadný.
Presne na toto som sa chcel spytat. Existuje nejaky sposob, ako SSHFS donutit odpojit sa / crashnut pri vypadku? Momentalne to u mna funguje asi ta, tak, ze cela vetva filesystemu zamrzne a musim to riesit cez umount -lf a kill -9 na proces sshfs. Pouzivam sshfs prakticky nepretrzite a tato jeho vlastnost je maximalne otravna.
Nechcem riesit to, ze sa po case timeoutne, potrebujem riesit to, ze v takom pripade filesystem zamrzne. Timeout nieje jediny dovod rozpojenia, stava sa to i pri dlhsom vypadku siete, uspati notebooku, vypnuti "serveru," proste hocikedy.
Ale i tak dakujem za tip, toto by mohlo mnozstvo zamrznuti aspon znizit.
v auto.master:
/ssh /etc/autofs/auto.sshfs uid=500,gid=500
/etc/autofs/auto.sshfs :
#!/bin/sh
SERVER=$1
echo ' -fstype=fuse,rw,nodev,nonempty,noatime,allow_other,max_read=65536 :sshfs\#'$SERVER'\:/'
potom mozem pristupovat na servre cez /ssh/server2/adresar/....
autofs sa postara o samo-umount