Tak jim hlavne nerikejte, ze SSHFS funguje i na Windows ;) http://code.google.com/p/win-sshfs/
Jeste existuje tohle: http://dokan-dev.net/en/download/ . Netusim, v jakem je to stavu, uz leta jsem nezkousel. Kdysi to chodilo, ale ne na kazdem stroji a obcas to padalo, asi v zavislosti na pocasi. Je mozne, ze se to zlepsilo.
ne, jednotka tam byla primountovana. v totaci mi odpovidala, v totaci by zkopirovani trvalo asi bambilion let a procak byl vohulenej. jeste dalsi na seznam tech co neobstali pri zalohovani z takove jednotky je cobian backup. zkousel jsem jeste asi dva dalsi programy na pripojeni sftp jako drive (priznavam, jeden jsem mel asi dva dny cracknuty, jen jsem pred koupi chtel vedet zda opravdu funguje) v kombinaci s vyse zminenymi nakonec jsem si s pomoci znameho napsal .sh skritp ktery volam pres windows planovac pres bash.exe a funguje proste paradne. Rad se necham poucit od nekoho kdo ma jine FUNKCNI, vyzkousene a pracujici reseni jak zalohovat cca 6GB webů (vetsina jsou php soubory, na dvou projektech je to neco jako IS takze tam jsou nahrane objednavky a tak). Uz si nepamatuju 100% ale myslim ze byl jeden program ktery vypadal ze to zvladne ale byl za asi 2000,- což se mi nechtelo. Pak byl myslim jeden program ktery by to zvladal, ale nepobral keyfile nybrz pouze heslo a to jsem opravdu nemohl v mem pripade.
Urcite vyse zmineny ssh+rsync by mohl byt pro pravidelne zalohy to optimalni. Jde o to, aby ten nastroj umel na serveru spocitat sumu souboru, na klientu spocitat sumu souboru, a kdyz jsou ruzne, tak soubor stahnout. Diky tomu se pri pravidelnem zalohovani stahuji jen zmeny. (Na serveru i na klientu se ty soubory musi cele precist, ale prenasi se jen rozdily.) O neco mene bezpecne, ale stale velmi funkcni reseni je vykaslat se na sumy a brat to jen podle casu zmeny. Rsync to stale umi dobre. Pak uz s lokalni vyrsyncovanou kopii muzete delat co chcete.