Pravidelné nakládání s desítkami gigabajtů, to už chce 100Mbit linku *oběma* směry.
Mám 5GHz wifi spoj, který utáhne 70Mbit (cca, up+down dohromacy), ale omezení mám na 10Mbit/10Mbit, tzn cca megabajt za vteřinu, což lze vcelku triviálně přepočítat na cca 3.5 gigabajtu za hodinu, takže přetažení tří desítek gigabajtů
se protáhne na celý den.
Naproti tomu kdo ale v domácim nakládá s daty v takhle velkém měřítku? Jako postačujících bych viděl, když jednou odzálohuji všechny svá data (řekněme ty desítky GB) a pak se postupně dohrávají ty nové věci (které už budou řádově menší). Takže pokud s 10M uploadem trvá první nahrání den a další už běží v rozumném čase, tak mi to přijde OK. Samozřejmě pokud má někdo na up 256kbps, tak těch prvních 30GB nenahraje asi nikdy...
Záleží kolik toho člověk vlastně potřebuje pravidelně zálohovat. Když jsem nedávno koukal na svůj archív a historii záloh (používám BackupPC), zjistil jsem, že:
* většinu dat mám konstantních. Zálohy školních projektů, e-knížky, manuály, dokumenty starší 3 let ... A přistupuji k ním zřídka kdy. Klidně bych mohl odzálohovat na nějaké read-only médium.
* z často se měnících dat zabírá hodně sync / cache emailů. To ale není potřeba řešit, data jsou zálohována na úrovni poštovních serverů.
* dále checkouty projektů - neřeším, stáhnu znova
* všechno ostatní se vejde do 100-300M a mění se velmi pozvolna (IRC logy, rozpracované projekty, aktuální dokumenty, nastavení aplikací) a jsem schopen průběžné zálohovat rsyncem i přes mobilní síť.
A ten druhý případ je právě to, na co je Cyphertite stavěný. Pokud někdo potřebuje zálohovat desítky TB serverových dat a stovky TB jinak nezískatelných filmů, pak to není práce ani pro Cyphertite, ani pro linku s 1M uploadem :)