Cas od casu vyvstane potreba (pri upgradu pocitace) pretahnout kompletne cely stary system na novy disk. Pote, co jsem s partimagem nemel prilis uspechu, pouzil jsem zminenou catovou cestu, ale jeste obecneji, tzn. s parametrem /dev/hda. Uplne tak odpadla potreba partitionvat a starat se o bootloader. Kdyz byl cilovy disk vetsi, stacilo jen hotove partitiony resizenout...
Co se tyce minidistribuce, docela se mi zamlouva Knoppix. Je to postaveny na Debianu, bootoje to rovnou z CD a vzdycky jsem tam nasel, co jsem potreboval...
Ja jako minidistribuci vetsinou pouzivam instalacni cdcko gentoo linuxu (i kdyz gentoo nepouzivam), ma asi 9 MB a obsahuje podporu site, xfs, jfs, lvm, radu, proste vseho co se muze kdy hodit. Ale chce to nejmene 64Mb pameti, ten ramdisk je skutecne giganticky. Jinak si samozrejme muze kazdy vyrobit vlastni minidistribuci pomoci nastroje bootcd z debianu.
Kdyby se ciste nahodou nekomu hodil program, ktery funguje jako dd, ale po siti a umi kopirovat na vice pocitacu najednou, tak jeden takovy jsem nedavno vytvoril. K dokonalosti ma dost daleko, ale pouzit se snad da. Vpodstate urychli kocici metodu ;-) prave tim ze kopirujete na vsechny stroje jednim broadcastem.
http://jikos.cz/~jbohac/ndd
Je tam i odkaz na nejakou propracovanejsi konkurenci (kterou jsem ale nezkousel).
Viete mi poradiť nejaký sposob na vytvorenie CD, ktoré po nabootovaní placne diskimage na disk (dva disky spojene do RAID1). Je najaký projekt, ktorým sa dajú takéto CD vytvoriť už zo skonfigurovaného stroja? (Nemám k dispozícii sieť a potrebujem vytvárať identické klony a budú ďaleko od seba.)
Uvedený text se týká obecně tvorby bootovací CD. Původní tazatel (a já se k němu připojuju) se chtěl zeptat, zda není hotový projekt, který vytvoří bootovatelné CD, které po totální havárii disku či celého stroje obnoví systém (data se poté obnoví ze zálohy).
Pokud nic takového neexistuje, je to škoda, možná najdu čas a zkusím něco takového vyrobit. Jako slušný základ by šlo využít debianí instalace.
2 poznámky ke kompresi:
1) ssh umí kompresi samo, viz man ssh, parametr tusim -c
2) předpokládám-li, že mám k dispozici 100M LAN, takže průtok kolem několika MB/s, tak na kompresi bzip2, která to nebude brzdit, potřebuju celkem výkonný CPU (a paměť). Podle mě to za těch pár procent, které ušetřím proti gzip, nestojí.
Pokud ovsem budes instalovat Wokna tak ty udelaj takovej bordel ze ty nuly se stejne prepisou. Pak je lepsi nejdriv nainstalovat system pak si v Linuxu pripojit treba do /mnt ten disk a dat
cat /dev/null >/mnt/nuly
sync
rm /mnt/nuly
Tim veskerej volnej prostor zaplnis nulama a pak ho uvolnis. Bali se to mnohem lip.
Docela by mě zajímalo, jaké používáte minidistribuce. Já jsem začínal s flufem, potom looplinux a teď leka.
1. Znáte nějakou minidistribuci, která by podporovala ext3?
2. Znáte takovou, kde by se jako parametry pro mount v -o dalo zadat codepage=852 a iocharset=iso8859-2 (to nevadi, ze tam nejsou fonty, chci to kvuli tomu, kdyz kamaradum zachranuju zhavarovana wokna - nekdy to jinak nejde a oni mivaji v nazvech souboru diakritiku, coz bez tech options pridelava problemy).
Velmi pekny clanok. Co sa tyka volby komprimacnych programov gzip vs. bzip2 vs. ssh -C, pri takychto operaciach s velkymi subormi sa mi asi najlepsie osvedcila volba gzip --fast. Totiz rozdiel medzi --fast a --best je minimalny co sa tyka komprimacie, ale dramaticky co sa tyka casu. Z vlastnych skusenosti viem, ze gzip --best sa priblizne rovna bzip --fast (samozrejme je to "data dependent"), ale gzip je rychlejsi. Co sa tyka ssh -C, ssh pouziva na kompresiu gzip so standardnou urovnou kompresie -6, co sa da zmenit niekde v konfiguracnych suboroch (urcite pre server, neviem ako je to s klientom; principialne gzip komprimacia umoznuje, aby napr. od klienta k serveru isli data komprimovane -6 a naopak -1).
Clankov o zalohovani celych strojov/particii je vacie mnozstvo, ale pravdupovediac som este nenasiel poriadny a podrobny clanok o napr. hodinovej zalohe adresara s aktualne rozrobenym projektom, inkrementalnych zalohach, verzovani suborov, zalohovani adresarovych stromov cez CVS... A prave toto by som potreboval - pouzivam linux ako desktop, v podstate jediny dolezity adresar je ~/work ktory ma cca 30MB a zalohujem ho hodinovo (cez cron) na iny fyzicky disk na lokalnom pocitaci a raz denne (nadranom, tiez cez cron + ncftpput) na remote server. Je to primitivne, ale zatial to funguje. Rad by som si ale precital nejaky dobry clanok o elegantnejsich metodach, ako to urobit. To mala byt inspiracia...
Tento clanek je jiste podnetny a je dobre, ze se (konecne) toto tema na rootu objevilo.
Uvedena reseni ovsem maji radu nedostatku, ktere je (ty reseni) vyrazuji z aplikace ve vetsich sitich, jakymi jsou napr. ty univerzitni:
1. Kopirovani celych partition po siti neni zrovna efektivni, zvlaste, chcete-li je provadet kazdodenne, jak by tomu melo byt.
2. Prepdoklada, ze administrator bude obihat vsechny stanice a sedet u kazde z nich, dokud nedostane pocitac do pozadovaneho stavu.
Dalsi komplikace v podstate vyplivaji z techto dvou omezeni.
Velkeho usnadneni administrace zejmena pc uceben dosahnete pouzitim napr. nfs-root serveru, ze ktereho klient nabootuje minisystem, ktery postupne (automaticky ze skriptu v initu) zkontroluje rozdeleni disku oproti vzoru a rsyncem sesynchronizuje soubory v kazde z partition. Partimage by se pak pouzil pouze vyjimecne -- na zcela znicene systemy (napr. poskozene zavadece Windows apod.)
Myslim, ze toto tema je ohromne siroke a autor by jej v nejakem dalsim clanku mohl vhodne rozvest :)
a tak rovnou k veci: To sem si takhle jednou prohlizel fotky v linxu kdyz najednou: tyve letadlo ze zadu do hlavy, celni stret. rozdejchavam ten sok a v tom ponorka ze strany do hlavy(celni stred). az pak ty kreteni vypli kolotoc.....................
Sory ze nekecam k tematu, ale muselo to ven:-)