Misto hledani parametru cp my lenosi obcas pouzivame mc (se zaskrtlou volbou preserve attributes). XFS je zase nejlepsi prelevat pres xfsdump | xfsrestore.
O upravach fstab jsem se docetl jen v souvislosti se swapem, ale ze je treba taky prehodit dosavadni ne-raid oddily na /dev/mdX jsem prehlednul (mozna jsem slepy).
Poznamka o swapu na dvou discich v souvislosti s vypadkem je zcestna. Kdyz mi jeden disk lehne, tak me tezko zachrani to, ze mam jeste dalsi swap na jinem disku. Castecnym resenim je dat swap na raid1, ale to prinasi zase jine problemy (viz diskuse k minulemu dilu).
Fdisk po ulozeni vola nejake ioctl, po kterem se jadro snazi znovu nacist PT toho disku. Nepovede se mu to (a vyzve k rebootu) v pripade, ze je nejaka partition pouzivana (napr. je na ni swap, je soucasti aktivniho raidu, je namountovana apod.).
Pokud zajistim, ze zadna partition pouzivana nebude, muzu vesele fdiskovat bez rebootu.
ja si teda doma hraju s necim uplne jinym nez SW raid..SW raid je pouzitelnej jako mirror, raid 4,5 je dost hazard, este kdyz sem delal spravu site tak sem to naistaloval programatorum na develop PC, po padu jednoho z disku sem nesehnal ten samej, nakonec me zachranila paska s dumpem..
Presne tak, souhlasim s Jerrym, ze je to nic moc. Kdyz srovnam narocnost instalace softwaroveho Raidu, ze ktereho chci, aby system bootoval (protoze jinak ten raid nemam moc smysl) s hardwarovym, tak ten hardwarovy se instaluje mnohem jednodusseji (z biosu raid radice) a vubec je mnohem lepsi.
ntw
Ad ta narocnost:
SW raid:
- Neni moc vhodny pro vice disku a vetsi zateze
- Neda se nakonfigurovat pres GUI/CUI rozhrani (i kdyz to neni principielni problem - nekdo by takovy program napsat mohl :-)
+ Konfiguruje se stejne na jakemkoli HW
+ Ma na vsech HW konfiguracich stejne rozhrani (/proc/mdstat)
+ Ma na vsech HW konfiguracich stejne ovladani (raidhotadd/remove)
+ Muzu delat ruzna kouzla - napriklad pridat disk a zmirorovat bez nutnosti prelevat data na extra disk.
Ad boot: Pokud nepouzivate initrd, tak je to otazka zmeny radku boot (ktery byste stejne musel menit) a pridani jednoho radku, coz mi neprijde jako moc narocne :-) A i s initrd jsou uz vetsinou distribuce nastavene tak, aby ten boot chodil.
Polo SW raidy on-board:
- Musim si sehnat driver pro Linux
- Je to proprietarni reseni - pokud koupim jiny radic, bude mit pravdepodobne jine ovladani, rozhrani (monitoring tooly!) atp.
+ O trochu mensi zavislost na SW (i kdyz u tehle polo-SW je mozna take problem se swapem, pokud SW cast radice alokuje pamet).
Plne HW raidy:
- Pokud nejsou pres SCSI, stejne musim mit driver pro Linux
- Je to proprietarni reseni - pokud koupim jiny radic, bude mit pravdepodobne jine ovladani, rozhrani (monitoring tooly!) atp.
+ Vetsi nezavislost na OS
+ Vhodne i pro vetsi vyhony
Takze bych to videl takhle:
1) Pokud mate narocne pozadavky, kupte si plne HW raid
2) Pokud potrebujete reseni v jednom pripade a nechcete to moc resit, poohlednete se po polo-SW raidu nebo nejake levne HW karte (i kdyz si stale myslim, ze (cas_vynalozeny_na_hledani + cas_na_konfiguraci + penize_za_kartu) bude nakonec vetsi nez cas_straveny_ucenim_se_a_konfiguraci_sw_raidu).
3) Pokud potrebujete udelat jednoduchy raid na vic pocitacich, naucte se SW raid. Pak ty raidy budete sekat jako Bata cvicky ;-)
P.S.: Muj negativni vztah k SW raidum mozna ovlivnuje i nasledujici zkusenost: Meli jsme pole s deviti disky, z cehoz 5 tvorilo pole1 a 4 pole2 Disky v jednom poli jsme vymenili za vetsi. Aby to BIOS akceptoval, bylo nutne pole1 zrusit a znovu vytvorit. Ale ouha. Pole1 neslo zrusit bez zruseni pole2!!! Takze jsme zrusili pole2, pak pole1, pak je znovu vytvorili a modlili se, aby to to pole2 naslo a data na nem zustala. Zvlast pikantni bylo asi pulhodinove cekani, kdy BIOS psal "pracuji" bez jakehokoli udaje o postupu a my premysleli, jestli neco dela, nebo jestli definitivne vytuhl a my ho mame zresetovat. Nakonec tedy vse dopadlo dobre, ale stejne. To by se mi se SW raidem nestalo :-)
Skutecne externi RAID jsou velmi dobre, RAIDy jze rusit a vytvared dele libosti i slice. jenze cena je od 1/2 milionu do 10 mlionu ... pouzitelne i s disky ~1 Mil Kc
Ale u internich raidu, pokud nestoji tak 50.000Kc jsou mnohe problemy, treba ty, ze kdyz tam date jiny disk se kterim sice vyrobce uvadi kompatibilitu tak vam klidne muze spadnout cele pole (velmi ojedineli priklad) nebo se proste nechytit (casty priklad) ... a pak musite odlit data, vse zrusit koupit znova 3x HDD a vytvorit znova ... coz se vam pri SW raid nestane.
Jerry III: tyhle poznamky taky miluju. Nikdo tu prece netvrdi, ze SW raid je nahradou HW raidu, pripadne jeste drsnejsich reseni. Kdyz ho nechcete pouzivat, tak nemusite, ale tvrzeni, ze to je akorat na hrani, neni pravdive.
Tedy ja znam dost nasazeni, kde linuxovy SW raid je, a za hrani doma to rozhodne povazovat nelze. Muzete s tim nesouhlasit, muzete proti tomu namitat, ale to je asi tak vsechno, co muzete.
Poznamka je myslena spravne, akorat spatne formulovana :-) Bylo tim mineno "po padu disku a rebootu". Pokud bych nechal pouzivat swap jen z jednoho disku, tak po jeho vypadku a rebootu nepojede swap. Coz pochopitelne nemusi vadit.
2 Jerry III: Nejak nevidim souvislost. S tim swapem to neni vec "nekvality" sw raidu, ale toho, ze se dela softwarove a jeho obsluha bezi na stejnem procesoru jako swap demon. Samozrejme datovy sklad pro NASA bych na SW raidech nestavel, ale pro jednodussi pouziti (napriklad jako zaloha proti kleknuti disku v pocitaci) je to podle mne OK.
Zdravim, jsou na netu nejake testy vykonu RAID 0/1/5 ? V RAID HOWTO sice nejake jsou ale delane na muzealnim hardware.
Prozatim jsem nasel nasledujici ale nic poradneho:
http://www.io.com/~kazushi/filesystem/old/
Pouze testy RAID5
http://www.cs.berkeley.edu/~abrown/papers/usenix00/paper.html
Velmi zajimavy clanecek o chovani SW raidu v pripade potizi na ruznych OS. Ale benchmarky zadne.
http://www6.tomshardware.com/howto/20010906/raid-06.html#data_transfer_diagrams
Hezka a povzbudiva sada vysledku (3 disky->120MB/s prumer pri sekvencnim cteni a to neyly pouzity nijak skvele disky, praktickem desktopovem benchmarku +17% pri pouziti dvou disku ) ... ale tykajici se SW raidu ve windows...
http://pcbunn.cacr.caltech.edu/gae/3ware_raid_tests.htm
Testujou ale 16 disku soucasne...
http://www.linuxworld.com/story/32673_p.htm
zde se pise, ze RAID5 je rychlejsi nez RAID0 (???).
Ma smysl delat RAID 0 na desktopu? Jake jsou zkusenosti s disky ruzneho typu v jednom poli (vim, ze HW raidy to nemaji moc rady a vykon jde dolu)?
O RAID1 prilis neuvazuju, stejne me nezbavi nutnosti zalohovat. Disky mi uz samozrejme take nejake umrely ale vzdy se dlouho "loucily" takze jsem zvladl udelat kopie dat.
Jak je to s podporou RAIDu v rade 2.6?
Drobna poznamka: ve vami uvadenem odkazu http://www.linuxworld.com/story/32673_p.htm se nerika, ze RAID5 je rychlejsi nez RAID0. Pouze se tam tvrdi, ze RAID0 SW implementace na Linuxu je neprilis povedena oproti Windowsum cehoz MS vyuzil k ziskani lepsich cisel. Proto navrhovali pro porovnani pouzit RAID5 kde je Linux silnejsi v kramflecich.
Taky jsem kdysi popisoval vytvareni Raid 1. Prakticky se to shoduje s dnesnim navodem, ale to tenkrat lilo snad ani nemelo raid-extra-boot volbu - ale tim to bylo zabavnejsi. Stravil jsem nad tim nejeden vecer a tolikrat jsem kabely v zivote neprehazoval. Zkousel jsem to i v konfiguraci dva disky v Raid 1 a jeden spare na externim radici, to byla jeste lepsi zabava.
http://bbs.inway.cz/search/s.php?i=66152&s=raid
ntw
Zdravim
Clanek je docela v pohode, ctive napsany, akorat mi docela podstatne chybi jedna vec a to je RAID -1, tedy linearni spojeni disku. Je to nedilnou soucasti linuxovyho SW raidu, tak nevim proc nebyl alespon zminen. Sam jsem ho po neuspesnych pokusech s HW raidem compaq smart array pouzil na spojeni 4,5GB+4,5GB+500MB scsi disku.
Takze lehky navod:
modul linear.0 (v kernelu se zapina na temze miste co jine raidy).
v /etc/raidtab staci definovat raid-level -1 a dalsi postup uz je stejny.
Na vsechny disk yjsem dal linux raid autodetect a po vytvoreni a spusteni raidu jsem na nem udelal reisera a je to. Jenom pozor na okamzik zavadeni modulu. Ja ho dal do rc.local. Coz je problem, protoze disky se mountuji z /etc/fstab ponekud drive. takze ho v fstabu nemam a mountuju ho rucne z rc.local.
K tomuto jen jedna poznamka. Ackoliv se to nezda, i u raid -1 je potreba definovat chunk-size, jinak mkraid napise jen "unknown parameter". V clanku na svet linuxu nebo co to bylo byl chunk-size vynechan, po dennim hledani jsem to nakonec vyresil. Bootuji z jineho disku, takze to jsem neresil, ale vpodstate by to melo byt totozne.
Zdenek
No, z nekolika duvodu:
- Je to Linuxova specialitka (respektive to moc nezapada do obecnych RAID levelu)
- Ja to nikdy nepouzival
Me to prijde spis jako featura z oblasti LVM :-)
Ohledne toho chunksize - ja vim, taky proto ho v konfiguraci mam. Podle mne je to spis nedokonalost kontroly vstupu, ktera ten chunksize vyzaduje i kdyz by s ohledem na raidlevel nemel byt potreba.
Mhm, zajimavé. Souhlasím s tím komentářem, co psal že je to spíš feature z oblasti LVM, hi, ale kdysi jsem měl podobný tendence (pytel malejch disků za nic a na nic ;-) Když jsem spočetl příkon takovýho ,,vehementu'' velmi rychle jsem to proklel a šel koupit nowej welkej disk.
...abych skoro citoval jistého velmi známého leopadra. IMHO lze RAID použít k následujícím věcem:
1. Tupé blbé zálohování
2. Zvýšení výkonu
Otázka zvýšení výkonu v případě softwarového raidu je sporná. Nemíním to dále komentovat, ale pokud máte dva pomalé disky tak to může pomoci. (Ale nemusí...) Vidím jednu základní komplikaci. Totiž. Aby to fungovalo, musí být každý z obou disků na separátním IDE kanálu, tj. například hda a hdc jak to bylo v příkladě, ovšem neměly by existovat zařízení hdb a hdd, žeano. To je daný hardwarově. Takže marně přemejšlím, kam například připojit CDROMku, což ale nemusí být na serveru problém, neb zálohovat můžem na pásky, což stejně chce nějakej levnější SCSI řadič. Takže. k zvýšení výkonu říkám ,,za určitých okolností snad''.
Ad 1, neboli zálohování. Tohle je vžitej blud. Osobně miluju vžitý bludy. RAID (a zhola jedno jestli hardwarovej nebo softwarovej) se totiž nedá použít jako zálohování. RAID principielně vyřeší problémy, který vzniknou mechanickou chybou disku a to ještě jenom někdy. Totiž. Jakým procesem definuju, kterej z těch dvou disků v raidu je ten špatnej? Co když dostanou záchvat současně. (A tohle není nemožný, na to stačí blbej zdroj.) Ale předpokládejme, že se tohle nestane. RAID sám o sobě totiž z principu funkce neřeší situace vzniklé chybně napsaným softwarem, chybou uživatele, nebo něčím podobným. Ze zkušenosti vím, že tyhle potíže jsou častější, než chyba hardwaru. Takže aplikace RAIDu mě nezbaví nutnosti zálohovat, kdežto pravidelné zálohování dokáže víceméně vyřešit i problém chyba hardwaru.
Závěr:
(pokud jste dočetli až sem tak gratuluji)
* RAID doma nemá opodstatnění. Vím, na čem pracuju a to si zálohuju (já osobně na DDSky).
* Softwarový RAID má smysl na serveru malé firmy, aby uživatelé s nějakou pravděpodobností nepřišli o data od posledního zálohování. Leč IMHO nemá cenu z toho bootovat, je to tak dobrý na disky s uživatelskými daty, zbytek systému se obnoví ze záloh, když to bude potřeba.
* Hardwarový RAID má smysl jen tehdy, když umí hotswap a má to smysl u velkej věcí, nebo tam, kde prodleva stojí moc peněz. Ale je třeba si vyzkoušet, že to jednak jde skutečně hotswap, druhák to chce mít v záloze dostatečný množství disků.
Pozn:
Osobně nechápu smysl RAIDu na nějakým stroji, kterej dělá router (ikdyž jsem to už viděl). Tam je daleko lepší mít v záloze disk s předinstalovaným softwarem routeru a v případě havárie jenom přehodit. Konfigurace se nemění zas tak často. (Takhle to dělám já a osvědčilo se mi to.)