taky jsem pred 5 lety skladal cluster kolegum co delaji molekularni simulace.
a bylo to jednoduche, stacilo spojit nekolik pocitacu do gigoveho ethernetu,
dns se nepouzilo, z uzlu na uzel se dostalo pomoci rsh nebo ssh, domovsky adresar a nejake programy se sdilely v NFS, uzivatele a hesla se resily kopirovanim souboru na uzly a veskere schopnosti pro paralelni programy zajistovala knihovna MPI. zadny extra soft se nemusel pouzit.
Presne tak, na par takovych clusteru jsem pocital, maximalne myslim kolem 25 uzlu, zadny specialni soft tam nesel, vse pres MPI. Aspon to nedelalo bordel a nerozdazovalo to load balancing. Pocital jsem na par masinach se specialnim softwarem, ale pro mne jako uzivatele nic noveho neprinasel (jen to, ze jsem se musel hlasit do fronty a nedaly se killnout zatuhle procesy jinak nez telefonem adminovi nebo ze jsem mel teoretickou moznost migrovani procesu, ktera nefungovala).
Pro administrovani se nejaky clustrovy system hodi, zjednodusuje to zpravu a dava konzistenci (neni nad to mit na kazdem nodu jinou vezi sdilenych knihoven pro X a hledat, proc paralelni program nahodne segfaultuje).
Clanek mi prijde trochu o nicem – ala „koupil jsem si 4 PC a nainstaloval na nich soft, kterej nema dokumentaci a nechodi“