Základom každej pevnej a bezpečnej stavby sú základy. Darmo budem mať dom z pevnej oceľovej konštrukcie postavený na základoch z prehnitých trámov.
Rovnako ako dom, tak ani server si nepostavím síce na pevnom a bezpečnom linuxovom jadre, kde v strojovni ma bude kontrolovať spráchnivelý základ od M$ prelezený červotočom od NSA.
Ano, kdybych stavěl "dům", tedy plnohodnotný a výkonný server, tak nepoužiju virtualizaci. Prakticky všechny virtualizační nástroje mají nějaký problém s výkonem disků, protože IO scheduler OS nepočítá s IO schedulerem virtualizačního nástroje.
Pokud ale budu zakládat zahrádkářskou kolonii, tak jsou mi nějaké základy úplně šumák.
Protoze to predevsim nese vatu a vata je uzitecnejsi pro iinfo nez bezny mistni ctenar ktery ani neklikne na reklamu. Do te doby dokud jich je dostatek. Je potreba najit spravnou hranici kdy to ctenar jeste snese a iinfo dostane stale dostatek vaty. Ridit tohle mohou docela dokonale ctenari svym jednotnym nazorem. Cim nejednotnejsi, tim vetsi vata pro iinfo od MS, protoze tim se bude root zdat ctenejsi a i pro MS pritazlivejsi.
Zpráchnivelý je Linux. Je to klon půl století starých Unixů, se všemi jejich nectnostmi. Větším problémem je ale design, resp. absence designu. NT jsou generačně novější a byly navržené od začátku daleko kvalitněji. Lepší jádro, lepší GUI, lepší řešení tisku, lepší správa služeb, snazší administrace, širší a lépe dokumentované API, více funkcionality.
Podle mě je dobré, že MS umožňuje zákazníkům použít v MS Azure i Linux. Pokud firma běží Windows, je Azure dobrá volba. Pokud k tomu potřebuje běžet i nějaký Linux, je fajn, že to může běžet ve stejném cloudu.
Všechno co jsem napsal jsou prostá technická fakta. Pokud je podle vás lepší systém s příšernou latency, "navržený" s BKL a bez multithreadingu, se zobrazováním X11 bez vazby na tisk, bez service manageru a hromady dalších API pro správu, s administrací primárně přes command line utility, s mizernou dokumentací a značně omezeným API, tak je problém na vašem přijímači.
Koukněte se na Windows nebo MacOS. V obou případech na úrovni API nějakou plochu, po které kreslíte. Ta plocha může být obsah okna, nebo stránka tiskárny. Pokud chcete zobrazit dokument nebo grafiku, necháte svůj kód kreslit do kontextu okna (případně komponenty v tom okně). Pokud chcete tisknout, tím samým kódem kreslíte po tištěné stránce, a nakonec jen řeknete "stránka je hotová".
Minimálně v případě Windows exportují i drivery pro grafickou kartu a tiskárnu stejné funkce. Pokud dané zařízení něco neumí (řekněme grafická karta neumí kreslit křivky), GDI to převede na jiné operace, případně danou věc vyrastruje.
Z hlediska autora aplikace je to super, protože používá ten samý kód pro kreslení do jakéhokoliv kontextu. Z hlediska GDI i autora driveru je to také super, protože se používá velmi podobný driver model pro kreslení po více typech zařízení.
Na Unixech máte standardně na zobrazení X11lib, což je pravěká příšera, kterou měl dávno někdo popravit. Na tisk máte k dispozici leda print spooler, a obsah si musíte vygenerovat sám. A pak se nad tuhle hrůzu lepí věci jako Cairo, které má na jedné straně API se surfaces (obdoba GDI contextu), a na druhé straně různé úplně odlišné back-endy s naprosto odlišnými vlastnostmi, jako je PostScript, Xlib, Xlib s X Render extension a XCB. Pokud chcete tisknout na běžnou PCL tiskárnu, nejspíš v Cairu vygenerujete PS nebo PDF, a pak to proženete RIPem, aby to celé bylo čistší a elegantnější. A k tomu se paralelně už od roku 2008 píše Wayland (ať žije rychlost), a teď i samozřejmě Mir, přičemž Cairo neumí ani Wayland ani Mir, a Wayland ani Mir pro jistotu neumí vzdálený přístup po síti. Jistě se shodneme, že je tohle není dobrý design, ale fialový radioaktivní hnus.
Mám produkční linuxový server už asi 4 roky a ještě vživotě jsem nepotřeboval nic rendrovat pro lokální tisk, stejně tak jako jsem nepotřeboval žádné lokální GUI. Co s tím GUI pořád máte? 90% věcí spáchám v lokální query, zbytek v term. Ve firmě máme 10 linux serveru, ani jeden s GUI. Zkoušel jste někdy nastavit v GUI FW? Zkoušel jste někdy v GUI nastavit 50ti skupinám práva na adresářovou strukturu?
Nevím jak spravujete servery vy, ale mi GUI tak akorát zvedá tlak. Běžte s ním do nejtemnějšího otvroru!
Blábolíte tady pěkné nesmysly.
Na většině serverů toho moc zobrazovat a tisknout nepotřebujete. Také si všimněte, že když už se Linux dostane do nějaké firmy, zpravidla bývá v roli serveru, kde zrovna tisk a GUI není tolik potřeba. Naopak na desktopech Linux propadl.
Firewall přes GUI občas nastavuji. Kdybych to dělal každý den, možná bych použil konzoli.
Nastavování práv chce na prvním místě analýzu, pak návrh, typicky v Excelu. Nakonec ty permissions nastaví buď makro přímo z Excelu, nebo skript v Excelu vygenerovaný.
Konzole má při administraci své místo, ale řadu věcí je daleko snazší dělat z GUI - pokud tedy zrovna nesedíte u nějakého Unixu :). Jinak souhlas, z GUI na Unixech se mi také zvedal tlak.
http://www.top500.org/statistics/list/
Linux bezi na 96% nejvetsich superpocitacu sveta. Jak to vysvetlis? Pokud je tak priserny, zrejme to znamena, ze osatni OS jsou jeste horsi :P
Superpočítače jsou v naprosté většině případů gridy. Jde o spoustu racků, do kterých jsou typicky naskládané x84-64 PC, pospojované v nejjednodušším případě gigabitovým ethernetem, případě něčím lepším, jako je InfiniBand. Řídící počítač rozkouskuje úlohu - kdyby to bylo rendrování animovaného filmu, každému nodu by přidělil nějaké snímky, které se rendrují prakticky nezávisle. V podstatě můžeme říct, že grid je něco jako SETI@home v jedné serverovně.
Teď se zamyslete, co musí umět node takového gridu. GUI, grafiku a tisk? Nody ovládáte vzdáleně a nemají grafiku ani tiskárnu. Nízkou latency kernelu? Nepracujete s multimédii ani nereagujete na časově kritické události. Dobrou SMP škálovatelnost? Node má jednotky jader CPU. Výkonný multithreading? Kalkulace vám klidně mohou běžet v procesech, nebo v pár threadech. API které umí všechno možné i nemožné? Potřebujete běžet jen poměrně primitivní program, který míchá s daty, a API OS využívá minimálně. Node musí umět jen správu procesů, paměti, a nějaký ten networking, aby si vyzvedl úlohu a předal (mezi)výsledky.
Tak proč byste platil za OS na každý node, když můžete mít zdarma OS, který umí vše potřebné?
Samozřejmě tenhle přístup má i svá omezení. Za týden postavíte grid s vysokým teoretickým špičkovým výkonem, a pak kolem něj půl roku skáče velká spousta lidí, aby z něj nějakou část toho teoretického výkonu vymlátila. A pak většinu těch lidí máte na krku do smrti (v lepším případě toho gridu), protože ho musejí opečovávat. Pokud se vaše společnost jmenuje DARPA, Lawrence Livermore National Laboratory, Los Alamos Neutron Science Center nebo NSA, jistě potřebujete velmi vysoký výkon, a nemáte problém zaměstnat všechny ty lidi, kteří vám grid nastaví a budou udržovat.
Pokud ale jde o pojišťovnu vyhodnocující finanční rizika, automobilku pracující na optimalizaci aerodynamiky, vlastních frekvencí a deformací, případně výzkum v oblasti genetiky, najednou to není to pravé. Takový zákazník nepotřebuje nejvýkonnější superpočítač na světě, a určitě nechcete platit hromadu lidí, kteří okolo něj budou skákat. Proto si koupí Windows HPC. Za pár dní firma přiveze racky, zapojí je, nainstaluje SW, a je hotovo. Můžete jet prakticky ihned, bez pokusů, dlouhého ladění a vývoje. A když chcete něco vyvíjet, máte k dispozici Visual Studio včetně remote debuggingu. Plus samozřejmě můžete vlastní výpočetní výkon doplnit cloudem, například MS Azure, případně do něj aplikaci kompletně přesunout.
Odpověděl jsem na vaši otázku?
To nemyslite vazne, technicky vyvratit taky rekordne dlhy prispevok to by dalo riadne zabrat.
No kde zacat predpokladam ze ste nemyslel x84-64 PC ale x86-64. Podla http://www.top500.org/ je v top10 polovica x86-64. Potom su tam spaky, poverpc NVidia grafiky.
"Teď se zamyslete, co musí umět node takového gridu...... Nepracujete s multimédii ani nereagujete na časově kritické události. "
To keby som tak vedel ako IBM alebo HP robi svoje superpocitace :-) ale ked sa zamyslim tak synchronizacia je casovo kriticka operacia. Ked to prirovnavate k polickam filmu v prvom odstavci tak preco to v druhom vyvraciate?
"Za týden postavíte grid s vysokým teoretickým špičkovým výkonem, a pak kolem něj půl roku skáče velká spousta lidí, aby z něj nějakou část toho teoretického výkonu vymlátila."
Neviem kde som videl take video kde stavali superpocitac v USA, mali tam problem ze im na napajanie vychadzali medenne kable neuveritelnych prierezov uz si nepametam ako to vyriesli. V kazdom pripade len tak niekto nepostavi superpocitac, a ak hovorite o tyzdni na postevenie superpocitaca tak asi o problematike nemate predstavu. Co by tam asi tak toho pol roka po postaveni ty ludia robili? Kopali do toho aby to slo rychlejsie? :-).
A este to GUI ktoremu venujete taku pozornost. Zamyslat sa ci v superpocitaci je nejake GUI je ako spekulovat ci je vlajka na leitadlovej lodi z bavlny. Nikdy Vas tam nepustia aby ste sa pozrel a keby som uz bol na lietadlovej lodi urcite by som si pozeral ine veci.
Ad ste nemyslel x84-64 PC ale x86-64 - souhlas
Ad v top10 polovica x86-64 - souhlas, a v top500 je to okolo 80%:
http://upload.wikimedia.org/wikipedia/commons/e/ef/Processor_families_in_TOP500_supercomputers.svg
Ad synchronizacia je casovo kriticka operacia - node si vezme job ze serveru (řekněme model 3D scény), velmi dlouho počítá nad daty která dostal (rastruje snímky), nakonec předá výsledek na server (uploaduje snímky) a jde si pro další job. Žádné časově kritické události tam nejsou. Ty můžete naopak najít při práci s multimédii, řízení technologických procesů apod.
Ad ak hovorite o tyzdni na postevenie superpocitaca - je to spousta racků nacpaných typicky x86-64 HW. Samozřejmě řešíte napájení, chlazení atd., ovšem při projektování, ne při vlastní stavbě (a to se samozřejmě týká i každé větší serverovny).
Ad Co by tam asi tak toho pol roka po postaveni ty ludia robili - instalují (a mnohdy píšou) řídící SW, SW na nodech, konfigurují, pracují na paralelizaci úlohy, minimalizují nutnost předávání dat mezi nody (protože to je mnohem náročnější než operace nad pamětí nodu), a mnohokrát dokola zkouší, ladí, rekompilují, instalují, konfigurují, patchují, administrují nody...
Ad GUI - až na poslední otázku byla v druhém odstavci odpověď vždy "není relevantní". GUI se týká jen řídícího nodu.
http://sourceforge.net/p/unicore/bugs/_discuss/thread/c2bfaf0f/5ed1/attachment/URC-Screenshot.jpg
A to stale trvate na tom ze serverovnu postavite za tyzden?
Node (povedzme ten xenon) si zoberie model 3D sceny, renderuje ho 10 sekund, cize 100 000 tisic nodov zrenderuje naraz 100 000 3D scen kazdemu to trva priblizne 10 sekund a vsetky to chcu naraz zapisat na ten server co ho tam spominate. Tam nic casovo kriticke nieje? Ak by to ten server nepolozilo tak by to aj tak trvalo dalsich 1000 sekund :-).
Takze Vasa predstava je ze IBM zmontuje superpocitac za tyzden. Za tyzden odovzda kluce od serverovne zakaznikom a neda im k tomu ziaden software, dokonca si ho zakaznik vyvija sam za pomoci hromady administratorov?
Ad stale trvate na tom ze serverovnu postavite za tyzden - mluvil jsem o počítači, ne o stavbě serverovny pro něj :). Koukněte se do nějaké větší serverovny, a představte si tam samé blade servery. Ty tam dostanete poměrně rychle, a rychle je i zapojíte.
Ad renderuje (snímek) 10 sekund - jeden snímek se rendruje průměrně 2-3 hodiny. U filmu Cars 2 to bylo průměrně 11.5 hodiny na snímek, u nejsložitějších scén 90 hodin na snímek. Časově kritické operace vypadají úplně jinak. Řízení reaktoru, přehrávání MIDI na koncertu, přehrávání videa v news roomu nebo v kině...
Ad neda im k tomu ziaden software, dokonca si ho zakaznik vyvija sam - SW můžete dostat, ale řada zákazníků si píše části ve vlastní režii. Záleží na aplikaci. Pokud potřebujete distribuovaný MATLAB, dostanete všechno od dodavatele. Pokud chcete provádět jednoduchý brute force attack, vyjdete asi z existujícího kódu, obalíte ho nějakou omáčkou pro nody, a na straně řídícího nodu budou stačit drobné úpravy. Pokud půjdete do jiné kryptoanalytické techniky, čeká vás s největší pravděpodobností spousta vývoje a pokusů. Samotná stavba superpočítače je ta méně náročná část.
Toto je pribeh z davnych cias ked cena mainframov bola zavratna a cena software malinka.
Dojednaval sa velky kontrakt, po dlhych a vycerpavajucich rokovaniach sa obe strany hohodli aky HW sa pouzije, ale posledny den pred podpisom sa jeden manager kupujucej strany nejako vrtel a cez prestavku prisiel k hlavnemu obchodnikovi predavajucej strany a tichucko sa spytal "A date nam aj nejaky software?"
A to je pravda a zjem svoj klobuk ak by som vam klamal.
Mne ziaden spam nechodi :-).
Myslel som ze to necham tak ale proti takym hlupostam sa jednoducho musim ozvat. Samozrejme Vas asi nepresvedcim ze serverovna sa neda postavit za tyzden, kto to niekedy robil sa tomu zasmeje kto nie tak ten Vam mozno uveri.
Zato taka predstava ze superpocitac rozdeli vypocet na kusky ktore sa robia 11 hodin sa da logicky vyvratit. Predstavte si ze pocitate na 100 000 procesoroch 100 000 snimkov. Vtedy sa vyuzitie pocitaca blizi 100%, co ale ak pocitate 100 001. Za 11 hodin to vypocita tych 100 000 snimkov a zvysny 1 snimok bude pocitat jedno jadro dalsich 11 hodin, ostatene jadra budu zahalat. V takomto pripade vyuzitie stroja bude 50%. A prosim nenapiste mi nejaku hlupost typu ze tie pocitace vtedy pocitaju snimky z filmu cars3 pretoze vetsina vypoctov je iteracnych, na to aby vedel pocitatac vypocitat ake bude pocasie v 4 hodine musi mat vypocitane ake bude pocasie v 3 hodine. V skutocnosti su pre taketo vypocty vzdy najvyhodnejsie co najmensie kusky.
Tiez je mi zahadou preco si myslite ze Linux nevie riadit elektrarne pretoze nema podla vas "Nízkou latency kernelu". Uistujem Vas ze na linuxe/unixe bezi ovladanie elektrarni. Funguje to tak ze program v centrale posle prikaz do elektrarne zapni vypinac 123. V elektrarni sa zapne vypinac 123 to trva tak 2 sekundy a riadiacemu program v central pride signal 10 alebo 01 podla toho ci je vypinac zapnuty alebo vypnuty, a to sa potom zobrazi operatorovi na obrazovke. A jadrovu elektraren riadi aspon u nas pocitac ruskej vyroby velky asi ako jedna kancelaria, tam by sa windows s "Nízkou latency kernelu" tiez neuplatnil.
Tiez predstava ze tam administratori "instalují, konfigurují, patchují, administrují nody" na co by to robili ked to bezi, ten pocitac nie je na internete, netreba tam davat nejake zaplaty, riadiaci software je napisany dodavatelom HW kazdu zmenu v HW alebo SW robi dodavatel. Uzivatelia nesmu zasahovat a ak to urobia stratia support.
Znovu: nemluvím o stavbě serverovny, ale o stavbě superpočítače v té serverovně, tj. o navezení HW a jeho zapojení.
Cars 2 má okolo 150k snímků, průměrná doba rendrování na snímek 11.5 hodiny, maximální doba okolo 80-90 hodin, rendrovací farma měla 12500 cores. To je průměrně 138 hodin rendrování na core.
http://www.cnet.com/news/new-technology-revs-up-pixars-cars-2/
V nejjednodušším modelovém případě si node řekne o 3D scénu per core, začne ji rendrovat na jednom core, a po dokončení rendrování si řekne o další práci. Pokud rendrování nějakého snímku běží 90 hodin, tak si prostě dané core vyrendruje jeden nebo dva snímky. Pokud to chcete řešit lépe, můžete nechat rendrovat části snímků (to je opět nezávislý proces bez nutnosti komunikace s dalšími nody). Například u ray tracingu se to implementuje celkem jednoduše. Samozřejmě při rozdělení také můžete vzít v úvahu složitost dané scény - některé snímky netřeba dělit, jiné můžete rozsekat na malé kusy. Pokud se bavíme o rozkouskování úlohy, tak si uvědomte, že zpracování okolo každého kousku obnáší nějakou režii. Příliš malé kusy proto snižují výkon; příliš velké samozřejmě mohou vést tomu, že různé části úlohy doběhnou v různý čas (což může a nemusí být pro danou aplikaci problém), nebo dokonce nebudete schopen vytížit všechna výpočetní jádra (čemuž se pochopitelně snažíte vyhnout). Správná velikost úlohy pro node je prostě taková, aby minimalizovala buď čas dokončení celé úlohy, nebo celkové využití zdrojů.
Samozřejmě existují i úlohy, kdy potřebujete předávat data mezi nody. V takovém případě se snažíte komunikaci mezi nimi minimalizovat, protože je vždy daleko pomalejší, než předání dat v rámci nodu. Navíc většinou přesně nevíte, jak dlouho bude trvat operace nad danou částí dat, a vzájemné závislosti vám mohou celkový výkon clusteru snadno poslat do kytek.
Ohledně vytížení superpočítače se samozřejmě mýlíte. Superpočítač má typicky na nodech více různého SW. Pokud vám těch 12499 cores dopočítalo danou úlohu, a jedno core potřebuje dalších 20 hodin na dokončení operace, můžete na zbytku superpočítače pustit další joby (řekněme rendrování dalšího filmu daného studia, nebo nějaké práce na postprodukci). Od toho je tam řídící SW.
Ad Linux nevie riadit elektrarne - nic takového jsem neříkal. Pro řízení rychlých dějů je potřeba RTOS. Může jít o Windows s RTX64, Windows CE, QNX, VxWorks, případně RTLinux (který ale před pár lety skončil).
Ad riadiaci software je napisany dodavatelom HW kazdu zmenu v HW alebo SW robi dodavatel - to záleží na aplikaci. Jak jsem už psal, mimo projektů typu distribuovaného MATLABu (kde dostanete superpočítač "v krabici s mašličkou" a nemusíte v podstatě na nic sáhnout - to je cílovka MS) je tu řada dalších, na kterých si zákazníci minimálně část SW píšou sami. To pak musíte psát kód, ladit, instalovat, experimentovat. Podobně servis HW si může minimálně částečně dělat zákazník. U většího clusteru vám bude každou chvíli odcházet nějaký HW. BTW Googlu údajně odchází HDD průměrně každou minutu nebo dvě.
Mam dojem ze za pseudonymom Lael Ophir sa skryva viac ludi. Niekedy si tu od Laela Ophira citam odborne informacie o ktorych som este nepocul a inokedy su tu prispevky ktore su technicky a jazykovo na urovni strednej skoly.
Ano NT kernel bol v svojej dobe pojem mozno preto ze ho vyvijali ludia co ich to bavilo, bohuzial Win8 nejde v jeho slapajach.
Je to veci nazoru. Vite ja bych to rekl tak. Vy nevyuzijete zprachnively linux ale zaplatite MS za licenci a udelate webserver a webaplikaci. No ja si sosnu linuxovou distribuci, udelam server a webaplikaci. Oba udelame ve vysledku totez, vy pouzijete modrou lopatu pro vasi praci, ja zelenou. Nerekl bych ze ta vase je o nic zprachnivela nez ta moje, ale pokud budete rikat ze ta moje je zprachnivela, tak me je to uplne jedno, protoze praci pro me udela stejne dobre jako ta vase :) Svym zpusobem a podle co od te lopaty ni ocekavam. Pokud by se mi lopata nelibila, nebo nefungovala vezmu jinou. Ta moje ale funguje bezvadne tak jak potrebuji i pres to co tvrdite. Rozhodne ale nebudu nikdy verit cloveku, ktery o me lopate rekne ze je zprachnivela, kdyz evidentne vidim, ze ji nic neni a ze je plne funkcni. :D Tak asi tak k te zprachnivelosti. To se da rict o cemkoliv takhle jak jste to napsal :) I o libovolnem momentalne vami preferovanem systemu.
Nákup zboží a služeb na trhu je mj. něco jako hlasování – hlasování peněženkou. Člověk nejen kupuje to, co potřebuje, ale zároveň podporuje svého dodavatele.
Za to, jak se prasata z Microsoftu chovala a chovají k zákazníkům, je podporovat nebudu – nemůžu s klidným svědomím hlasovat pro tuto firmu.
Hmm... Azure jako takové ... možnost umístění ve vybrané gegografické lokaci, možnost load balancingu, možnost vytvářet CDN nad daty, která do Azure nahraješ, možnost aoutomatického směrování lidí z jednotlivých částí světa na stroje/weby v místně nejbližším datovém centru, možnost hrubého pronájmu procesorového času pro výpočetně náročné aplikace atd...
Tohle ti nějaký "pakistánský" hosting, nebo hosting za 200 od Wedosu fakt nenabídne.
Azure není řešení pro nějaký hostování serveříku, na kterým ti běží linux na hraní a sendmail pro zpracování pošty, ale pro řešení poněkud jiného rozsahu
(a ano, kupodivu to ani není řešení pro umistění intranetových serverů s firemními daty ... to, že to tady někdo zmiňoval jako "toto bych nikdy neudělal" jen svědčí, že dotyčný opět neví, o čem mluví, a jen si potřebuje kopnout).
Ad „Hmm... Azure jako takové ... možnost umístění ve vybrané gegografické lokaci, možnost load balancingu, možnost vytvářet CDN nad daty, která do Azure nahraješ, možnost aoutomatického směrování lidí z jednotlivých částí světa na stroje/weby v místně nejbližším datovém centru, možnost hrubého pronájmu procesorového času pro výpočetně náročné aplikace atd...“
Tohle jsou obecné argumenty pro „cloud“ jako takový, nic proti nim – ale otázka zněla: proč bych měl chtít „cloud“ právě od Microsoftu?
Otázka nezněla, co nabízí cloud microsoftu navíc, ale co nabízí cloud microsoftu (pár uhříku tu pindalo ve smyslu, že je to celé srajda k ničemu, zjevně z toho důvodu, že vůbec netušili, o čem mluví a viděli "virtuální stroj" a první, co je napadlo, tak nějaké VPS od pípni, wedosu, a podobných věcí).
Zcela nepochybně totéž nabízí i další cloudy jakékoli jiného poskytovatele, což tu ale nikdo nezpochybnuje.
Z hlavy: má jedny z nejzajímavějších PaaS služeb (PHP, Node, Python, .NET), možnost dynamického škálování (každý den ve špičce přidáte server-dva, přes noc je vypnete a neplatíte), mobile services pro sync + push notifikace + další služby na Android, iOS i Win platformu na jednom místě, jeho datacentra mají proti Amazonu nižší latenci a v Evropě jsou na více lokacích...
Samozřejmě, ostatní provideři vynikají zase jinde: na čistý "computing", louskání nějakých dat, je mnohem lepší Amazon, potřebujete-li to celé jet na SSD tak je zajímavý DigitalOcean (aspoň co jsem slyšel, nezkoušel jsem), pokud potřebujete spustit jeden serveřík pro lokálního klienta, je levnější a dostačující VirtualMaster.
U netriviálních projektů je i výběr cloudového providera netriviální úloha. Vyhodit nějaké řešení pouze z ideologických důvodů si může dovolit akorát člověk, který nikdy nikomu radit nebude.
"U netriviálních projektů je i výběr cloudového providera netriviální úloha. "
Nesuhlasim. Pokial si aj pri trivialnom projekte vyberiem zle, neskor to musim opravovat alebo zmenit rozhodnutie.
Azure ma dost problemov, o ktorych samozrejme MS nic nepise ani nezverejnuje. Chapem ze to nie je dobre pre biznis ale..
"má jedny z nejzajímavějších PaaS služeb (PHP, Node, Python, .NET), možnost dynamického škálování (každý den ve špičce přidáte server-dva, přes noc je vypnete a neplatíte)" to ma i vSphere, na ktorom bezi mnozstvo projektov, a tiez iny poskytovatelia napr. Cloud Foundry, Amazon, OpenShift. To nie je nieco kvoli comu by som sa hnal na jedneho poskytovatela. Samozrejme ze sa bavime o poskytovani sluzieb pre male a stredne firmy, predpokladam. Velke firmy si spravia radsej vlastnu virtualizaciu (cloud).
Pocas testov Azure sme dosahovali neuveritelne latencie a v spicke casto nedostupnost (nie je to sluzbou ale vytazenim ich serverov) a to sme mali zdarma na 90 dni (v 2010 a 2012). Cize prevadzkovat serverovy OS na cloude sa nam neosvedcilo (PaaS).
Lepsie to bolo s poskytovanim SaaS (Exchange, SharePoint, Dynamic CRM) tu by som v pripade potreby Exchange nevahal na Azure prevadzkovat.
Takze ked potrebujem virtualizovat servery radsej svoje riesenie (kludne na Hyper-V)
"Vyhodit nějaké řešení pouze z ideologických důvodů si může dovolit akorát člověk, který nikdy nikomu radit nebude."
Tak s tymto sa da jedine suhlasit.
PS: aby nebolo ze som jednostranne zasadeny voci MS, som jeden z ludi okolo Windows User Group Slovensko,
> "U netriviálních projektů je i výběr cloudového providera netriviální úloha. "
> Nesuhlasim. Pokial si aj pri trivialnom projekte vyberiem zle, neskor to musim opravovat alebo zmenit rozhodnutie.
A: "Pes je černý"
B: "Nesouhlasím, kočky jsou také černé".
Zbytek prispevku je dobry a k veci.
Zapory Azure? nejakou doby ho pouzivame a pripada mi ze oproti Amazonu jde v jednotlivostech videt ze zacali pozdeji takze maji skluz nekdy i v relativne zakladnich vlastnostech. Ale jde to dost prekotne dopredu (coz zase plodi jine problemy :-) Pak jde taky videt ze zacali nejdriv s tou PaaS a s IaaS se probudili pozdeji takze to ma opet skluz takze nektere stejne ficury ktere by tam mely smysl v IaaS nejdou. My konkretne jsme narazili na
- nemoznost failoveru na "site to site VPN" a pouze jedna site to site VPN, Amazon umi normalne BGP, vic vasich routeru, Azure ne. Jedna IP vaseho routeru musi pro cele propojeni firmy k servrum do azure stacit :-) Cili to reklamni tvrzeni - rozsirte si vasi firemni sit do cloudu - jeste tak uplne nefunguje, pro nas to je treba downgrade vzhledem k interni sitove infrastrukture
- (pravidelne) restarty u IaaS, neumi live migation VM, potrebujou opatchovat svuj hypervizor (coz delaji cca jednou mesicne) ==> mate smulu, restartnou vam vas virtual (SQL server, domain controller) kdy se jim zachce --> vsechno musite mit (a platit) aspon dvakrat pokud chcete 24/7, nevim jak jsou na tom ostatni cloud provideri
- nemoznost propojeni vice virtual networku uvnitr azure - pokud mate geograficky distribuovane reseni ve vice azure regionech nebo subscriptions nebo mate jen vic virtual networku uvnit stejneho azure uctu muzete je propojit jedine na svych vlastnich routerech - protunelujete pres (tu nespolehlivou/nezalohovanou) VPN k vam, a pak jinou VPN zpet do jineho azure, zadny routing (a eventuelne firewall) uvnitr azurich virtual networku
- verejnou IP adresu nejde drzet/platit zvlast (jako u amazonu) - shodite si (nebo Azure vam shodi) posledni stroj v cloud service priste mate jinou public IP -tzn DNSka musite registrovat pres CNAME a obcas se vam zmeni
- load balancer pro cloud services neumi sticky sessions, dale neumi pro IaaS/virtualy staging/live prepinani tzn. slozite se dela pri upgrade dat si upgradovane servery docasne bokem, zupgradovat a vratit do clusteru - tohle samozrejme resi vlastni load balancer - PaaS ma moznost dvou prostredi staging/live ktere proste atomicky switchnete (a verejna IP vam zustane)
- pak ruzne blbosti co me namatkou napadaji - treba ze nelze vytvorit virtual bez toho aby hned nastartoval - problem pokud mate vic disku ktere muzete pripojit az k nakonfigurovanem virtualu - napr mate image sql serveru nebo domain controlleru ktery ma data (databaze, domeny) na jinem disku - poprve vam nastartuje a skarede vam vynada ze nenajde sva data - tohle obcas musite udelat protoze nektere zmeny konfigurace jde udelat jen tak ze VM smazete (disky vam zustanou) a z tech disku ji vytvorite znovu, staticke IP adresy na interni siti pridali teprvne pred par tydny, jinak bylo jen DHCP, nelze udelat snapshot virtualu bez toho aby vam ho to smazalo - cili capture udela image do vm gallery, smaze vam virtual a vy si ho musite z te image udelat znova -cili na zalohovani relativne za behu to moc neni
Dokud nedokážeš pochopit, že „obchodní“ praktiky a vůbec způsob „práce“ téhle firmy je relevantní argument, tak nemá cenu řešit ty technické aspekty. Je to asi jako řešit, jestli podlaha v hitlerových plynových komorách byly protiskluzová nebo jestli stěny měly správnou barvu.
Dokud nedokážeš pochopit, že „obchodní“ praktiky a vůbec způsob „práce“ téhle firmy je relevantní argument, tak nemá cenu řešit ty technické aspekty. Je to asi jako řešit, jestli podlaha v hitlerových plynových komorách byly protiskluzová nebo jestli stěny měly správnou barvu.
+1
nic na plateni za sw nie je zle. Napriklad na linuxe su casto taktiez platene veci (hry, sw) a rad si za ne zaplatim. Taktiez nqa Win7 pouzivam naopak opensource produkty namiesto paskvilu typu Office 2013
Problem je ked zaplatim a nedostanem to, za co som zaplatil ale za cosi ine.
Co sa tyka Azure je mnozstvo inych cloud sluzieb ktore su lepsie na tom s vykonom a dostupnostou.
Ad Problem je ked zaplatim a nedostanem to, za co som zaplatil ale za cosi ine - koupil jste Office a dostal místo toho Visual Studio? :) To se mi ještě nestalo.
Ad je mnozstvo inych cloud sluzieb ktore su lepsie - nezkusil jsem jich tolik, abych to mohl potvrdit nebo vyvrátit.
P.S. "'Jakoukoliv" linuxovou distribuci drzi v rukou korporatni giganti jako M$? dale je tohle server o linuxu, coz je nejen pro me opozice M$.
Jeste maly dotaz - kolik ti za to braneni M$ plati? Predpokladam, ze nic, ze ses takova ta typicka vcelka-delnice oblbnuta M$ a delas tu obhajobu ve svem volnem case a zadarmo ;)
A proč by to nemohlo být na serveru o Linuxu? Pro linux to alternativa je, MS v tomto Linux podporuje... to jen pár zapšklých uhříků vidí MS, vypíná mozek, a rovnou hatuje a někoho, kdo má jen trošku jiný názor, daný i tím, že s danou technologií má nějakou zkušenost, hned obviňuje z toho, že ho MS musí platit.
ses intrikar, navic hloupy - takze dostanes co si zaslouzis.
vybiras co se ti hodi -
- nezareagoval si na vytku vuci M$, ze se snazi za kazdou cenu "prikovat" svuj OS ke kazdemu notebooku.
- zareagoval jsi naprosto zcestne, ze me neplati za plkani tady, ale snazis se to otocit ve svuj prospech - to bys ovsem potreboval nekoho kdo sni to co si navaril - ale to ja kamarade nejsem - a tve dilo odmitam :)
Cimz se dostavame k podstatnemu - ses u me zoldak M$ a na tom nic nezmenis :)
tva ubohost te bude pronasledovat cely tvuj zivot, uzivej si ji plnymi dousky :)
To ty si vybiras co se ti hodi!
Jakpak asi souvisi prikovavani OS ke kazdemu notebooku s vyberem cloudoveho reseni? Pokud bude poptavka po notebocich bez OS tak tu notebooky bez OS budou. Ne vsechny, ale take ne po vsech bude ekonomicky zajimava poptavka. Mne osobne to nevadi, zrovna tohle pisu z notebooku, ktery jsem koupil s Windows a od te doby na nem poustim jen Linux. Proste pro to, ze vyrobci se nevyplati tento model dodavat bez OS. (Ona totiz vyrobni cena neni ani zdaleka jedinou polozkou v nakladech vyrobce. Kazdy typ vyrobku ho stoji nejakou pausalni castku, a protoze se ta castka neda snadno vycislit, tak na to proste kaslou dokud si nejsou jisty, ze at bude jakakoliv, bude smesne mala vuci navyseni obratu vytvorenemu prislusnym typem vyrobku.)
jdi prosimte :D
vytka vuci korporaci M$ a jejim praktikam z praktickeho hlediska :)
http://askubuntu.com/questions/221835/installing-ubuntu-on-a-pre-installed-windows-8-64-bit-system-uefi-supported
NE, opravdu M$ neberu, a tahle diskuze na tom nic nezmeni ;)
ted jste na rade Vy, Micro****lezci:
proc ne radsi GoGrid nez Windows Azure?
K Azure: pár výhod jsem psal nahoře - http://www.root.cz/clanky/vlastni-linuxova-distribuce-na-azure/nazory/499927/ . Konkrétně GoGrid neznám, přijde mi ale jako spíše výpočetní platforma, než cloud na webové aplikace - jen tři datacentra, PaaS silný v databázích, ale ne na webservery... osobně se mi to zdá jako řešit, zda je lepší ponorka nebo bagr, obojí míří na jinou skupinu zákazníků.
Souhlasím s tím, že tento článek mi přijde zvláštní. Mám za to, že zrovna na tomto serveru by bylo vhodné alespoň představit službu od Microsoftu a nastínit její silné stránky. Já například o Azure nevím prakticky nic. Je to od Microsoftu a tedy proč na tom rozběhávat linuxové distribuce mě úplně jasné není. Alespoň nějaký odkaz na trochu objektivní zhodnocení přínosů této služby by se hodil.
Takhle to na mě působí vážně trochu jako reklama. Prostě dej si linux na MS server, Hyper-V to umí. Proč? Protože to jde? Navíc, zmiňovaná nutnost si něco kompilovat, ve mě příliš mnoho důvěry nevzbuzuje. Takže než začnu něco instalovat a cpát na net, neměl bych napřed tušit, čeho chci dosáhnout a co mi to může přinést? Z článku jsem to teda nepochopil.
Celý článek je představení jedné konkrétní výhody Azure - možnost nastavit si vlastní OS od nuly všichni poskytovatelé nenabízí. Bez kompilace nějakého obslužného software si troufnu tvrdit že nenabízí nikdo.
Výběr ideálního cloudu funguje spíš porovnáním takových jeho unikátních vlastností, než nějakým performance benchmarkem. Potřebuju vlastní Linux, dynamické škálování? Azure. Budu hodně počítat, mít hodně statických webíků? Amazon. Mám malý rozpočet a stačí mi jen vertikální škálování? VirtualMaster.
Ne. Bohužel. Žádný argument mě nepřesvědčí, že je dobrý nápad vložit část (nebo dokonce všechna) data, aplikace atd. do rukou Microsoftu. Nebo Google. Nebo Amazonu. Narozdíl od různých cloud-hujerů jsem přesvědčen, že základní a jedinou cestou jak se vyhnout šmírování a možnému předání privátních dat třetí straně, je nepoužívat žádnou formou cloudu, natož toho megakorporátního. Jsem idealista (a jak se zdá, i beznadějný konzervativec), proto stále věřím v důležitost až nepostradatelnost soukromí, toho opravdového, a nevidím nic přínosného v současném "nadužívání" a "zneužívání" tzv. "sociálních sítí", různých více či méně sofistikovaných "cloudů", u kterých otázka soukromí je pouze a jen čistá víra v ... kohosi na druhé straně, že bude s vašimi daty výhradně nakládat jen tak, jak byste s nimi nakládali vy, a nikdy jinak, byť by to bylo v rozporu s čímkoliv, tedy zejména je nepředá třetí straně nebo neodstraní přinejmenším bez vašeho vědomí, nejlépe a hlavně pak bez vašeho souhlasu.
Nicméně chápu, že hádky nad technickým řešením věci jsou mnohem zábavnější, než přemýšlet nad důsledky a riziky...
zdaleka ne všechny informace jsou tajné a zdaleka ne všechny informace jsou užitečné bez kontextu. Takže když do cloudu strčíte paralelizovanou statistickou analýzu nějakých veřejně dostupných dat, tak rozhodně nedáváte žádné informace (ani nezjednodušujete přístup k dostupným informacím - za předpokladu, že nahráváte jen binární data, která se sama o sobě těžko interpretují).
I informace o tom jaka data a jakym zpusobem analyzujes muze byt velmi kriticka pro fungovani firmy. Da se z toho vycist spousta zajimavych informaci - trebas zkoumas kde kolik stojej pozemky = chystas expanzi nebo zkoumas pohyby na burze kolem cojavim ... pomerancove stavy ... ;D ... navic velmi casto pouzivas nejaky interne vyvijeny algoritmus, ktery muze byt zasadni pro ziskavana data ...
Jednoduse davat naprosto cokoli do cloudu v dobe, kdy 80+% hodnoty firem jsou prave jejich data ... muze leda silenec.