Upřímně, i když jsem byl jeden z prvních uživatelů Wedosu, dokonce jsem vlastnil jejich akcie, tak se hodně věcí změnilo (k horšímu), a asi takhle:
1) Nechtěl bych tam pracovat - představa, že budu udržovat ve 30 lidech totálně specifický bastl, který je světově unikátní, a pak budu chodit do nějakých betonových dveří, kde bych si prostě nikdy nebyl jistý, že mě to neuvězní, tak to mě trošku děsí.
2) Nechci tam provozovat svoje VPS, ani weby - Wedos, za dobu co je na trhu, téměř neinovoval svůj software. Neustále se soustředí na hardware (chlazení olejem) a sítě (100GB), ale realita je taková, že mnohem důležitější je ten ovládací software a možnosti cloudu.
Právě ten software je věc, kterou je potřeba dělat globálně a ve více datových centrech, aby se to vyplatilo, nejen v Hluboké. Zatím mi Wedos připadá jak Windows 95 na Intel i7 4GHz s 32GB RAM. Stroj je sice výkonný, ale software je dost pozadu.
3) Je to bastl, kdo chce ať si říká co chce, ale světově unikátní řešení ve mě moc důvěry nevyvolává. Celé IT a hlavně infrastruktura je o dlouhodobě ověřených řešení a inovace provádí globální a velcí hráči. Když je to chlazení olejem tak skvělé, proč to nedělá Google nebo Amazon, kteří mají násobně větší datové centra? Možná proto, že to tak skvělé není?
Jako osobně Wedos chápu, jejich finanční zdroje jsou omezené, ČR je malý rybník, tak prostě jedou na tom, že přeprodávají hardware a jeho výkon za minimální cenu, a spotřeba elektřiny u toho samozřejmě hraje značnou roli. Byznys model je jednoduchý, nakoupí hromadu levného komoditního hw co moc nežere, nasypou to do oleje, aby se to levně chladilo, a pak začnou mávat certifikací TIER IV. To, že v budoucnu se jim to pravděpodobněji spíše vysype na softwarové chybě, než na výpadku klimatizace neřeší.
Furt je to přeci jenom dost velký projekt, na to to, dělat ve 30 lidech, kdy ještě těch 20 lidí je support a administrativa, a core je třeba 10 lidí. Furt radši svěřím vše do cloudu Amazonu, který spravuje 1.000 lidí, je to sice o něco málo dražší, ale kvalita je fakt vážně jinde...
Ano, oni chladí nejteplejší komponenty. To je určitě krok směrem pryč od vzduchového chlazení. My to máme ještě o krok dále. Prostě to celé vezmeme a utopíme v oleji :-)
https://www.youtube.com/watch?v=hoqsUCw6bmM
Včetně disků, zdrojů napájení a switchů. Máme to 4,5 roku a bez jediné chyby.
To som rád, že je tu konečne ukecaný od Wedosu. Mám u vás zaplatený webhosting, teda to maximum čo sa u vás dá objednať a musím povedať, že nie som spokojný. Bezpečnostný politika je postavená úplne zle a už nikdy by som si ho nezaplatil.
Zlá adresárová štruktúra, minimálne bodková syntax by sa hodila pred pevné názvy adresárov aby nekolidovali z niečim iným.
Úplne konečná, bez hackov nieje možné zabezpečiť adresár pred spúšťaním skriptov. Teda spravil som na to hack, ale nepáči sa mi to. Prečo je php_flag zakázané?
Naozaj neinovujete, to ako je postavený hosting je celé zle. Pozriem si logy, žiadny útok tam nieje a odpoveď zo serveru je v rádu sekúnd.
Teda kopec vecí je tam ako keď som mal hosting na prelome tisícročia, fakt bez preháňania a bez srandy.
Rád by som vám fandil, ale to by som čakal aj viac otvorenej komunikácie od helpdesku.
Jako keď rooti budú tvrdiť, že toto je zlé a to používať nebudeme a inde to ide, tak to človeka len nadzvihne. Som človek z fachu a rád by som si o tom pokecal a fakt jednám kamarádsky, ale proste sa komunikácia ustrihne, s tým že to nejde. To je zlé a nieje čo dodať.
Psal jste tohle někdy k nám? Adresáře a jejich názvy snad nikdo nikdy nezpochybnil.
Pokud jde o další připomínky, tak jsme dali na web náš webpagetest a ten často ukáže, že generování stránek čeká 5 sekund na facebook nebo 2 sekundy na google fonty a tak by šlo pokračovat. Máme 2 CMS specialisty, kteří se klientům věnují a to nad rámec podpory. A tak by šlo pokračovat. Neříkám, že se nemůže vyskytnout chyba u nás. Řešili jsme útoky na CMS, které byly plošné. Před rokem jsme nasadili IDS/IPS a máme klid. 40% provozu se odfiltruje ještě před servery a je klid.
Inovace máme a pořád děláme další. Zkuste třeba náš nový hosting, který nyní testujeme na HPE Moonshot. Nic rychlejší asi k dispozici není. Navíc u této varianty budeme mít nejen sdílenou verzi, ale i vyhrazenou. Tak si koupíte výkon, který bude jen a pouze Váš.
Helpdesk je k dispozici 24/7 a snaží se. Ano, máme několik stovek aktualizovaných a profesionálně udělaných návodů a na ty odkazujeme. Jsou věci, které děláme a jsou věci, které neděláme. Od počátku tvrdíme, že míříme na 98% klientů a individuální nastavení neděláme. Ano, tak to je. Tak bohužel nemůžeme vyhovět každému a není to neochota, ale to, že máme vše jednotné a plně automatizované a neexistují ústupky.
My skutečně nikde neděláme ústupky. A nikdo z techniků a už vůbec ne na podpoře.. nemá šanci to obejít. I kdyby sebevíc chtěli, tak to nejde. Máme tak náš systém nastavený. Díky tomu máme jednotné a funkční prostředí, kde aktuálně hostujeme přes 130.000 webhostingů a přes 6.500 virtuálních serverů, nějaké dedikované... a to celkově na více než 1.000 fyzických serverech.
Ze všech podnětů se poučujeme a posouváme dále. Nyní třeba ten HPE Moonshot se silnými a rychlými CPU. Tam poznáte skokově rozdíl. Budeme mít garantovaný výkon, který si zaplatíte. I to je pokrok a reakce na podněty. Bude tam možné nastavit zcela individuálně cokoliv v PHP a tak by šlo pokračovat. To bude služba, kterou hledáte. Tam naopak budeme umět nastavit cokoliv.
Jsem přesvědčen, že potom názor změníte.
Limit máme schválně, aby nám tam zákazníci nevkládali miliony nesmyslů, ale vždy to dokážeme navýšit a vždy to navyšujeme.
Myslím, že zákazníci mají jiné hobby než vkládat DNS záznamy přes to předpotopní webové rozhraní. 100 je prostě málo a je to otravné.
DNSSEC u COM domén nezávisí na nás, ale na našem registrátorovi a plné automatizaci tam. Dříve než tam to možná uděláme sami, protože chceme požádat o akreditaci.
To už posloucháme asi 6 let, už je to nuda. Nula bodů za odpověď.
Napsal jsem to, jak to je. Limit 100 záznamů vždy dokážeme navýšit a nikdy jsme asi nikoho neodmítli, ale máme v tom prostě přehled. Určitě to využívá zlomek klientů a není to tedy nic omezujícího. Nezapomínejte, že u nás to jde vkládat přes WAPI, tedy naše API a tam potom můžete vložit třeba tisíce záznamů jedním kliknutím.
DNSSEC - je to tak, jak jsem napsal. Nuda to je, ale (i) proto připravujeme vlastní akreditaci.
To je príma. Teď zrovna jsme obnovovali certifikát. Chci tam nacpat nové TLSA záznamy, no a opět jsem přes limit. To navýšení se dělalo už asi 3x a vždy se to opět záhadně znova nastaví na 100 záznamů. Nebaví mě to. Váš přehled je mi fakt ukradený, akorát mě to stojí čas. To s tím API snad radši ani nezmiňujte, to jen ilustruje vaše duševní pochody - takže přes API tam můžu nacpat tisíce záznamů, ale normálního zákazníka, který se s tím matlá v té vaší aplikaci, omezujete na 100 záznamů. To je fakt logika jako stehno. Krucinál už fakt.
Co se týče DNSSEC - pardon, ale to, že šest let něco připravujete, mě fakt neuspokojuje. Já vím, že to asi není taková zábava, jako fritovat servery v oleji.
Nechápu v čem máte problém? Limit navyšujeme. Nikdy jsme navýšení nikomu neodmítli a tak nechápu.
Službu DNS poskytujeme ke všem doménám zdarma. A to domény prodáváme za nákupní ceny, bez jakékoliv marže. Máme tam nějaká pravidla a tak je dodržujeme. Není to nic proti zákazníkům, ale ochrana před přetížením apod.
Pokud se na nás obrátíte, tak Vám limit navýšíme. Stejně jsme to udělali v jiných případech, tak i v tomto. A to zdarma.
Přes API máme také omezení na 100 záznamů. Tam jsou duševní pochody stejné. Jsou to naše podmínky a musíme se nějak bránit. Pokud chceme, aby DNS servery fungovaly v pořádku a proběhla vždy aktualizace v pořádku, tak to není jen tak. Pokud jste měl povoleno přes 100 záznamů, tak by to nemělo blokovat. Řešil jste to s někým u nás?
DNSSEC budeme chtít udělat, ale když to nemá dodavatel, tak nemůžeme nic. Když si neuděláme vlastní akreditaci, tak jsme v koncích a to není snadná záležitost. Trvá to.
DNSSEC v množství domén, které spravujeme a vedeme v DNS, také není sranda. Na jaře jsme se na tom spálili a bylo to nepříjemné i pro klienty.
Olej je cesta dopředu a věřte, že je to z hlediska budoucnosti a nákladů a rozvoje firmy mnohem důležitější, než zda budeme mít DNSSEC u generických domén dnes nebo za půl roku.
Snad jsem to vysvětlil. Děkuji za pochopení.
Přes API máme také omezení na 100 záznamů.
Aha, no vidím, že si to musíte ještě vyjasnit, co vlastně kde máte, před chvílí jste tvrdil, že přes API žádný limit není. Konkrétní problém už jsem vyřešil, problém s tím, že ten defaultní limit je prostě absurdně nízký, evidentně řešitelný není.
DNSSEC v množství domén, které spravujeme a vedeme v DNS, také není sranda. Na jaře jsme se na tom spálili a bylo to nepříjemné i pro klienty.
To bych snad radši ani nerozmazával... stejný majstštyk jako když vám expirovala doména, kde máte DNS server, nebo když jste si zaDDoSovali sami sebe svým IPS, který filtruje IPv6 adresy po jedné.
Olej je cesta dopředu a věřte, že je to z hlediska budoucnosti a nákladů a rozvoje firmy mnohem důležitější, než zda budeme mít DNSSEC u generických domén dnes nebo za půl roku.
Pane Grille, mě jako zákazníka fakt nezajímá, jestli mácháte hardware v sádle, v minerálním oleji nebo jestli ho chladíte třeba tekutým dusíkem v zatopeném bunkru. Fakt je mi to jedno, je to vaše železo a vaše věc. To, že nejste schopni 6 let zprovoznit věc jako DNSSEC, to mě naopak zajímá velmi.
Ne, já jsem netvrdil, že přes API není limit, ale že přes API snadno dáte záznamů velké množství. Výchozí limit je dostačující pro 99,9% všech klientů. A tomu zbytku to navýšíme. V čem je tedy problém?
Pokud Vám u nás chybí DNSSEC u generických domén, tak prostě nemohu nyní sloužit. Důvody jsem vysvětlil. U domén, které prodáváme za nákupní ceny umíme nastavit prakticky vše co lze. To je důležité pro 250.000 domén, které naše DNS využívají. Jen u generických nemáme z objektivních důvodů DNSSEC. Těch generických domén je asi 25.000 a aktuálně by to využilo několik jednotlivých zákazníků. Věřte, že to potom pro nás nemá prioritu takovou, jako třeba "máchání" serverů v oleji, které nám ročně ušetří miliony za energie a má to vliv na všechny zákazníky. Za ušetřené peníze můžeme být výhodnější, než konkurence a můžeme to zase investovat do rozvoje firmy. To je podstatné a to má prioritu. Věci řešíme podle priorit.
Objektivní důvody jsem napsal. Pokud Vám to nevyhovuje, tak buď musíte počkat až to budeme mít nebo musíte mít doménu bohužel jinde (minimálně do doby, než to mít budeme). Nejsme kouzelníci a nemůžeme mít všechno hned a ani to nikde neslibujeme. Děkuji za pochopení.
Ďakujem za informácie o tom že sa niečo deje.
Samozrejme som zakaždým siahol najprv do vašich návodov a postupoval podľa nich. Na helpdesku som fakt skúšal shibboleth aby vedeli, že hladám odbornú pomoc a nejak sa minul účinku https://xkcd.com/806/ Viem že vás zahlcujú bežní užívatelia, ale mám pocit, že helpdesk nejak nerozlišuje medzi amatérmi a keď konkrétne poíšem fakty.
Teda aby som úplne nekecal, tak na väčší problém som dostal odpoveď, že mi príde odpoveď emailom a spojama s odborníkom, čo sa aj stalo. No na podnet napríklad zabezpečenia nespúšťania skriptov v určitom adresári skončila v /dev/null. Momentálne som to uháčkoval zmenou mimetype a nieje to fakt pekný hack, pri portácií na iný hosting to môže spraviť zas iný problém, hlavne keď to chcem vydať ako slobodný kód.
Ja to v práci momentálne riešim tak, že si sadneme s chalanmi na pár minút, čo sú aktuálne nové problémy a snažíme sa ich riešiť, dosť to pomáha.
Z vášho komentára mám príjemný pocit a možno to treba pretiahnuť aj do helpdesku.
Prajem ešte pekný večer.
Chlazení v kapalinách testuje hodně firem. Jsou i projekty od firem jako 3M nebo dalších, které nabízí přímo kapaliny. Viděl jsem i instalaci několika tisíc serverů v oleji, která překvapivě funguje bez jediné chyby.
Kdyby se všichni v historii názorově chovali, jako první diskutující, tak dneska ještě lezeme po stromech a jíme bobule a banány. Protože to tak prostě dělají všichni a proč to dělat jinak. Určitě by nikdo nevynalezl nikdy nic jiného...
Dobrý den,
dovolte abych reagoval.
1) Je nás sice něco málo přes 30, ale vše je plně automatizované a proto nás může být relativně málo. Všichni jsou zastupitelní a každou část, kterou děláme sami zvládáme vyřešit. Nebudete věřit, ale máme (na rozdíl od jiných hostingů) svého elektrikáře, respektive 2, kteří ví o naší budově vše.
2) Tvrdit o nás, že neinovujeme je docela přehnané. Jsme na trhu 7 let a na počátku jsme měli jen webhosting. Potom jsme přidali VPS. Následovaly VPS 100% SSD, které jsme měli jako první nebo jedni z prvních v ČR. Letos jsme několikrát testovali VPS založená na OpenNebula cloudu. Tento týden je pustíme do ostrého provozu. Ceník je již na webu v položce WEDOS VPS ON.
Následně chceme spustit webhosting na HPE Moonshot, který tvrdíme, že bude nejrychlejší na trhu, protože jsou tam rychlá CPU. Následovat bude skutečný WEDOS Cloud a zároveň i něco jako VMS (bude to vyhrazený webhosting s vyhrazeným výkonem pro jednoho klienta).
Ano, do toho jsme si udělali vlastní DDoS ochranu na linuxu, postavili vlastní open source IDS/IPS (maže 40% provozu, který nikomu nechybí). Přecházíme na 100 Gbps síť. Stavíme druhé datacentrum... Děláme chlazení olejem (mimochodem v ČR jej začalo testovat několik dalších velkých IT firem a v Evropě jsou již instalace několika desítek tisíc serverů)...
Inovujeme nebo ne?
Chceme začít i s expanzí. Jdeme krok za krokem.
3) Dlouhodobě ověřený nebo vlastní unikátní cesta je vždy složité rozhodnutí. To už na počátku můžete říct, že nedává smysl mít vlastní datacentrum. A já jsem přesvědčen, že nic lepšího být nemůže. Můžete říct, že nedává smysl si budovat vše na opensource, když vládnou wokna. A tak by šlo pokračovat. Když vezmu do života mimo IT, tak najednou jsou auta na elektřinu a na vodík. Přitom osvědčený je benzín. To jsou zcela přesné příměry. Čas ukáže, která cesta byla správná.
Pokud jde o tvrzení s finančními zdroji, tak na rozdíl od většiny IT firem nemáme žádné dluhy a úvěry. Do oleje chceme potápět HPE Moonshot, což jsou stroje o které se většině lidí ani nezdá. Není to tedy nějaký levný komoditní hardware jak tvrdíte.
Nic nikde nešidíme a vše chceme předělat (v současném datacentru) a udělat (v novém datacentru) v souladu s TIER IV. A i tam musí být vše automatické a odolné vůči chybám.
Nebudete věřit, ale naše podpora je asi 13 lidí (včetně všeho okolo). U nás je plná automatizace a díky tomu to funguje i bez lidí. Nemáme žádnou službu, která není plně automatická.
PS: Na závěr - děkuji za názor, ale příště se podepište. Za své názory se stydět nemusíte.
Juuu Moonshot jsme testovali před 2ma lety, před 4mi v labu HP. Měli s tím nějaké problemy:-) Zajímavá technologie a ani nevím jak to skoncilo.
Zatím zůstáváme u sparcu,z/OS a opouštíme powerpc. Ten většina lidí nezná. Moonshot nabízel pidi x86 moduly a pak ještě přišli s armkem.
Bohužel u platformy x86 je stále špatně řešena redundance a výměna vsech komponent za behu:-/ Ne vždy je jednoduché přepsat sw pro řešení redundance na úrovni aplikace. Jsou to stovky milionů dolacu na nákladech na prepsani.
Ta OpenNebula není špatná věc, a HPE moonshot taky chválím.
K čemu jsem se vyjadřoval bylo vaše administrační rozhraní. Nechci tu zabýhat do podrobností, ale třeba migrace Linux serveru na Wedos vs Amazon:
Amazon:
1. Naklonuji si disk u aktuálního serveru
2. Nainstaluji a vyzkouším nový server s daty ze starého na nové IP
3. Vypnu starý server, připojím starý disk, rsyncem aktualizuji data, a zapnu nový server
4. Přepnu NAT překlad veřejné IP na adresu nového serveru
5. Po 2 měsících vymažu starý server
Wedos:
- disk si nepřipojím
- ip adresu v nat nepřehodím
- budu platit i za provoz vypnutého serveru, kde potřebuji mít jen zálohu
- nemožnost dělat řízené zálohy podle potřeby do lokalit (jako u S3)
- neexistující glacier - pasky, a politika záloh
- neexistující systém oprávnění
Ano, Wedos je možná jedno z nejlepších řešení v ČR, ale prostě ve světovém porovnání dost silně zaostává. Chápu, že většina lidí prostě při zřizování VPS nemyslí na to, co budou dělat za 3 roky, až budou migrovat na novější OS, že nemyslí na to, jak budou řešit to, aby jim jejich správce po alkoholové párty nesmazal všechna data, a oni neměli nějakou železnou zálohu, atd. atd.
Administrativní rozhraní Wedosu je furt stejný systém, na kterém začínali, nikdy to nepřepsali. Wedos je jen přeprodávání možná kvalitního HW v kvalitním datovém centru, ale je k tomu minimální přidaná hodnota ve formě administrace a svobody, furt v porovnání s Amazonem, Google nebo třeba Digital Ocean je Wedos před 10ti lety.
Ale chápu, že tu hodně lidí nemá srovnání se zahraniční konkurencí, a tak opěvují Wedos. Druhá věc u Wedosu je to, když data nesmí opustit ČR, ale Amazon má třeba centra i v EU (Irsko, Frankurt)...
Tak to já bych neměl problém tam pracovat, "bastl" a vlastní řešení, to mám rád, pan Grill (alespoň tak na mě působí) by mě jistě neomezoval v iniciativě, v nápadech, nesvazoval v proprietálních řešení. A taky, v neposlední řadě, tenhle byznys není financován, ze žádných EU dotací, o to větší respekt.
Jenže, to bych nesměl bydlet na opačné straně republiky.
Protože ta možnost tady je a využilo jí desítky tisích firem různých velikostí v ČR. Jestli je to fér/morální či co, si musí každý vyřešit v sobě. Dokážu si např. představit dotaci na to, aby implementovali takové technologie, které budou minimálně zatěžovat životní prostředí nebo na pracovaní místa invalidů.
Dotace mají motivovat firmy něco dělat jinak. Ono "rozvoj" zní tak nějak jednoznačně, ale není. Často je to o tom, že je v zájmu státu, aby firmy přestaly dělat nějakou konkrétní věc, nebo aby naopak nějakou jinou konkrétní věc dělat začaly. Tak je dotacemi motivuje to udělat. To pak máte třebas dotace na odsíření, dotace na čističku odpadních vod atd.
Obecně by to měly být peníze na rozvoj, který není investicí. Na něco, co by firma jinak neudělala, protože by se to nevyplatilo. Bohužel v našem kulturním prostředí se běžně stává, že si politici přihrají dotaci sami sobě nebo známým, a to na věci, co nejsou ani tak v zájmu státu jako spíše v zájmu majitele firmy.
Mimochodem, ty dotace nejsou jen pro firmy, běžně se dotují i soukromé osoby. Například kotlíkové dotace - mají motivovat lidi vyměnit kotle za nové, účinnější, méně kouřící atd. Což je něco, co má návratnost v desítkách let, pokud vůbec - protože je to velká investice a dřevo je sice méně účinné než plyn, ale zase je levnější, takže na peníze vyjde levněji ten starý kotel na dřevo. A že dřevo kouří a při inverzi se nedá v ulici, kde někdo topí dřevem, dýchat? To je právě ten zájem státu, ten důvod, proč vůbec tahle dotace existuje.
Co je potreba serveru udelat, aby nastartoval bez vetraku? Ja to posledne zkousel, a nedostane se pres BIOS, a v nem zadna moznost na ignorovani teto skutecnosti neni... Je to HW hack, nebo upraveny BIOS?
Možností je několik (liší se to model od modelu a výrobce od výrobce). Tohle jsme zkoušeli my:
- funguje to bez úprav
- lze to vypnout v BIOS
- upravený BIOS
- někdy stačí kabeláž k ventilátoru vhodným způsobem zkratovat a server má za to, že vše je v pořádku
- hardwarový hack formou přidání odporu (některé stroje měří otáčky podle odporu, musíte změřit jaký odpor potřebujete)
- hardwarový hack formou přidání generátoru impulzů (některé stroje měří otáčky pomocí impulzů)
- upravený zdroj přímo výrobcem (což nám udělalo HPE a poslalo do Moonshotů upravené zdroje a překvapivě Moonshotům nevadí, že nemají osazené ventilátory).
Určitě existují i některé další metody. Když jsme chtěli něco testovat a nechtěli jsme se tím víc zabývat, tak jsme prostě ventilátor dali mimo olej pomocí prodloužené kabeláže. Tam sice neuspoříte na provozu, ale na vyzkoušení to funguje.
Na většinu věcí se dá najít hodně návodů na internetu.
Nebojíme. Proč? Máme pozemek okolo, ten oplotíme. Budeme několik úrovní oplocení.
Celé datacentrum je odlité z monolitického betonu a stejně jako současné je částečně pod zemí (ve svahu). V novém byste musel překonat několik vrstev betonu a celkově až 110 centimetrů litého betonu, abyste se dostal k serverům. Nebo máte možnost projít přes bezpečnostní dveře, další bezpečnostní dveře, trezorové dveře, další trezorové dveře a až potom byste byl u serverů...
Navíc naše datacentrum je privátní a nemají tam přístup cizí osoby.
Pokud jde o vodu, kompletně celá budova je nad úrovní tisícileté vody. Serverová část ještě výše. Vše je dělané jako samostatná jednotka s komplexním zázemím a například i generátory uvnitř. Voda by byla problém v případě, že by stoupla o cca 7 metrů nad hranici tisícileté vody. Potom bychom museli vše odstavit (nebyl by kyslík pro provoz generátorů) a museli bychom jet z druhého datacentra, které máme. Pokud stoupne voda o 7 metrů, tak bude v Českých Budějovicích na náměstí téměř 9 metrů a WEDOS již nikoho nebude zajímat. Vše by bylo v datacentru zachováno, protože je to monolitická betonová budova.
Vše děláme s maximální péčí a nic nepodceňujeme.
Ahoj, nedalo mi to a i když nejsem z jiznich cech tak jsem si dohledal na mapach tyto mista:
z mapy vyplývá ze namesti je výš o 16 m, tudiz kdyz stoupne voda o 7 m tak na namesti nejen ze nebude nic ale jeste zbyva 9 m
Jako třeba jsem neco spatne zmeril, urcil adresu atd. Ale muze mi to nekdo objasnit?
Víc nez minusy mi pomuze objasneni. Díky
Stačí, když si pořádně přečtete komentář, na který reagujete. Píše se tam o situaci, kdy bude voda 7 metrů nad hranicí tisícileté vody. Takže pokud je českobudějovické náměstí dva metry pod úrovní tisícileté vody a není chráněné proti povodni 7 metrů nad tisíciletou, bylo by na něm v takovém případě odhadem 9 metrů vody. Vzhledem k tomu, že v roce 2002 byla voda na náměstí, připadá mi jeho výška vůči tisícileté vodě uvěřitelná. Navíc to datacentrum nebude ohroženo, když se voda dostane až k němu, ale až kdyby v tom místě vystoupala do určité výšky. Takže nemůžete porovnávat nadmořskou výšku daného místa, ale nadmořskou výšku plus tu výšku hladiny, která ještě datacentrum neohrožuje.
To je samozřejmě exemplární nesmysl prvního stupně - protože šířka profilu při rozlivu při povodní je v Budějcích asi tak 30x :-)) větší než na Hluboký - stačí se podívat na mapu - v budějcích se řeka rozlije od Rudolfovský až někam na výstaviště, na Hluboký je z jedné strany omezená Zámostím, na druhý straně Podskalím - na obou stranách je totiž kopec.
Pokud se někdo chce podívat jak to bylo (místní si to dobře pamatují)
tak si stačí pustit http://www.dibavod.cz/70/prohlizecka-zaplavovych-uzemi.html
vybrat "záplavové území největší zaznamenané přirozené povodně" a zvětšít si Budějce - v nich se voda rozlije široko daleko, naopak na Hluboký je průřez totálně uškrcený přesně v místě mostu (tj. přesně v místě datacentra).
Někdy je totiž dobré se zdržet komentářů o místech, kde pisálek zjevně nikdy nebyl.
Řekl bych, že váš předpoklad, že pan Grill nikdy nebyl v datacentru Wedosu v Hluboké nebo v Budějovicích na náměstí, je dost odvážný. Nebo se jen neorientujete v tom, kdo co v komentářích napsal?
Model záplav Hluboké 7 metrů nad tisíciletou vodu asi nikdo nemá, takže já jsem to vyjádření pana Grilla chápal hlavně jako vyjádření pravděpodobnosti než jako přesný údaj, jak vysoko by byla hladina v Českých Budějovicích. Navíc odhadovat zaplavené území podle mapy je asi tak stejně přesné, jako tvářit se, že sedm metrů nad tisíciletou vodu je všude stejná povodeň. Ona totiž ta voda v zúženém profilu najednou nepoteče do kopce, ale bude se rozlévat před tím zúženým místem a hladina v tom zúženém místě bude o něco níž, než v tom rozlivu před ním – jinak by totiž ta voda oním zúženým místem neodtékala, že.
ono se to chce pokusit pochopit význam toho shluku písmen, kterému se říká slova a věty.
P. Grill jistě už na Hluboký byl - akorát si věci v rámci PR upravuje k obrazu svému.
Ten, co tam zjevně nikdy nebyl bude spíš ten nativní tapetovač Jirsák - až ho jednou potkáte, tak se mu to můžete pokusit vysvětlit - co je to ta H2O a jak se obvykle chová - ale podle mě to je naprosto marný.
ono se to chce pokusit pochopit význam toho shluku písmen, kterému se říká slova a věty.
Jo jo, to doporučuju. Nevzdávejte to, jednou se vám to podaří.
Ten, co tam zjevně nikdy nebyl bude spíš ten nativní tapetovač Jirsák
Na to, abych upozornil, že „o 7 metrů výše“ se vztahuje k tisícileté vodě, nepotřebuji být na Hluboké. K tomu úplně stačí, když pochopím význam textu. Taky to někdy zkuste.
co je to ta H2O a jak se obvykle chová
Do kopce obvykle neteče. Nastudovat, jak se voda chová v úzkém místě, můžete například na nějakém jezu, kde se voda nepouští přes korunu, ale šlajsnou nebo náhonem. Můžete si tam všimnout takového zajímavého jevu, že hladina nad jezem je výš než hladina pod ním, a tím úzkým místem, třeba náhonem, se ty hladiny vyrovnávají, takže v tom náhonu teče voda se shora dolů – na začátku náhonu je hladina v úrovni hladiny nad jezem, na konci v úrovni hladiny pod jezem.
Ještě jedna poznámka - pokud by bylo na náměstí v Budějcích těch 7 :-)) :-)) m vody, tak na Hluboké by zbyl akorát : -)) tak zámek - viz průřez profilu v Budějcích při hladině cca 6m (mj. nesmysl prvního stupně) nad největší povodní a pak si to chce zkusit přepočítat na profil na Hluboký u mostu - kolik by tam bylo vzdutí.
Jen to malinko upřesním. Není to to hlavní, o co u TIER jde, ale nějaké záležitosti se tam v tomto směru řeší. Rozhoduje i lokalita. Datacentrum nesmí být v leteckém koridoru, u přistávací dráhy letiště nebo třeba u dálnice.
Z hlediska bezpečnosti se řeší nějaké bezpečnostní perimetry a pravidla.
Podobných krytů moc nenajdete. Současný je kryt civilní obrany z roku 1976, tedy z doby studené války a je ze 45 cm poctivého železobetonu a z jedné strany ve skále. Nové datacentrum je v podstatě tak kryt. Na fotkách a z ulice vidíte kancelářskou část, ale datový sál je technicky druhá budova (za tou administrativní). Celé z betonu. Jeden vstup přes několik úrovní zabezpečení. A nehrozí ani to, že by byla možnost nabourat do budovy a ohrozit tak servery (což třeba v některých i nových datacentrech v ČR běžně najdete - stačí "omylem" nedobrzdit náklaďák a jste v datovém sálu :-) ). U nás by s tím měl problém i tank. Jednak datový sál je výrazně výše, než silnice a jednak u silnice je 30 cm železobetonová stěna, potom další v administrativní budově a potom další železobeton a nakonec celý monolitický datový sál.
Ano, umíme to i vyreklamovat. Umíme to i odmastit tak, že to bez speciální nástrojů nemáte možnost poznat.
V serverech nejsou jen ventilátory ve zdrojích, ale běžně 4 až 8 různých větráků, které odvádějí teplo ze stísněných prostor uvnitř serveru. Tyto ventilátory mají příkon v desítkách wattů. Když to vynásobíte počtem... Běžně to je 70-150 wattů (řídí si otáčky) a to je bez problémů například 1/3 napájení serveru. Ty my musíme vyndat a tím ušetříme tuto třetinu energie.
Elektronky s opravdu velkým výkonem se chladily také odpařováním vody, třeba trioda RD 250VM s výkonem 250 kW, určená pro dlouho- a středovlnné vysílače (vysílač Topolná na 270 kHz jich měl ve dvou koncových stupních celkem šest = 1,5 MW). Mimochodem, poprvé jsem se o ní dozvěděl skoro před 50 lety z toho pěkného kapesního katalogu součástek Tesla a koukám, že se dodnes vyrábí.
Chcem sa opytat este na SSD na VPSkach, ked uz tu odpovedate na otazky.. Ako su spolahlive? Mam stale taku predstavu, ze to je nie lacny spotrebak a ked si na superlacnej VPSke kopirujem hore/dole stovky MB, ze vam to zneuzivam :). Chapem, ze to mate nejako zratane, ale nejde mi to do hlavy..
Používáme serverové SSD disky a ne disky do pracovních stanic. Rozdíl není ve výkonu (někdy je u serverových nižší), ale právě v životnosti.
SSD disků máme několik tisíc a používáme je intenzivně 3,5 roku (všechny nové služby od jara 2014 jedou na SSD) a bez problémů. Nevím to přesně, ale mám za to, že u nás mají menší poruchovost, než točivé disky.
My jsme na stejné svorkovnici jako MVE. Takže primárně elektřina půjde k nám a dokud bude odběr, tak bude dodávat, respektive dokud bude dodávat, tak budeme odebírat. Teprve následně za tím je trafostanice a veřejná síť. Zjednodušeně řečeno.
Naše datacentrum je stavěné (a chceme mít certifikované) na cca maximální výkon 320 kW. V reálu to bude o něco méně, protože musí zůstat nějaká rezerva. V reálu tedy pojedeme do 300 kW.
Naše spotřeba je malá, protože používáme mimořádně úsporné technologie. Ono to začíná tím, že můžete koupit server za 30 tisíc a ten má výkon X a spotřebu Y. Nebo pořídíte sever za 300 tisíc a ten má výkon 10X a spotřebu 5Y nebo pořídíte server za 3 miliony (jako máme HPE Moonshoty, které mají výkon jednoho současného racku) a tak výkon je 40X a spotřeba třeba 10Y. Zároveň s tím máte méně práce, zabere to méně místa...
Zároveň chceme chladit v oleji a servery mít potopené. Takže jak bylo uvedeno v diskuzi, tak jen tím, že musíme vyndat ventilátory, ušetříme cca 1/3 spotřeby. Kdybychom to neudělali, tak se budeme pohybovat někde kolem 400-450 kW. K tomu nepotřebujeme drahé a provozně drahé klimatizace, které potřebují desítky % rezervy v napájecí síti. S těmi rezervami bychom potom mohli být někde na 550-650 kW. Tady už vidíte zásadní rozdíl. U nás to uchladíme oběhovými čerpadly, která budou mít spotřebu 2-3% odběru serverů a nepotřebují takové rezervy jako klimatizace, protože lze startovat pomocí softstartérů apod a hlavně to jsou zcela jiné řády...
https://www.youtube.com/watch?v=hoqsUCw6bmM&t=1s
U nás nemáme ani žádné cizí technologie (včetně cizích serverů), které jsou energeticky náročné. Jdeme jinou cestou, než klasická datacentra. Ale to děláme asi vždy. :-)
Ja chapu ze jste energeticky efektivni a tomu i fandim. Je take jasne, ze vetsinu vyrobene energie MVE spotrebuje vase datacentrum, jen bylo asi zbytecne zminovat MVE jako zalozni zdroj energie, kdyz takto v soucasnem stavu slouzit nemuze. Jinak tech 300kW na MVE je pouze maximalni hodnota prumerny vykon se pohybuje uplne nekde jinde (aktualne pod 100kW). Proste mi prijde zbytecne takove "zelene PR" zde na rootu, kde vsechny vice zajima vase technicke reseni.
Par fotek v clanku chybi:
https://ibb.co/b1ZCWR
https://ibb.co/jzCcy6
https://ibb.co/f714d6
https://ibb.co/gNnAJ6
https://ibb.co/hfOvkm
a jedna co mluvi za vse - tam kde stala tato budova je staveno datacentrum
http://gallery.lulja.com/gallery/czechia/povoden-hluboka/img/povoden-2002-hluboka-podskali-za-crop0013.jpg
inovacim fandim a myslim si ze se urcite snaha se neda uprit ale zase mi vadi kdyz nekdo dela z lidi pitomce
ale Vase vec - stavite si za svoje tak delejte jak umite
Budova na fotografii stále stojí. Naše kancelářská budova stojí vedle a všechny prostory jsou nad tisíciletou vodou. Budova datacentra je jiná, je za tou kancelářskou a již o několik příspěvků výše jsem vysvětloval jak to je. Je celá z monolitického betonu a voda by musela stoupnou o dalších cca 7 metrů, aby byl problém (generátory by neměly kyslík).
Nikdo pitomce nedělá. Je to tak, jak jsem napsal v jiném příspěvku. Pokud se chcete přesvědčit, tak přijďte. Stačí se podepsat a můžeme se domluvit na prohlídce a můžete si to vše zaměřit.
Ano, stavíme za své.
Jenom rikam ze datacentrum je postavene primo v zaplavove oblasti (viz odkaz na foto vyse) - hned vedle reky Vltavy kam se reka rozleva. Zaklady budovy v podstate budou pod vodou, infrastruktura bude pod vodou - zvoleni lokality urcite neni stastne. Z tohodle pohledu je asi jedno jestli mate dalsi 2-5-7 metru betonu. Zkratka az prijde nejaka vodni pohroma tak okoli datacentra bude pod vodou.
Nemam nic proti Vasi firme, pouze konstatuji stav a myslim si ze by bylo dobre zakaznikum rici celou pravdu.
Kancelářská budova je v přízemí jako společenská místnost a i tato místnost je nad hranicí tisícileté vody. Kanceláře jsou o cca 4,5 metru výše. Přístup tam je i z druhé strany budovy, tj. z kopce, který je o 60 metrů vyšší. Tam není problém se dostat kdykoliv.
Trafostanice je za budovou, mimo velkou vodu, ale kdyby technicky selhala, tak nepodceňujeme nic. Běh bez energií - 3 linie generátorů, celkem složeno z 5 kusů strojů. Každá linie na 100% výkonu celého datacentra a s nádrží na 12 hodin provozu 100%. Počítáme 100% osazení, které nikdy nebude, protože nikdy nemůžeme vše osadit na 100% a nemít rezervu... K tomu další naftové hospodářství přímo na místě, které bude schopno pokrýt automaticky několik dalších dní provozu a k tomu vždy možnost doplňování i ze strany kopce. Máme tam pozemek.
My jsme skutečně nad takovými alternativami přemýšleli a uvažovali jsme i nad problémy co kdyby.
Máte naprostou pravdu. Některým lidem se tady nedá nic vysvětlit. Někdy to nechtějí pochopit. Někdy platí úměra - čím více anonymní, tím více přesvědčený :-)
Jak jsem uvedl - my stejně vše nenasadíme, protože si vždy něco necháváme jako "hardwarovou zálohu". Nevyužité IP se využijí, protože pár klientů bude chtít o IP navíc.
Ne, pane Grille, Jirsak napsal jako obvykle naprostou blbost a ted se z toho snazi vykroutit. V segmentu /24 je prave 254 adres pouzitelnych pro klienty, pricemz pokud nechcete napriklad poradat pouze lokalni LAN party, musite z toho rozsahu odecist jeste nejmene jednu IP adresu pro router, ktery ten /24 rozsah spoji se "zbytkem sveta". Overte si to u vasich sitaru.
Tudiz bez ohledu na to, co jste rekl ci nerekl, a jak jste to myslel nebo nemyslel, je konstatovani "254 serveru se vejde do jednoho rozsahu /24" hloupost (tedy krome nejakeho velmi specifickeho nasazeni), do ktere se Jirsak nachytal.
Ne, nenapsal jsem žádnou blbost. V segmentu /24 je právě 256 adres použitelných klienty. IP protokol používá pro směrování pouze IP adresy, nezná žádnou adresu sítě nebo masku sítě. Rozdělení na sítě je pouze administrativní záležitost a věc zvyku a dohody. Např. to, že se IP adresa s lokální adresou obvykle používá jako broadcast. Ano, je dost programů, které s tímhle počítají, takže pokud byste takovou adresu použil jako IP adresu zařízení, budou některé programy protestovat a některé možná nebudou vůbec fungovat. Ale to je nedokonalost těch programů. Pokud s tou adresou bude komunikovat někdo z venku sítě, nebude s tím mít žádný problém, protože dotyčný vůbec netuší, jestli máte ve své síti /24 nebo /22 nebo třeba /16. To, že se lokální adresa se samými nulami označuje jako adresa sítě a obvykle se při adresování vynechává, je už čistě administrativní záležitost, nevím o tom, že by tu adresu nějaký program řešil nějak speciálně (což neznamená, že takový neexistuje). Router ani brána ani nic takového také nemusí být součást daného adresního prostoru, i když jsou zařízení propojená s dalšími sítěmi. Zařízení mohou být např. dostupná i pod jinými IP adresami a spojení do jiných sítí mohou mít přes ně. A nebo prostě může mít brána nebo router IP adresu z jiného rozsahu. Např. v datacentru můžete mít přidělený „rozsah“ /32, a není s tím žádný problém.
To, že víte, jak se něco obvykle dělá, ještě neznamená, že rozumíte tomu, jak to celé doopravdy funguje. Takže pokud někdo napíše něco, co není v souladu s vašimi omezenými znalostmi, nutně to neznamená, že píše blbosti – možná prostě jenom ví o dané věci víc, než vy.
Jo, ale nikdo nepíše, že to budou provozovat v síti /24. Třeba mají existující síť /23, ze které využívají jen dolní polovinu, tak do horní poloviny mohou dát 255 strojů. Adresa 192.168.1.0/23 je validní IP zadaného rozsahu, stejně jako 192.168.0.255/23 není žádný broadcast. Za těchto podmínek se jim servery vejdou do jednoho C-čka.
To jsem psal níže, samozřejmě /23 jde použít, ale vzhledem k tomu, jak to bylo v textu podáno a jak se vyjadřoval pan Grill to opravdu vypadalo, že použijí /24 a pár serverů nechají v záloze. Diskuze tady byla o tom, jestli lze na /24 využít adresy {N, SN, 0} a {N, SN, -1} jako zdrojové adresy pro odchozí provoz. A k tomu tvrdím, že při dodržení RFC to nelze.
Diskuze tady byla o tom, jestli lze na /24 využít adresy {N, SN, 0} a {N, SN, -1} jako zdrojové adresy pro odchozí provoz.
Nikoli, diskuse byla o tom, jestli lze do rozsahu /24 dostat 254 serverů. Přičemž vynecháme-li řešení, že to ve skutečnosti bude součást /23 sítě nebo větší, pořád jsou k dispozici minimálně tři řešení, z nichž dvě neodporují žádnému RFC.
jako zdrojové adresy pro odchozí provoz. A k tomu tvrdím, že při dodržení RFC to nelze.
Jenže rozdělení IP adresy na adresu sítě a lokální část adresy platí jenom v té vaší síti. Jakmile paket opustí hraniční router směrem ven, je zdrojová IP adresa prostě jen IP adresou, žádná adresa sítě tam není. Takže o tom vašem porušení RFC se nikdo nedozví a nikomu to nevadí.
A navíc, jak už bylo mnohokrát řečeno, když z prostoru /24, tedy 256 adres, odeberete ty dvě krajní „rezervované“, pořád vám zbyde 254 adres k použití, což k pokrytí 254 serverů stačí.
:-D Jasne, mistre Jirsaku, 256 pouzitelnych adres :-D A kam voni prosim vas dali broadcast a network address?
Jo a co si voni predstavuji pod takovym "gateway v jinem nez stejnem rozsahu" - jakpak by se asi klienti ze sveho rozsahu bez routeru do toho "jineho" rozsahu dostali, co? Voni by si asi meli o tech sitich fakt neco precist, nez tu zacnou mudrovat...
Jisteze :-) Timto konstatovanim to ovsem nezachranite - sahnete si sam do svedomi, ze cislo 254 vas proste svedlo k myslenkam na "krasne vyplneny" rozsah /24, a trosku vam to "ujelo."
V zasade o nic nejde, je to nadsazka, ale za snaha se z toho posleze vykroutit a jeste na vytky reagovat utocne, o vas vypovida mnohem vice nez cely rozhovor o datacentru. A radi vas to po bok takovych smutnych pripadu jako je mistni klaun Jirsak
Kde je napsáno, že síť musí mít broadcast adresu? A kde je napsáno, že vůbec existuje konkrétní adresa zařízení nazývaná adresa sítě? Adresa sítě je jiný jmenný prostor, než adresy zařízení – nenechte se zmást tím, že se adresy sítí zapisují jako IP adresa následovaná maskou sítě, to je jen forma zápisu.
Ta diskuze mě zaujala, pořád se něco vyvíjí, ale zrovna o tom, že by se někdo globálně odvážil tuto změnu provést jsem nikdy neslyšel a nedovedu si představit, že by to někdo kvůli nekompatibilitě různých OS risknul. Aby bylo jasno tak jsem Vám to dohledal.
Jedná se o RFC 1122 bod 3.2.1.3 (e) a (h) a pozdější zjemnění v RFC 3021 3.1. pro {NN,SN,0} a pro /31 spoje bod-bod. Pro neznalé čtenáře, RFC, to jsou takové ty "de facto" standardy pro Internet, na základě kterých funguje.
A aby bylo jasno, pořád se bavíme o původně definovaném rozsahu /24, na kterém tahle diskuze začala, ne o žádných specialitkách typu /23 nebo /32, anycastu apod.
Doufám, že teď už svou chybu uznáte a kolegovi se omluvíte.
O žádné globální změně nebyla řeč. Dokonce ani nebyla řeč o tom, že by ten rozsah /24 musel tvořit samostatnou síť.
Sítě třídy A až E dle RFC1122 se už dnes nepoužívají, ukázalo se, že je potřeba jemnější dělení (někdy se ze setrvačnosti síť o příslušné velikosti označuje daným písmenem, ale to neznamená, že není možné mít i jinak velké sítě). Podstatné ale je, že tohle jsou doporučené postupy pro organizaci lokální sítě, vtip internetu ale spočívá v tom, že dokud budete umět přijímat a odesílat správně strukturované IP pakety, můžete s okolním internetem bez problémů komunikovat, bez ohledu na to, jak vypadá vaše interní struktura sítě. Takže když vám řeknu, že máte navázat spojení s IP adresou 216.58.209.0, tak vám nic nebrání takové spojení navázat, protože z venku nevíte nic o tom, jestli v cíli je cílová síť 216.58.209.0/24 nebo třeba 216.58.208.0/22. Nicméně tohle jsem uváděl jako perličku, že když máte síť pod kontrolou a víte, co děláte, dají se použít i ty rezervované IP adresy.
Podstatné je ale to, že i když odečtete tyto rezervované IP adresy, je k dispozici v /24 síti 254 IP adres k přidělení, což pro 254 serverů stačí.
Pane Jirsák, buď trollíte a pak nemá smysl s Vámi dále diskutovat, nebo nerozumíte psanému textu.
1. RFC překvapivě zůstávají (alespoň z části) v platnosti i pokud jsou doplněna novějšími RFC, všimněte si, že v popisu je updated by a ne obsoleted by. Pokud máte relevantní RFC, které tyto 2 adresy povoluje, tak sem s ním. Část o rezervovaných adresách dle mého nadále platí, pokud máte RFC které je ruší, sem s ním.
2. Adresy se nedají použít, protože je zakázáno je použít v odchozích paketech a na korektně implementujících systémech by Vám neměl projít 2. paket ze 3-way handshake (od serveru ke klientovi).
3. Nemáte 254 adres, protože potřebujete alespoň 1 adresu v rámci podsítě pro výchozí bránu, 254 serverů bez konektivity do Internetu je na nic. V reálu (jde o datacentrum) budete potřebovat ještě vIP, a alespoň 1 záložní bránu kvůli redundanci (VRRP/HSPR), viz to co napsal předřečník.
Ad 1 – Nepsal jsem nic o tom, zda někdo něco povoluje nebo nepovoluje. Psal jsme, co je technicky proveditelné, pokud víte, co děláte.
Ad 2 – To se právě mýlíte, protože celá ta věc kolem adres sítí platí jenom v té síti (pokud ji chcete dodržovat). Jakmile paket projde přes hraniční router té sítě, je to prostě paket se zdrojovou a cílovou IP adresou, a nikdo neví, jak je ta síť uvnitř uspořádaná. Psal jsem vám to i na konkrétním příkladu, na kterém jste si mohl ověřit, že vaše tvrzení není platné. Pokud na něm stále trváte, tak by mne zajímalo, zda tedy adresu 216.58.209.0 je možné jako odchozí adresu použít nebo ne, zda to podle vás je adresa sítě nebo adresa zařízení.
Ad 3 – Opakovaně jsem vám vysvětloval, že IP adresa výchozí brány nemusí být z rozsahu dané sítě. Zdá se, že jste tuto informaci ještě nevstřebal, protože jste se ji ani nepokusil vyvrátit, ani s ní nepočítáte ve svém tvrzení. Např. některá datacentra přidělují koncovým zařízením IP adresy ze sítě /32, tam se vám žádná výchozí brána opravdu nevejde.
ad 1. - Takže se vykašleme na standardy na kterých je Internet postavený, použijeme zařízení, na kterém ta konfigurace projde, pak vyměníme HW a najednou to přestane fungovat... Co na tom, že ve standardu je napsáno "MUST NOT", tj. nesmí. Pořád čekám na to RFC, které to povoluje.
ad 2. - nelze říct, potřebuji masku sítě. V té koncové síti, kde paket vznikne.
ad 3 - u IPv6 to platí a používá se to. U IPv4 opět nevím o žádném RFC, kde by tato bylo povoleno u /24 o kterém se bavíme. Zkuste si smazat třeba na Linuxu pomocí iproute2 (když jsme na rootu) výchozí bránu na /24 a pak ručně přidat na stejném interface výchozí bránu mimo rozsah adres sítě a napište, jak jste pochodil. Předpokládám, že dostanete "RTNETLINK answers: Network is unreachable".
Ad 2 – Vy nejste v té koncové síti, kde paket vznikne. Vy např. provozujete nějaký server a přijde vám paket se zdrojovou adresou 216.58.209.0. Zahodíte ho na firewallu s poukazem na nějaké RFC, že má ten paket špatnou zdrojovou IP adresu? Představte si to jako reálné řešení vašeho routování a firewallu, pokud potřebujete další informace, třeba o rozsahu zdrojové sítě, tak si je zjistěte tak, jak byste to dělal v reálném případu. Asi byste to nezjišťoval v diskusi na Rootu.
Ad 3 – Proč by to mělo nějaké RFC povolovat? Potřebujete na všechno povolení RFC, nebo zvládnete něco udělat sám, tak, aby to žádnému RFC neodporovalo?
Až budete příště zase někomu doporučovat, že si má něco vyzkoušet, vyzkoušejte si to nejdřív sám. Mám tu zrovna před sebou jeden VPS. IP adresa je přidělovaná přes DHCP, já jsem nic v konfiguraci IP adres a routování neměnil, takže se nemusíte bát, že by tam bylo něco zákeřně nastavené, abych vás zmátl. Pozměnil jsem jenom prefixy sítí:
# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: ens3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether aa:bb:cc:dd:48:2b brd ff:ff:ff:ff:ff:ff inet 111.222.114.82/32 brd 111.222.114.82 scope global ens3 valid_lft forever preferred_lft forever inet6 2001:1111:2222:3333::475/128 scope global valid_lft forever preferred_lft forever inet6 fe80::f816:3eff:feea:482b/64 scope link valid_lft forever preferred_lft forever # ip route default via 111.222.114.1 dev ens3 111.222.114.1 dev ens3 scope link
Připojený jsem tam přes SSH přes IPv4, takže myslím můžeme předpokládat, že tam IPv4 docela obstojně funguje a spojení se světem přes IPv4 ten server má.
Víte, ono nestačí přečíst si nějaké RFC, ono je potřeba taky pochopit, jak to celé funguje. Třeba takový router nebo výchozí brána, to není žádná magie. To je prostě záznam v routovací tabulce, který říká „pokud máš paket s cílovou adresou z tohohle rozsahu (nebo s libovolnou cílovou adresou v případě výchozí brány), pošli ho zařízení s touhle IP adresou. Takže když chci příslušný router nebo bránu použít, musím akorát umět poslat paket zařízení s danou IP adresou. Proč by ta IP adresa musela být ze stejného síťového rozsahu, jako jiná IP adresa toho zařízení?
Proč by musela být ze stejného rozsahu?
Patrně by nemusela, ale použití scope link na adresu gw mimo rozsah je celkem prasárna, která bude fungovat na linuxu, ale je otázka, jestli bude fungovat na jiných operačních systémech.
Nehledě na to, že pořád mluvíte o komunikaci mimo danou síť, ale komunikace může probíhat i v rámci sítě a pak budete mít samozřejmě problém se dostat na stroj s adresou broadcastu. Třeba takové ssh 1.2.3.255 v síti /24 bych řekl, že fungovat nebude, stejně jako cokoliv jiného na TCP.
Ono zahrávat si s hraničními případy, které RFC moc nedefinuje, většinou znamená koledovat si o problémy, protože každý implementátor síťového stacku si to může vyložit jinak.
Patrně by nemusela, ale použití scope link na adresu gw mimo rozsah je celkem prasárna, která bude fungovat na linuxu, ale je otázka, jestli bude fungovat na jiných operačních systémech.
Máte na podporu svých tvrzení nějaké argumenty? Proč by to měla být prasárna, proč by to někde nefungovalo?
Viděl jste někdy router? Jedno zařízení s jednou IP adresou připojené do internetu, tam bude pravděpodobně výchozí brána. Druhé zařízení s jinou IP adresou z jiného rozsahu připojené do lokální sítě. Když ten router do internetu přeposílá paket z lokální sítě nebo ze svého rozhraní, které je součástí lokální sítě, má ten paket zdrojovou IP adresu z nějaké sítě, ale jako výchozí brána se použije IP adresa z úplně jiné sítě. To je taky celkem prasárna? Nebo v čem se to liší od vašeho příkladu?
Nehledě na to, že pořád mluvíte o komunikaci mimo danou síť, ale komunikace může probíhat i v rámci sítě a pak budete mít samozřejmě problém se dostat na stroj s adresou broadcastu. Třeba takové ssh 1.2.3.255 v síti /24 bych řekl, že fungovat nebude, stejně jako cokoliv jiného na TCP.
Adresa broadcastu je ta, která je tak nakonfigurovaná, ne ta, kterou kterou uhodnete na základě masky sítě. A jak už jsem mnohokrát psal, broadcast adresu v té /24 klidně můžete namapovat na tradiční .255, protože v té síti pořád ještě zbyde dost IP adres.
Ono zahrávat si s hraničními případy, které RFC moc nedefinuje, většinou znamená koledovat si o problémy, protože každý implementátor síťového stacku si to může vyložit jinak.
Při implementaci síťového stacku jsou RFC popisující administrativní záležitosti dost nezajímavá, význam mají maximálně pro nastavení rozumných defaultů pro obslužné utility.
Ten příklad s /32 je zavádějící, protože fakticky neříká, že default gw leží v jiné síti, ale že na ens3 jsou dvě sítě, přičemž druhá /32 je síť s adresou gatewaye.
Ne, nejsou tam dvě sítě. Dvě překrývající se sítě, to by byla opravdová prasárna.
Takže ne, nedá se specifikovat gw na jiné síti.
Napsal jste chybné tvrzení a pak z něj vyvodil závěr, který z něj neplyne. Specifikovat bránu na jiné síti samozřejmě lze, není nic, co by tomu bránilo. Vyzkoušejte si to.
Rozdělím své odpovědi na sérii, ať nepoztrácíme kusy vlákna.
Patrně by nemusela, ale použití scope link na adresu gw mimo rozsah je celkem prasárna, která bude fungovat na linuxu, ale je otázka, jestli bude fungovat na jiných operačních systémech.
Máte na podporu svých tvrzení nějaké argumenty? Proč by to měla být prasárna, proč by to někde nefungovalo?
Zkuste to nastavit na Windows a můžeme pokračovat :-) Druhá věc je ta, že dost často máte různé appliance, které sice mohou být postavené na linuxu, ale ke konfiguraci přímo na úrovni CLI se nedostanete, takže vám zůstane jediná možnost, jak to nastavit v nějakém grafickém bazmeku, který na to není připravený.
Zkuste to nastavit na Windows a můžeme pokračovat :-)
Ve Windows to samozřejmě nastavit jde. Dokonce snáz než v Linuxu, protože jim nemusíte extra vysvětlovat, že router mají opravdu hledat v lokální síti.
Druhá věc je ta, že dost často máte různé appliance, které sice mohou být postavené na linuxu, ale ke konfiguraci přímo na úrovni CLI se nedostanete, takže vám zůstane jediná možnost, jak to nastavit v nějakém grafickém bazmeku, který na to není připravený.
Akorát nevím, jak jste přišel na to, že na těch 254 serverů budou instalovat zrovna nějakou takovouhle šílenost.
Jinak tomuto vašemu příkladu se říká směrování a je zcela v pořádku.
To jsem rád. Ovšem jsou tady tací, pro které je směrování něco neznámého, o směrovací tabulce asi v životě neslyšeli a pravděpodobně si myslí, že se routuje nějak podle masky lokální sítě nebo jak.
Akorát jste zapomněl zmínit, že ta "brána z jiné sítě" je "brána spadající do stejné sítě jako je síť na daném interface"
Nic takového jsem zmínit nezapomněl, protože to není pravda. Uváděl jsem tu příklad (možná jste se v něm nezorientoval, Root to zformátoval velmi podivně), kdy síť na daném interface je 111.222.114.82/32
, nebo-li celou síť tvoří jedna jediná IP adresa. Do téhle sítě se už opravdu žádná další IP adresa nevejde. Jako výchozí brána je na tom počítači nastavena IP adresa 111.222.114.1
, a pokud jste se ještě nesmířil s tím, že v té výše uvedené síti je jen jediná IP adresa, snad si alespoň dokážete ověřit, že IP adresa 111.222.114.1
opravdu není součástí sítě 111.222.114.82/32
.
Viděl jste někdy router? Jedno zařízení s jednou IP adresou připojené do internetu, tam bude pravděpodobně výchozí brána. Druhé zařízení s jinou IP adresou z jiného rozsahu připojené do lokální sítě. Když ten router do internetu přeposílá paket z lokální sítě nebo ze svého rozhraní, které je součástí lokální sítě, má ten paket zdrojovou IP adresu z nějaké sítě, ale jako výchozí brána se použije IP adresa z úplně jiné sítě. To je taky celkem prasárna? Nebo v čem se to liší od vašeho příkladu?
Ano, viděl jsem router. Můžete na mne mluvit třeba jazykem Cisco IOS, Juniper Junos, nebo HP Comware, což pokrývá asi 99 % trhu všech zařízení, kterým se dá říkat "router" nebo "L3 switch".
Jinak tomuto vašemu příkladu se říká směrování a je zcela v pořádku. Akorát jste zapomněl zmínit, že ta "brána z jiné sítě" je "brána spadající do stejné sítě jako je síť na daném interface"
Myslím, že asi nemá cenu abych odpovídal na většinu bodů, už to tu za mě vyargumentoval někdo jiný. Jen bych upozornil na můj vstup do vlákna, kdy jsem mluvil o tom, že z diskuze vynechávám specialitky typu /23 nebo /32, anycast apod.
O variantě, kterou popisujete samozřejmě vím, ale diskuze byla o něčem jiném, Vy se jí snažíte stáčet směrem, který Vám vyhovuje. Pokud to opravdu chcete podložit, ukažte mi funkční příklad s nastavením default GW (jediné položky směrovací tabulky, abych to upřesnil) mimo rozsah sítě na /24, o který jsem žádal. Rád se poučím.
Jen bych upozornil na můj vstup do vlákna, kdy jsem mluvil o tom, že z diskuze vynechávám specialitky typu /23 nebo /32, anycast apod.
Takže závěr je, že to nejde, s výjimkou případů, kdy to jde…
diskuze byla o něčem jiném, Vy se jí snažíte stáčet směrem, který Vám vyhovuje
Diskuse byla o tom, zda se do rozsahu /24 vejde 254 serverů. Diskusi stáčím tím směrem, že to jde – což je myslím celkem pochopitelné, když se diskutuje, obvykle lidé uvádějí argumenty na podporu svých tvrzení.
Pokud to opravdu chcete podložit, ukažte mi funkční příklad s nastavením default GW (jediné položky směrovací tabulky, abych to upřesnil) mimo rozsah sítě na /24, o který jsem žádal. Rád se poučím.
Už jsem vám tu podobný příklad uváděl, to si to fakt nedokážete odvodit sám? Nebo si přečíst manuál?
Začněte s tím, že máte na zařízení přidělenou jen IP adresu 10.0.0.100 a routu do 10.0.0.0/24 přes 10.0.0.1. Žádnou jinou IP adresu ani routu nastavenou nemáte. Chcete nastavit že výchozí brána je 192.168.123.1.
Na Linuxu:
ip route add 192.168.123.1/32 dev eth0 ip route add default via 192.168.123.1 dev eth0
Na Windows:
netsh interface ipv4 add route 0.0.0.0/0 "Ethernet" 192.168.123.1
Ano, na Linuxu je to trochu zvláštní, že musíte předem explicitně uvést, že ten router je fakt v místní síti, ale to není nic, na co by se nedalo přijít.
To ale není to, co po vás tazatel chtěl. Co vy uděláte je to, že na L2 síť dáte další L3 síť a do té pak směřujete default, což je v pořádku. Ten interface má dva L3 rozsahy, přičemž adresu má pouze z jednoho, což nesplňuje požadavek toho, co chtěl předřečník.
už to vaše "Žádnou jinou IP adresu ani routu nastavenou nemáte." není pravda, protože tu routu jste uvedl hned na prvním řádku příkladu.
@DgBd, 15:44: Připadá mi, že se tak soustředíte na to, abyste mi oponoval, že už vám nezbývají síly ještě se držet tématu diskuse a občas už ani na to, aby váš komentář byl ještě příčetný.
Co vy uděláte je to, že na L2 síť dáte další L3 síť a do té pak směřujete default, což je v pořádku.
Celá ta diskuse začala větou z článku: „Jsou úplně stejné a je jich přesně 254, takže se nám vejdou do jednoho IP rozsahu.“ Myslím, že je z toho zřejmé, že se bavíme o L3 síti. L2 do toho není potřeba tahat, pokud budeme předpokládat, že na úrovni L2 to realizovatelné je. Představte si třeba několik propojených L2 switchů, každý z těch serverů bude zapojen do jednoho portu switche a navíc bude ještě do jednoho portu připojen router. Takže realizovatelné to myslím je a dále se snad můžeme bavit o L3 síti.
Ten interface má dva L3 rozsahy, přičemž adresu má pouze z jednoho, což nesplňuje požadavek toho, co chtěl předřečník.
Nevím, jak definujete pojem „interface má rozsahy“. Podstatné je, že to rozhraní má IPv4 adresu z jednoho rozsahu, a jako výchozí bránu má nastavenou IPv4 adresu, která není v rozsahu L3 sítě, jejíž je to zařízení součástí. Tedy je možné realizovat přesně to, o čem je celou dobu řeč – 254 serverů v jedné /24 L3 síti, dvě krajní adresy sítě rezervované, a router s IP adresou, která není součástí té /24 L3 sítě. Pokud chtěl tazatel něco jiného, pak je to problém jeho požadavků, ne problém, který by bránil řešení té situace. Ostatně celá diskuse začala právě tím, že Pavouk něco předpokládal, půlku těch předpokladů ani neuvedl, ale hlavně ty jeho předpoklady nemusí být splněné.
už to vaše "Žádnou jinou IP adresu ani routu nastavenou nemáte." není pravda, protože tu routu jste uvedl hned na prvním řádku příkladu.
A tady už se dostáváme k tomu, kdy píšete z cesty. Když se popíší výchozí podmínky, a pak se popíše změna, která se po té udělá, je logické, že po té změně už neplatí ony výchozí podmínky. Když vám někdo napíše „máte červený plot, a ten natřete na zeleno“, je dost bláznivé reagovat na to tvrzením, že přece není pravda, že je plot červený, když ho pak natřete na zeleno. Je potřeba rozlišovat, že plot na začátku červený je, a teprve po natření bude zelený. Stejně tak v mém příkladu je výchozí situace taková, že máte nastavenou jenom jednu jedinou routu – do sítě 10.0.0.0/24. To je výchozí stav, máte nastavenou jenom tuhle jedinou routu a žádnou jinou – a teprve posléze tam začnete přidávat další routy (čímž se ten výchozí stav samozřejmě změní). Už to chápete? Ano, mohl jsem ten příklad popsat úplně od nuly, že nemáte přidělenou žádnou IP adresu a nastavenou žádnou routu, ale předpokládal jsem, že tady diskutují lidé, kteří si umí ten výchozí stav představit a možná dokonce nakonfigurovat. No a způsob, jak to nastavit, jsem popisoval proto, abyste si to mohli vyzkoušet. Protože tady byli tací, kteří nevěřili tomu, že to jde, a nevěřili ani když jsem popsal ten výsledný stav. Takže jsem vám napsal krok za krokem příkazy, abyste si mohli do virtuálu nainstalovat Linux nebo Windows a na vlastní prsty a oči se přesvědčit, že to doopravdy je možné.
Jak je to prosim s temi metry? Kde je hranice tisicilete vody? Z jakych dat a zdroju vychazite? Jak je mozne, ze pri vzestupu hladiny vody o 7m bude v Budejovicich na namesti 9m vody? Co sesuv pudy? Co podmaceni spodni vodou, kdyz je datacentrum zcasti v zemi?
Nevim mno.. Byt vami, radeji bych v tom prostoru udelal stylovou hospodu. Alespon byste si nemuseli hrat na trapne lidumily, ze vytapite zadarmo nejaky bazen, jehoz provoz je dotovan z verejnych penez.
No, ono to je celkem jednoduché.
Takže v prvé řadě - stavba je v místě zvaném Podskalí - je to pás vedle silnice na most do Zámostí, z druhé strany silnice je náhon té MVE.
Víz mapa.
Samozřjemě, když byly ty povodně, tak tento celý prostor bylo jedno velké jezero - MVE pak byla celkem dlouho odstavená, protože její technologie byly celá KO. Co se týče "ostrovního provozu pouze z MVE, bez připojení vnější sítě" tak to by mě teda zajímalo, jak by se to při tom instalovaném asnychronním soustrojí dalo realizovat - mj. na MVE Hněvkovice se to nedávno předělávalo (aby to šlo, kvůli čerpačce Tlemelínu) a nebylo to nic jednoduchého, ani levného. Tím netvrdím, že by to na Hluboké nešlo (technicky), ale aktuálně to na 99,9% nejde.
Jako místní, zkusím se zeptat.
Pokud by někoho zajímala situace při povodních, tak fotek se na netu najde celkem dost - třeba z roku 54 http://vodnimlyny.cz/upload/media/2867/48989.jpg
Zdroj: http://vodnimlyny.cz/mlyny/objekty/detail/2914
Foto pásu půdy mezi silnicí a skálou http://gallery.lulja.com/gallery/czechia/povoden-hluboka/img/povoden-2002-hluboka-podskali-za-2002-08-17-7.00-0019.jpg
Foto silnice vedle stavby - směr proti proudu v náhonu
http://gallery.lulja.com/gallery/czechia/povoden-hluboka/img/povoden-2002-hluboka-podskali-za-crop0032.jpg
Celá galerie
http://gallery.lulja.com/gallery/czechia/povoden-hluboka/index.php?page=4
Informaci, že když by bylo v místě 7 metrů, tak v Č.B. by bylo 9 :-)) ani nemá smysl komentovat - viz mapa - Bernoulliho rovnice platí na na Hluboký.
Je dobře, že jste sem fotografie dal. Pěkná sbírka. Na těch historických vidíte místa, kde máme vjezd na pozemek a je tam sucho. Na těch z roku 2002 je vidět, že v okolí voda byla a byla i na části pozemku, kde máme základy administrativní budovy. Základy jsou hluboké, pevné a počítají s alternativou, že by tam voda mohla být. Nejnižší místo administrativní budovy je stejně výše, než jakákoliv voda v historii.
Datový sál je technicky druhá budova, je umístěna za administrativní částí a je ještě výše. Voda by musela ještě stoupat o další metry, aby byla šance, že se dostane ke vstupům. Jsou pouze 2 vstupy, které jsou tvořeny trezorovými dveřmi a technicky to jdou uzavřít a vydrží nápor. Potom máme jediné prostupy otvory pro vzduchotechniku, které jsou o dalších cca 5 metrů výše. Všechny technologie jsou uvnitř. My potom dáme informace k nám na web, kde bude více detailů.
Jde o to, že se od počátku s tím počítá a dělají se opatření a vše se staví podle toho. Kdybychom s tím nepočítali, tak bychom byli sebevrazi.
Mlzte a neztracejte vtip i nadale. Nicmene napr na teto fotografii http://gallery.lulja.com/gallery/czechia/povoden-hluboka/img/povoden-2002-hluboka-podskali-za-crop0032.jpg primo z mista soucasne stavby je zcela zrejme ze pozemek kde stavite datacentrum (at uz kancelarskou cast nebo primo datovy sal) je pod vodou vcetne jeho okoli. A da se polemizovat o tom zda fotografie vznikla v dobe nejvyssiho stavu vody. A kdyz bude okoli pod vodou tak asi bude problem i s dodavkami elektriny, pak pojedou diesly - a jak tam budete vozit palivo do tech agregatu ? Vrtulnikem ?
Jak rikam - je to opravdu jen Vas business a Vase penize, ale na druhou stranu reknete pravdu o miste kde stavite.
Stavite v zaplavove oblasti - ANO
Byla na pozemku kde stavite voda - ANO
Jakakoliv jina odpoved na tyto otazky z Vasi strany neni pravda.
Pokud jste technologicky pripraveny mit centrum zaplavene to je v poradku, ale skutecnou funkcnost Vasich technologii proti povodni zjistite az tam ta voda natece.
Na rozdíl od Vás nemlžíme.
Přečtěte si co, jsme kde napsali a uvedli.
Vy stále nechcete vidět, že máme de facto 2 budovy. Jedna je administrativní a to je ta, kterou vidíte a o které pořád píšete, že na tom pozemku byla voda. Ano, to tak je. Potom máme datový sál, který je na pozemku, kde voda nikdy nebyla, ale to vy vidět nechcete.
Máme pozemek ještě i směrem k zámku, což je o další desítky metrů výše. Takže máme přístup, máme zásobování. A níže máte vysvětlené jak se zásobováním nafty pro diesely.
Do detailu vzato máme druhé datacentrum a pojedeme tam odsud :-) .
Tady ještě dám kopii toho, co jsem napsal v jiném příspěvku před chvilkou.
Trafostanice, která je zaokruhovaná a je opět nad historickou vodou. A kdyby nic, tak budeme mít 3 linie motorgenerátorů. 1 bude primárně zálohovat kompletně celý vstup a bude celá uvnitř budovy. Jen doplňování nafty a vzduchu bude vyvedeno vysoko nad budovu. Druhá a třetí linie motorgenerátorů bude napájet vždy jednu (pod podlahou) nebo druhou (pod stropem) napájecí větev. Část generátorů, která utáhne 100% provozu, bude uvnitř a část (taky na 100% zátěže) venku (vysoko a daleko od vody). V každém případě má vše přístup z druhé strany (60 metrů vysoký kopec), kde žádná voda nebude. Generátorů bude celkem 5 na 3 různých větvích. Všechny generátory jsou projektované na nepřetržitý provoz, každý má dostatečný výkon na 100% provozu a přímo v sobě mají nádrže na 12 hodin 100% provozu (vynásobte krát počet generátorů) plus budeme mít ještě další naftové hospodářství s další zásobou. Všechny budou mít možnost doplňování ještě mimo budovu... Takže v tomto směru problém není. Generátory máme tedy stavěné v režimu N+ 2(N+1). Z hlediska TIER potřebujete je 2N, my jsme si tam přidali ještě jednu celou řadu navíc.
Uvnitř budou UPS - jedna řada pro napájecí větev pod podlahou a druhá řada pro napájecí větev pod stopem. UPS jsou 2(N+1), přičemž při 100% zátěži mají vydržet nejméně 15 minut.
Celé je to koncipované tak, že budou 2 napájecí větve, kompletně oddělené, nikde se nekřížící a nikde se nepotkávající. Napájení z obou větví se potká až v serveru (každá větev do jiného zdroje). Všechny kabely máme nehořlavé a jedna větev vede v požárně odolné podlaze a druhá větev v požárně odděleném stropním podhledu. U požární odolnosti vyžadujeme 90 minut. Takové řešení v ČR asi nikde není.
Snažíme se nic nepodcenit a vše udělat s maximální péčí.
MVE je na stejné svorkovnici jako my. Potom následuje trafostanice, která je zaokruhovaná a je opět nad historickou vodou. A kdyby nic, tak budeme mít 3 linie motorgenerátorů. 1 bude primárně zálohovat kompletně celý vstup a bude celá uvnitř budovy. Jen doplňování nafty a vzduchu bude vyvedeno vysoko nad budovu. Druhá a třetí linie motorgenerátorů bude napájet vždy jednu (pod podlahou) nebo druhou (pod stropem) napájecí větev. Část generátorů, která utáhne 100% provozu, bude uvnitř a část (taky na 100% zátěže) venku (vysoko a daleko od vody). V každém případě má vše přístup z druhé strany (60 metrů vysoký kopec), kde žádná voda nebude. Generátorů bude celkem 5 na 3 různých větvích. Všechny generátory jsou projektované na nepřetržitý provoz, každý má dostatečný výkon na 100% provozu a přímo v sobě mají nádrže na 12 hodin 100% provozu (vynásobte krát počet generátorů) plus budeme mít ještě další naftové hospodářství s další zásobou. Všechny budou mít možnost doplňování ještě mimo budovu... Generátory máme tedy stavěné v režimu N+ 2(N+1). Z hlediska TIER potřebujete je 2N, my jsme si tam přidali ještě jednu celou řadu navíc.
Uvnitř budou UPS - jedna řada pro napájecí větev pod podlahou a druhá řada pro napájecí větev pod stopem. UPS jsou 2(N+1), přičemž při 100% zátěži mají vydržet nejméně 15 minut.
Celé je to koncipované tak, že budou 2 napájecí větve, kompletně oddělené, nikde se nekřížící a nikde se nepotkávající. Napájení z obou větví se potká až v serveru (každá větev do jiného zdroje). Všechny kabely máme nehořlavé a jedna větev vede v požárně odolné podlaze a druhá větev v požárně odděleném stropním podhledu. U požární odolnosti vyžadujeme 90 minut. Takové řešení v ČR asi nikde není.
Snažíme se nic nepodcenit a vše udělat s maximální péčí.
Prosím pěkně, pane Grille, chápete vůbec, že při podobné povodni, jakou tady lidi linkují, prostě ta oblast bude evakuována a třeba taky pár týdnů se tam nedostanete? Aha, já vím, vy si budete shazovat sudy s naftou z vrtulníku na kopec. Skoulí se. dole se zarazí o bunkr a místní hospodský je narazí a píchne na agregát.
ROFL.
Byl jste někdy v této lokalitě? Viděl jste někdy kopec, kde je zámek a je o 60 metrů vyšší? Víte, že ten kopec je přístupný a ze všech stran a kdykoliv?
Když dojdou argumenty, tak se snažíte být vtipnější :-)
V jiných příspěvcích jsem napsal jak to bude s naším elektro hospodářstvím a když budeme mít 3 linie motorgenerátorů, které budou složeny z 5 strojů a každý na 12 hodin provozu (při 100% zatížení) plus další doplňování... a s možností přístupu...
Nechám toho, protože bych se opakoval a s anonymními příspěvky, které nemají argumenty je těžké bojovat. Respektive bojovat lze, ale je to ztráta času. Jdu se věnovat klientům a službám, které nabízíme.
Včera jsme spustili nové virtuální servery VPS ON (OpenNebula), které jsou předchůdcem WEDOS Cloud... Nyní testujeme nový, nejrychlejší webhosting na HPE Moonshot. Prostě jdeme dopředu.
No dyť to říkám, na kopec to shodíme vrtulníkem a pak to skoulí hostinský k bunkru... To co tady předvádíte je opravdu zábavné, vy si to představujete fakt jak Hurvínek válku. To je bezva, že máte (teoreticky) zajištěno 2,5 dne provozu. A ty další týdny budete dělat co? Vy jste asi o povodních byl někde na Marsu nebo nevím, když si představujete, že do dvou dnů následky zmizí a bude po problému.
Tak když to říkáte, tak Vás při tom nechám. Pořídíme si ještě vrtulník. Matematika je jiná, ale co se dá dělat... Vy jste odborník na všechno. Včetně vody, včetně napájení, včetně geografických záležitostí a výškopisu na Hluboké. Já se vrátím na Mars :-) .
Nebudete věřit, ale o vodě něco vím a o povodních také. A nebavíme se tady o týdnech, ale to není podstatné. My jsme na ně připraveni.
Nebo to chcete zopakovat, že máme zálohu přímo v generátorech na 5 x 12 hodin na 100% provozu, ale ta tam nikdy nebude, protože vždy musí být rezerva. Plus k tomu bude další záloha na dalších mnoho dní provozu a plus máme přístup přes kopec, který je o 60 metrů vyšší. Máme tam přístup jak autem, tak i vrtulníkem (když tedy chcete :-) ). A tam je možnost doplňovat cokoliv za běhu...
Všech 5 motorgenerátorů je speciálně vybraných na trvalý a nepřetržitý provoz. Ano, přesně tak. Výkonem a parametry jsou stavěné na plný provoz. A ještě bych ke generátorům napsal jednu zajímavost, ale Vám to nemá smysl už vysvětlovat.
A když tedy budete plánovat, že vše zdvojené (a motorgenerátory ztrojené) selže, tak máme druhé datacentrum. A tam to bude zdvojené taky. Vy z nás máte nějaké špatné sny. Pokud by jste byl zákazník, tak máte možnost volby a nebudete tady ztrácet čas tím, jak reagujete. Asi v tom bude něco z oboru :-) Nebojte, na rozdíl od Vás spím a budu spát klidně. Děláme vše s čistým svědomím a každému to rádi ukážeme.
Spolehlivost a robustnost celého řešení ale stojí na detailech, důležitá je pravidelná kontrola a testování. Ve výsledku pak stačí nechat expirovat jednu jedinou doménu a je mi celá snaha k ničemu.
Výpadky okruhů vyzkoušíte snadno, motogenerátory také, ale nechat si zaplavit budovu, aby z předpokladu bylo ověřené řešení není tak snadné. Rizikem může být i jiné chování oleje při požárech.
V minulosti jste těch výpadků a problémů měli celou řadu, proto vám tady lidé už tolik nevěří. Mít dvě datacentra je výhoda, ale nezaručí mi to, že při přepnutí správně nastavím např. routing.
Přeji ať vám to výjde, technické hračky mám také rád.
Ano, vše je to velmi komplexní a náročné a proto se vše snažíme zdvojit. Něco přímo v jednom datacentru, vše ostatní v druhém datacentru.
Okruhy máme 3x. Generátory také řešíme jako mnohonásobné řešení, které navíc pravidelně testujeme. 1x týdně vizuální kontrola, 1x týdně potom jiný den test a 1x měsíčně ostrý test, kdy skutečně shodíme hlavní jistič. A tak by šlo pokračovat.
Pokud jde o olej, tak i tahle hlediska jsme si i hledisko požární ochrany brali na zřetel. Olej se vznítí až při vysokých teplotách je ve IV. třídě hořlavin (a prakticky už na hranici s nehořlavými látkami) a jen tak se nevznítí. Ale stejně všemu chceme předejít. Vany budou uzavřené a tak tam nebude mít přístup kyslík. Tak tam nemá co hořet, ale i tak... . V datacentru najdete jen nehořlavé kabely. Máme v každé místnosti 3 různé požární sekce s odolností na 90 minut (pod podlahou, pod stropem a mezi). Co dále? Chceme tam mít sníženou hladinu kyslíku na 15%, kdy už nehoří nic. Určitě bych si vzpomněl na další záležitosti. Ve výsledku je naše řešení bezpečnější, než klasické datacentrum plné hořlavých kabelů v jednom společném prostoru, kde se pomocí vzduchotechniky honí tisíce m3 vzduchu (a tím kyslíku) za hodinu...
Přesně takhle to je a věřte, že to tak chápou i hasiči. Samozřejmostí je i automatický hasící systém, včetně trojnásobné detekce.
Řešíme-li historii, tak máte pravdu, ale nezapomínejte na několik zásadních věcí. Například - u nás hostuje tolik služeb (například hostingů máme 3x tolik, než další hosting v pořadí) a tak je o jakémkoliv problému více slyšet. Máme klienty, kteří jsou zvyklí komunikovat veřejně a tak se o čemkoliv píše veřejně. Máme hodně nepřátel, kteří se na všem velmi přiživují. Když si vzpomeneme na některé totální výpadky (i mnohahodinové) jiných, tak se o nich nenapsalo prakticky nikde (a je jich více). Ale nechci tady psát o jiných. To neděláme. Dále třeba berte v úvahu i to, že jsme odstartovali před 7 lety a za tu dobu neuvěřitelně rosteme a budujeme. Ke všemu se stavíme čelem a z každé nepříjemné situace se poučíme. Ke všemu jsme si prošli obdobím, kdy jsme třeba byli pod silnými útoky a díky tomu máme DDoS ochranu. Potom jsme měli problém s přetěžováním webserverů kvůli napadeným CMS a tak jsme udělali IDS/IPS ochranu. Vše řešíme.
velice se omluvám, ale p.Grill, píšete nesmysly - jestli to je pouze tím, že o problematice MVE nevíte nic a nebo je to cíleně (schvalně), nedokážu posoudit
Takže ještě jednou - ta MVE JE anebo NENÍ schopna ostrovního provozu?
Odpovím si sám - není.
Tečka
Umí ta MVE start "do tmy" - opět ANO nebo NE.
(neumí, protože i ty Hněvkovice potřebují v tomto případě NZ - agregát)
A nyní to nejdůležitější - pokud je skutečně velká voda, tak může běžet pouze zdroj, kde zůstane takový spád, aby to řídící systém nevyhodnotil jako malý (protože když není spád, tak jaksi není ani ani z čeho vyrábět).
V případě Hluboký to na jezu vypadlo takto:
http://gallery.lulja.com/gallery/czechia/povoden-hluboka/img/povoden-2002-hluboka-jez-voda10.jpg
Spád byl NULA, takže neběželo NIC. Náhon pro MVE je myslím :-)) na stejné řece, takže spád tam byl.......můžete hádat.
Mj. se to týká všech těchto přehrad na kaskádě, dokonce i ty Hněvkovice neběžely a to na tom byly nejlíp - protože i u nich byla dolní hladina moc vysoko.
Takže ta MVE jako záložní zdroj - ani náhodou.
Tady někdo psal, že se bavíme o záloze v případě nějaké velké vody? To jsem nikde nikdy neřekl. Na to máme jiné řešení.
V každém případě jsem řekl, že máme napájení z trafostanice, plus jsme na stejných svorkách jako MVE a tudíž elektřina (technicky a logicky) jde z MVE k nám.
V budově budeme mít 2 linie napájení, obě na 100% zátěže. Vše plně redundantní a plně oddělené (fyzicky, požárně) a nikde se to nekříží a nikde se to nepotká. Vše je kompletně včetně UPS 2 x N+1 a motorgenrátorů 2 x N (na počátku dokonce 2 x 2N). Jedna linie napájení bude pod protipožárně odolným stropem a druhá pod podlahou. Vše skutečně oddělené.
Vzhledem k tomu, že jsme si vědomi toho, že tam nemáme další napájení, tak jsme si přidali další linii a to další oddělenou sadu motorgenerátorů. Takže tento motorgenerátor nám dodává elektřinu v případě výpadku trafostanice (nebo chceme-li se bavit o MVE). Docílíme tím toho, že jsme připojeni na MVE, trafostanici (která je zaokruhovaná na VN) a když tohle nebude fungovat, tak naskočí hlavní generátor. Když selže, tak máme další 4, které mohou převezmou zátěž. Z těch 4 jsou všechny (tedy kterýkoliv z nich samostatně) schopné krátkodobě (do 200 hodin ročně) převzít kompletně provoz celého datového centra. Takže ohrožení provozu bude v situaci, když umře MVE, zaokruhované VN, trafostanice, hlavní motorgenerátor a následně 4 další. Rozumíme si? Mimořádně drahé řešení, ale chceme to udělat pořádně.
"Rozumíme si?"
Ne :-))
V článku je: "Na stejnou svorkovnici je připojená i vodní elektrárna, která je pár metrů od nás. Kdyby vypadlo běžné napájení ze sítě, budeme brát energii přímo z elektrárny, která je schopna nás plně zásobovat" což je slušně řečeno bohapustá lež. Ta elektrárna to neumí a hnedtak umět nebude.
- "umře MVE" - MVE, pokud neumí ostrovní provoz a start ze tmy, tak má NULOVÝ (spíš záporný) vliv na spolehlivost napájení vašeho objektu (viz mapa, link niže)
- "zaokruhované VN" - to uvádět jako součást "mimořádně drahého řešení" je komedie - nebo snad chcete říci, že ty "zaokruhované vedení VN" jste platili Vy nebo je to pro změnu běžná koncepce VN někoho jiného - a můžete konkretizovat ty "Vaše drahé konkrétní zaokruhované VN linky" odkud jsou a kam?
jak to je na Hluboké zadrátováno si lze celkem přesně prohlédnout na http://geoportal.eon.cz/itc/default.aspx?serverconf=vsite&wmcid=1143, stačí tam dát "hluboká" a doklikat si myší přesné místo (u mostu). Smyčkování, trafa, VN, co je odkud natažený, všechno je vidět.
Vy z nás musíte mít hodně velký komplex a máte s námi asi hodně velký problém. Co se dá dělat. Kdo chce, tak tomu se to dá vysvětlit a kdo nechce, tak mu nepomůže ani plánky, které si sám našel...
Takže na tomto odkazu je jasně vidět, že trafostanice, kterou máme u nového datacentra má přívody z různých směrů. Tečka. To tam je červené na modrozeleném.
Další debaty jsou zbytečné.
O tom jak to budeme mít zálohované a jak tam bude 5 motorgenerátorů jsem psal a nebudu to vysvětlovat znovu, protože tohle je marné a zbytečné. Sám jste se usvědčil z toho, že tady tvrdíte nepravdy.
Já teda v tom dokumentu nikde nevidím nějaký "zaokruhování VN" - pouze zemní vedení naspojkované na stávající rozvody VN a trafo (o oboje žádá EON, takže tím je jasné, co se tím "drahým řešením" a kdo ho vlastní, myslí)
https://edesky.cz/dokument/779944-rozhodnut%C3%AD%20o%20um%C3%ADst%C4%9Bn%C3%AD%20stavby%20-%20kabelov%C3%A9%20veden%C3%AD%20VN%20a%20TS%20Wedos%20Hlubok%C3%A1%20nad%20Vltavou
A tady jste jen ukázal jak se v celé situaci vyznáte... To co uvádíte zde je naše stávající datacentrum a tam máme svoji vlastní trafostanici, která má smyčku tam a zpět a není zaokruhovaná. Ale to je jiné datacentrum, než si myslíte. Ach jo. Zbytečná ztráta času.
A když už jsme u toho, tak do stávajícího datacentra budeme mít 2 nezávislé přípojky ze dvou různých stran, ze dvou různých trafostanic a celé to bude jištěné 2 různými motorgenerátory.
Co víc dodat?
Na další Vaše zbytečné a anonymní podněty už nebudu zřejmě reagovat, protože mám jinou práci. Děkuji za pochopení.
Asynchronní generátor je třeba nějak budit. Za normálních podmínek pracuje do tvrdé sítě a odebírá jalový výkon k vytvoření magnetického pole. V ostrovním režimu je s tím trochu problém. Teoreticky lze jalovinu sebrat z baterie kondenzátorů, připínáním kondenzátorů lze v omezeném rozsahu regulovat, nebo lze použít jeden z dieselgenerátorů (tam je synchronní generátor). Jak to bude prakticky fungovat záleží na mnoha okolnostech, které neznáme a nemá smysl tady teoretizovat.
Pokud jde o předělávku MVE pro ostrovní provoz, pak to (obvykle) znamená výměnu generátoru za synchronní a změnu regulace - as. generátoru pracujícímu do sítě stačí prostá hladinová regulace; soustava je stabilní.
Otázkou je samozřejmě rentabilita, protože nový generátor se do milionu nevejde, do dvou možná. Samo by to šlo spláchnout s modernizací MVE při obnově zeleného bonusu ;-)
Článek vypadal dobře, ale bohužel fotografie od ostatních čtenářů hovoří za vše.
Wedos mi bohužel připadá jako mnoho jiných českých firem, které cílí především a jedině na co nejnižší cenu. Český zákazník ji vyžaduje a je rád, že ušetří na hostingu měsíčně 100 Kč oproti konkurenci, i když mu jeho eshop vydělává třeba desítky tisíc.
No a tak si pořídí levné služby od Wedosu, který ale aby byl schopen takto levné služby poskytovat, vybuduje datacentrum vedle řeky v záplavové oblasti uprostřed ničeho na bezcenném pozemku, až přijde velká voda, což je poslední dobou každých 5-10 let, vše se zaplaví, vyzkratuje a bude nejen po funkčnosti služby, ale i po obsahu webů.
A lidé co šetří stokoruny měsíčně, si většinou každý den/týden nedělají vlastní zálohy - přesně ti pak budou naříkat.
Nenadávejme ale panu Grillovi, pouze dělá co tuzemský zákazník požaduje, smutné je, že fakta zamlčuje. V zahraničí na rovinu řeknou, naše služby jsou za 5-10 dolarů, ale jedeme na bazarovém hw toho a toho typu atd..
Podepisujete se, protože by vypadalo divně, kdybyste mluvil o poměrech uvnitř firmy pod článkem o vás, z anonymního účtu. Také je jasné, že všichni Vaši zaměstnanci v diskusi v pracovní době mínusují jak o život - viz hned první komentář v diskusi od vašeho zákazníka. Víte, všichni nejsou tak hloupí jak vy chytrý.
Dokážu se do vaší pozice vžít, chcete zákazníkům poskytovat hosting za 25,-Kč a i s bazarovým HW stále horko těžko vůbec fungujete, takže se rozhodnete ušetřit ještě víc vybudováním vlastního datacentra, ale protože nemáte díky dumpingovým cenám rezervy, zakoupíte "výhodně" 40 let starý kryt v záplavové oblasti, který nikdo nechtěl ani na provozování vesnické diskotéky.
Tento článek měl ukázat, jak jdete zákazníkům co jim je i 25Kč za hosting moc hrozně na ruku a jak jste zároveň i ti největší profesionálové, ale pak začali lidé do diskuse dávat fotografie.
Z úžasného článku, který k vám nahrne 1000 lidí je najednou mediální pohroma, protože je vidět, jak to s bezpečnostním TIEREM XXXIV je ve skutečnosti.
Je smutné, že píšete to, co píšete a neumíte se ani podepsat. Za svůj názor se přeci nemusíte stydět.
Předpokládám, že naši zaměstnanci mají jinou práci, než tady mínusovat. Určitě nechodí do podobných diskuzí zabíjet čas, ale věnují se zákazníkům a službám, které nabízíme. Možná to tak děláte u vás a proto se zmůžete jen na podobné útoky.
Plácáte páté přes deváté. Bazarový hardware jsme nikdy neměli. Vše máme nové. Koupili jsme vždy vše od Fujitsu nebo HPE. A na tom jedou všechny naše služby. Nyní jsme koupili 254 serverů něco přes rok starý a chceme je nabídnout jako dedikované servery. Nic na nich není špatného a jsou v záruce. Předpokládám, že tolik nového hardwaru jako u nás na mnoha místech v ČR nenajdete. Určitě to nebudou desítky míst... A to nemluvím o tom, jaký hardware používáme. Počínaje současnými servery a až po HPE Moonshot. Takže si své narážky můžete psát jinam. Děkuji.
Kryt jsme koupili v roce 2010 a je skutečně 40 let starý, ale to na něm nic nemění a v záplavové oblasti není. Nyní stavíme druhý a děláme to s maximální péčí. Věřte tomu, že jsme si to postavili za svoje vydělané peníze, bez úvěrů a dotací. Nevím kde berete tvrzení o dumpingových cenách, ale to už je takové zoufalé...
Nestydíme se za to, co máme a za to, jak to děláme. Každému se dokáži klidně podívat do očí. Musíme Vám hodně vadit, když takhle píšete a za svůj názor se stydíte i reálně podepsat. Nám to nevadí. Děláme svoji práci dobře a chceme dělat ještě lépe.
Táto diskusia je na psychologický alebo presnejšia na psychiatrický prieskum. Firma investuje do niečoho nového, riskuje svoje prostriedky, ľudia oddrú kopu času na to, aby mohli poskytovať služby lepšie a kvalitnejšie ako konkurencia a vždy sa nájde kopa chytrákov, ktorých cieľom je len spochybňovať, vyťahovať nepodstatné detaily a znechucovať nadšenie do roboty. Nejako tu príslušným nedošlo, že firma SVOJE vlastné riešenie dotiahla do reálneho komerčného použitia a nie je to nejaký fake produkt. Evidentne platí rovnako v SR ako aj v ČR, že doma nemôžete byť prorokom ... v iných krajinách sú na svojich šikovných ľudí hrdí, u nás ich treba zadupať do prachu, aby si moc nevyskakovali ...
Mám k článku drobné otázky
- ako chránite vane s olejom pred prachom - nevidel som na obrázkoch nejaké kryty a prach sa vždy nájde, dtto platí aj o kadejakých drobných úlomkoch - izolácie, drobné kúsky plastov a pod. - ako je to s filtráciou olejových náplní ?
- ako riešite dekontamináciu podláh, ak sa niekomu podarí zakvápať alebo vyliať olej na podlahu ?
- ako sa správajú konektory v oleji ? Niektoré typy vedia byť tak tesné, že by mohli nastať v konektore tlaky oleja, ktoré by ho mohli poškodiť ...
Děkuji za příspěvek a podporu. U nás to funguje prostě jinak. Závist, zadupat a kdo vyčnívá, tak je podezřelý. Jenže kdyby to tak bylo v historii, tak bychom stále skákali po stromech a jedli banány. Stejně tak bychom stále měli parní stroje a kuličková počítadla.
K dotazům:
- na testovacích vanách kryty nemáme. Máme je vyrobené, ale nepoužíváme záměrně. Chceme sledovat i dopad toho, že okolo je prach. V ostrém provozu vany budou zavřené a v oběhu bude jednoduchý filtr. Kdyby cokoliv, tak vanu přečerpáme a naplníme čistým olejem, ale zatím během 4,5 roku testů bez chyby.
- máme klasické zdvojené podlahy s lepším povrchem, který jen odmastíme. S manipulací se počítá, že tam budou drobné problémy a tak počítáme s tím čištěním. Obecně lze však říct, že u těch HPE Moonshot, které budeme používat se vyndá server, který váží tak 1 kg a ten se přímo nad vanou dá do přenosné vany a už se nikde nic neumaže. Totéž se udělá se switchem, zdrojem. Jediný problém je stěhování celého boxu, který (bez serverů) váží okolo 40 kg. Tam se však počítá s tím, že se manipulovat bude zcela výjimečně.
- konektory bez problémů a bez chyby. Vše funguje bez chyby. Funguje tam 230V, fungují tam LAN sítě, funguje tam všechno. Můžete se vším manipulovat a vše funguje. Přiznám se, že jsme narazili na jeden jediný problém a to při vysokých teplotách oleje (někde okolo 58 stupňů), kdy u Moonshotu došlo k problémům. Moonshot má na dně boxu sběrnice, kde je úplně vše pomocí malých jemných konektorů - strašně malé a drobné a tam je napájení žiletky, konektivita do 2 switchů, kompletně propojení do celého systému... A jak je to jemné, tak se to při vysoké teplotě zachovalo tak, že plasty měly jinou roztažnost, než kov. A někdy došlo k drobným komplikacím. Bavíme se však o extrémních teplotách. Ale my zkoušíme všechny alternativy a snažíme se to co nejvíce rozbít.
p. Grill, po pravde nie je často vidno takéto reakcie - za mňa klobúk dole :)
mám z toho dojem, že Vás to celé baví a dali ste dokopy ľudí, ktorí sú na tom rovnako
podľa popisu je to celé dobre vymyslené - jasne, dá sa aj inak a zjavne to niektorí nemôžu stráviť
držím palce v tom, čo robíte
Baví nás to. Bez toho by to nešlo. Děláme to pro radost. Ekonomicky nejsme tlačeni nikam a k ničemu. Proto naše rozhodnutí jsou dělána s nejlepším svědomím a s výhledem několika let a neděláme nějaká krátkodobá nebo zkratovitá rozhodnutí. Krok za krokem. Raději lépe a později, než rychle a špatně.
Bez nadšení by to nešlo.
Děkujeme za podporu.