mensi standartizovanou platformou pro transport je europaleta.
takze pidi-centrum umistene na europaletu by mohlo obsahovat jednu zidli,
jeden stul s pocitacem a k tomu by se dodaval jeden velmi levny lidsky
operator, nejlepe nejaky student, kteremu neni treba tolik platit a funguje
na hamburgery a lahvace.
A jak to má vyřešené napájení? Je tam potřeba přivést trojfázových 400V, nebo to má vlastní agregátory?
Jinak co se týká toho kontejneru, přijde mi to dobré třeba taky na nějaké mimořádné session. Například velké SUN session někde na obrovsky rozlehlém místě. Tamhle pódium, tamhle kongresové centrum, tamhle občerstvení... (juj, ještě aby do toho nainstalovali GNU/Linux :) )
Nedavno jsem uvazoval, ze by se mozna vyplatilo stavet datacentra jako soucast obytnych domu, aby se mohlo zaroven tim teplem vytapet. Misto toho stavime velke haly nekde u polu (nebo aspon co nejdal od civilizace), aby se to "samo" chladilo. Je to pakarna. A tohle je jeste "lepsi" - cim vetsi distribuovanost, tim vetsi spotreba, a prebytkove teplo z tehle krabice se taky na nic nevyuzije.
Thanks to its unique closed-loop water cooling system, the Sun MD is more than 40% more energy efficient at cooling than a typical datacenter. With high efficiency water cooling in a small enclosed area, much less energy is consumed per compute unit than in an air-conditioned datacenter. Energy costs can be reduced even more by locating the unit near less expensive power sources.
Because of its commitment to eco responsibility and reducing eWaste, Sun Microsystems will take back any unit and its contents, from anywhere in the world, and reuse, recycle or dispose of it in an environmentally responsible way.
Mnohem lepší by bylo myslet na datacentrum již při návrhu vzduchotechniky domu.
Dnes běžná zimní praxe: Topení topí. Uprostřed budovy je serverovna, a v ní jede naplno klimatizace a odpadní teplo ze serverovny jde bez užitku pryč.
Předehřívání nosného média tepelného čerpadla odpadním teplem ze serverovny by dokázalo využít prakticky veškeré odpadní teplo serverovny za cenu navýšení řádu desetitisíců. Jen by se na to muselo myslet již při návrhu budovy.
Ostatně takto by mohly v zimě fungovat i chladničky. Stačilo by k tomu pár izolovaných trubek navíc a úprava její konstrukce.
Z horké elektroniky se uvolňují různé chemikálie, které u jednoho PC doma jsou snad ještě v bezpečných mezích, ale foukat vzduch z datacentra, kde topí desítky/stovky počítačů bych se lidem do bytů neodvážil. Když už tak tím přihřívat vodu, to by mohlo být bez problémů.
Na předehřívání nosného média se používají např. protisměrné trubkové výměníky. Jednotlivá média se v něm nesetkávají. Stejný princip se používá pro snížení tepelných ztrát u nuceného větrání nebo při využití tepla odpadní vody.
pouzivam v serverovne tepelne cerpadlo a pokryvam spotrebu tepla cele budovy do venkovnich teplot cca kolem 0°C, pak se zacne pridavat plynovy kotel. Investicne cca 60tis Kc - cerpadlo, rozvody, aku nadrz. Pouzil jsem TC od www.nosreti.cz
Co se děje v black boxu s teplou vodou nevím. Ale myslím, že problém bude spíš s konstrukcí topného systému té budovy/zařízení, které byste byste chtěl tou vodou vytápět. To by se s takovou možností asi muselo počítat už dopředu. Ale napadá mě jiná otázka.
Víte někdo o nějakém datacentru/serverhousu v ČR (nebo i jinde), který využívá odpadní teplo odváděné klimatizací od serverů k něčemu užitečnému ? Třeba k vytápění ? Já zatím ještě na žádný takový nenarazil, takže by mne to docela zajímalo.
treba na EPFL v Lausanne vytapeji serverovnou (kde maji mimo jine Blue Gene) pres tepelne cerpadlo cely areal polytechniky, jen v zime pritapi 2 mesice kotlem.
Občas se dívám na druhém programu na 25 let staré zprávy. Nevím přesně kdy, ale asi tak před čtvrt rokem tam měli jeden příspěvek, jak brigáda socialistické práce zrealizovala zlepšovací návrh a odpadním teplem ze sálového počítače vytápěli budovu :-)
BlackBox je ve skutecnosti bily aby odrazel slunecni paprsky, v tom cernem by se dali pestovat rajcata a ne servery. JInak ta chladici jednotka co je na tom aute je jen na predvadecky, pokud to ma fungovat v realu na plnej vykon, tak je k tomu potreba potvora velka asi jako ten kontejner (cca 15tun).
S tim sizingem chilleru si dovolim nesouhlasit. Mam pocit, ze BB umozuje bud 12.5 kW nebo 25 kW na rack pro 7 racku (dalsi je tam pro network a monitoring). Varianta s vyssi zatezi vam da 175 kW pro zarizeni, uvazme 2kW na chladici jednotku (myslim - jen toci vetraky) a ten "servisni rack" a mohli bysme byt nekde kolem 200 kW. Nedavno jsem nainstaloval dva super silent chillery sizovane na 350 kW kazdy v Prazskem prostredi (35°C, 45% RH, 25% glykol) a ma 4.3 tuny, ne-super silent verze by mela necelych 3.5 tuny (vsechna cisla z hlavy). Pro variantu nizsi zateze odhadem tak akorat odpovida ten chiller na tom kamionu.
Pokud jsem si všiml, tak Sun tvrdil, že takovéhle mobilní datacentrum je ideální pro využití na bojišti. Je pravda, že když se v Iráku (nebo Íránu :) ) zakládá tábor americké armády, umístí i mobilní komunikační a výpočetní infrastrukturu. Pojízdná serverovna může být pěkná věc. Proč se o tom ale nepíše? Nehodí se to do krámu?
ano, to je jeden z ucelov, momentalne sa pripravuje deploy pre isaf (nato misia v afhanistane), akurat kontajner je mierne modifikovany pre bojove operacie a dodavame k tomu aj kontajner so spojovacou technikou, ktory samotny stoji 2M USD.
kazdopadne, sun spravil dobru pracu, hlavne kvoli chladeniu. uvidime ako sa BB osvedci v pustnych podmienkach.
nemozem si pomoct, ale hned druha vec (po nasadeni v armade), mi napadlo, ze paleta vyrokov typu:
- ukradli mi data!
- ukradli mi komp!
- ukradli mi server!
sa velmi zaujimavo moze rozsirit o:
- ukradli mi cele datove centrum!
:))