Je to ale neekonomické, mít POE swich, který stojí minimálně 2x tolik co bez POE, hned vedle zařízení, které jím napájené. U každého toho CM pak musí být POE modul, za cca 10€/kus.
1/3 racku budou jen POE switche. Navíc když jeden switch chcípne, vypadne vám napájení pro nějakých 48 nodů a nedá se s tím nic udělat. Když chcípne normální switch, přijdete maximálně o konektivitu, ale ne o rozdělanou práci a potenciálně o data. Když chcípne normální zdroj v serveru, práci převezme druhý.
Je to jen hračka, která navíc zavisí na CM4, které jsou dlouhodobě nedostupné.
PoE šváb s těmi pár rezistory okolo - například TPS2376 - nestojí 10€. Na druhou stranu ještě tam musíte mít zdroj z těch 48V zpět na 5, např. LM2576HVS. Tam je ale otázka jestli by samostatný napájecí konektor + kvalitnější a tlustší kabeláž (musíte na desku dostat přímo stabilizovaných 5V) + power distribution unit (aby vám zkrat v jednom Pi nesundal celý cluster a ještě to nějak brutálně neshořelo, a aby se nezapnula všechna Pi najednou což by způsobilo proudovou špičku) taky nestály tolik.
Na druhou stranu máte pravdu že to prodraží na straně switche.
Ty šváby samostatně tolik nestojí, ale je běžné, a je to vidět i z fotografií, že se používá právě off-the-shelf modul. Což pochopitelně není nic špatného, protože ten modul je alespoň ověřený.
Osobně si myslím, že zdroj by tam měl být "klasický" 12V/24V, a z toho by si každý "blade" dělal svých 5V a 3V3 a cokoliv dalšího je potřeba. Pochopitelně by nedávalo smysl tam mít zdroj na 5V/100A (počítám tak max. 5A/blade).
Ale jo, projekt je to pěkný a když jim to lidi zaplatí, proč ne. Je mám pocit, že je to jeden z mnoha R-Pi projektů, kde se něco dělá protože se může, a to ještě polovičatě, než aby se řešil nějaký problém.
Proč dva? Copak se normální blade servery připojují na nějaké kabely? Ne, je tam nějaký backplane, tedy propojující PCB s konektorem, kam se ten blade jen zasune. Uvnitř se tedy žádná kabeláž nekoná.
To 1U tam stejně zabere ten POE switch. Do 2U krabice by se vešlo tak 30+ blades i dva zdroje, takže hustota by byla víceméně stejná.
Tady by se pak i nabízel integrovaný switch pro všechny blades, s 10Gbe výstupem, takže by se ušetřilo 1/3 racku switchů... Tam by pak byla hustota i ekonomičnost úplně o něčem jiném...
Ať si to dělají jak chtějí, jen mi to přijde nedotažené, kdy kvantita vítězí nad kvalitou, a ještě vyjde dráž.
Ja myslim, ze to takhle navrhli s ohledem na cenu. Integrovany 10Gbit switch pro 30 portu navysi cenu o kolik? $1000? Co kdyz nemate vyuziti pro 10Gbit switch, budou nabizet alternativu bez switch? Asi se shodnem, ze to jde udelat o hodne lip. Ale kdyz to zacnete delat tak prijdete na financni limity (nikdo si nekoupi raspberry blade server za $20k), na produkcni limity (lead time na nektere komponenty je porad x mesicu), na limity ohledne kompatibility (proc 10Gbit kdyz tam muzeme dat rovnou 400Gbit), atd. To reseni za danou cenu mi prijde zajimave.
Nepotřebujete 30ti portový 10Gbe switch, stačí vám jeden, nebo více obyčejných 1Gbe switchů, respektive jen čipů, ty dnes v podstatě nic nestojí. 10Gbe port na uplink vám stačí jeden.
Takhle ten switch musíte taky kupovat, a navíc v drahé POE variantě. A u něj asi budete chtít mít taky 10Gbe uplink...
Vybrali zatím přes $660K, to jsou peníze, za které už se to dá udělat pořádně.
Za jeden kompletní 1U s 20ti moduly chtějí nějaké €4K, což není zrovna málo. K tomu si připočítejte 20+ portový POE switch a 20x NVMe disk dle výběru.
To je cenově srovnatelné s threadripperem, který bude výkonem úplně někde jinde...