Jop, to je uzasnej krok spravnym smerem ...
https://dev.overpass-api.de/blog/systemd.html
Ze to .. tak nejak kdykoli ... znici data ... je jen vedlejsi efekt ... lol
Nevím který konkrétní efekt máte na mysli. Každopádně to že nespustíte dvakrát stejnou službu má zajistit na prvním místě service manager, tedy právě systemd. Není špatný nápad aby měl executable pro servisy zvláštní entry point, takže uživatel nespustí servis omylem. Spoléhat se na lock file je nesmysl, protože ten tam mohl zbýt z minula, pokud třeba někdo stroji urval napájení. Místo toho si DB server musí zamykat soubory, aby je nemohl nikdo jiný modifikovat. Bohužel file locking je na Unixech... řekněme poněkud nedořešený, s rozdílným chováním na různých Unixech, na různých verzích, na různých FS i lokálně vs síťově. Tady by si asi příznivci Unixů měli zatleskat všema třema rukama ke stavění platformy stylem bazaar, nikoliv cathedral.
https://en.wikipedia.org/wiki/File_locking#In_Unix-like_systems
Superpočítače jsou v naprosté většině případů gridy. Jde o spoustu racků, do kterých jsou typicky naskládané x84-64 PC, pospojované v nejjednodušším případě gigabitovým ethernetem, případě něčím lepším, jako je InfiniBand. Řídící počítač rozkouskuje úlohu - kdyby to bylo rendrování animovaného filmu, každému nodu by přidělil nějaké snímky, které se rendrují prakticky nezávisle. V podstatě můžeme říct, že grid je něco jako SETI@home v jedné serverovně.
Teď se zamyslete, co musí umět node takového gridu. GUI, grafiku a tisk? Nody ovládáte vzdáleně a nemají grafiku ani tiskárnu. Nízkou latency kernelu? Nepracujete s multimédii ani nereagujete na časově kritické události. Dobrou SMP škálovatelnost? Node má jednotky jader CPU. Výkonný multithreading? Kalkulace vám klidně mohou běžet v procesech, nebo v pár threadech. API které umí všechno možné i nemožné? Potřebujete běžet jen poměrně primitivní program, který míchá s daty, a API OS využívá minimálně. Node musí umět jen správu procesů, paměti, a nějaký ten networking, aby si vyzvedl úlohu a předal (mezi)výsledky.
Tak proč byste platil za OS na každý node, když můžete mít zdarma OS, který umí vše potřebné?
Samozřejmě tenhle přístup má i svá omezení. Za týden postavíte grid s vysokým teoretickým špičkovým výkonem, a pak kolem něj půl roku skáče velká spousta lidí, aby z něj nějakou část toho teoretického výkonu vymlátila. A pak většinu těch lidí máte na krku do smrti (v lepším případě toho gridu), protože ho musejí opečovávat. Pokud se vaše společnost jmenuje DARPA, Lawrence Livermore National Laboratory, Los Alamos Neutron Science Center nebo NSA, jistě potřebujete velmi vysoký výkon, a nemáte problém zaměstnat všechny ty lidi, kteří vám grid nastaví a budou udržovat.
Pokud ale jde o pojišťovnu vyhodnocující finanční rizika, automobilku pracující na optimalizaci aerodynamiky, vlastních frekvencí a deformací, případně výzkum v oblasti genetiky, najednou to není to pravé. Takový zákazník nepotřebuje nejvýkonnější superpočítač na světě, a určitě nechcete platit hromadu lidí, kteří okolo něj budou skákat. Proto si koupí Windows HPC. Za pár dní firma přiveze racky, zapojí je, nainstaluje SW, a je hotovo. Můžete jet prakticky ihned, bez pokusů, dlouhého ladění a vývoje. A když chcete něco vyvíjet, máte k dispozici Visual Studio včetně remote debuggingu. Plus samozřejmě můžete vlastní výpočetní výkon doplnit cloudem, například MS Azure, případně do něj aplikaci kompletně přesunout.