Dobrý den,
jak jste spokojen s základní deskou, chtěl jsem jí taky na NAS vzít, ale nějak mě odrazují reakce na ní od uživatelů. Celková nestabilita, problemy s RAM. Raději se tedy dívám po nějaké jiné N100 nebo alt. MB.
Mám N100 od ASrock a není jediný problém. Dokoupil jsem akorát převodník NVME na SATA a mám tam dokupy 8 sata konektorů pro disky a samozřejmě všechny plné.. :) Výkon na domácí NAS naprosto špičkový. + jsem přidal další 1 Gb kartu na net, takže je tam 2 Gb/s linka, 8 disků a zvládá vše co potřebuji. Jede 24/7 už druhý rok. Koupil jsem tu desku hned jak vyšla. Dříve jsem měl ASrock také s integrovaným cpu akorát slabší. Spotřeba při chodu 1x ssd a 1x hdd + 30% cpu (zátěž 4x kamera) + 4 ventilátory napojené na pc cca 25-30W na zásuvce. Doporučuji! Já jen přidělal ještě 2 chladiče - jeden na pasiv od cpu a jeden na disky. Ale nutné to není.
Dotaz byl na konkrétní desku, stabilitu atd. Tvoje odpověď ohledně zkušeností s ASrock, kam jsi ještě něco dokupoval, je úplně mimo...
Tak kdyz pise ze ji ma a jede mu 2 roky 24x7 bez problemu, tak co vic ma jako napsat?
Ma ti to nakreslit?
Diskuter Holy sa pytal na skusenosti s pouzitou doskou (podla predchadzajuceho clanku PcZinophyte 6-Bay NAS). Odpoved, ze uplne ina doska od ineho vyrobcu a s inym CPU funguje 2 roky dobre mu skutocne velmi nepomoze s rozhodovanim, ci tato cinska bude pouzitelna.
PETG a PLA je levný (PETG se dá sehnat 200-250 kč/kg, PLA ještě levněji). Takže bych řekl že to vyšlo rozhodně levněji než nějaký hotový case (když se nepočítá čas). Navíc to je celkem modulární, člověk si to může upravit přesně dle svých potřeb.
3d tistene dily maji velky podil materialu na povrchu a mene uvnitr. Dokonce se pro zvyseni pevnosti doplnuje pridavat povrchove vrstvy misto zvysovani hustoty vyplne. Casto tedy zvetseni celkoveho objemu dilu nezpusobi takovy narust spotrebovaneho materialu, jako by intuitivne predpokladal nekdo, kdo doted vyrabel jen odlitky.
Kazdopadne bych doporucil se vyhnout PLA na cokoliv co neni pouze pohledovy dil. PLA se dobre tiskne, dobre vypada, ale mechanicke vlastnosti jsou extremne spatne a velmi zasadne se zhorsuji s casem jak vytisk vstrebava vzdusnou vlhkost.
Na trhu jsou minimalne dva samozhasive PETG filamenty (prusament V0 a plasty mladec FRJet). Asi by bylo rozumne je pouzit na elektroniku co bezi 24/7 prakticky bez dozoru.
Jak jsem psal je to muj konicek takze filament se cloveku doma vali a starne ale rozhodne dobrej dotaz.
Jestli si dobre spominam, tak PETG kolem 350 kc, spulka vystacila bohate na celou stavbu a myslim ze minimalne pulka zbyla.
ASA - priznam se ze si nepamatuju ale kolem 600Kc/kilo, pouzil jsem asi 200g
PLA - tam je cena podobna asi jako to PETG a jednalo se jen o ty dizajnove prvky takze kolem 50g
Jestli to dobre pocitam vsechno dohromady tak cca ~400 Kc
Relatívne nedávno som tiež riešil nové NAS. To pôvodné bežalo na mini-ITX s integrovaným Intel CPU a ako skriňa Fractal Node 304. Vhodných mini-ITX dosiek a skriniek pre NAS v našich končinách prakticky niet (viď článok), tak som presedlal na klasické mATX.
- mobo ASRock B550M Pro4 (podporuje ECC)
- CPU AMD Ryzen 3 4350G (integrovaná GPU), RAM 32 GB ECC
- skriňa Fractal Node 804
- 2x SSD SATA + 6x HDD SATA 6 TB WD Red Pro + 1x SSD NVME
- OS Debian, mdraid 1+lvm (SSD), zfs (HDD), xfs (NVME)
10. 9. 2025, 09:06 editováno autorem komentáře
Já jen nechápu, proč se omezovat na naše končiny. Vždyť není problém objednat cokoliv odkudkoliv. Stejně jako autor koupil desku z číny, mohl kouput i case a mohl si ušetřit ty patálie okolo.
Chápu, že zde se jedná článek hračičky, který údajně staví snadno a levně, ale jakože ne.
Já zase Wira obdivuju, že do toho šel. Ač umím s 3D CADem celkem dobře, tak jenom to patlání to nakonstruovat je na víc hodin. Teď momentálně čekám na 3 skříňky https://www.iovstech.com/nasstorageserver/nas-4bays-case-nas04j.html
Ale než se dočkám, tak schválně zkusím udělat tu Wirovo (je moc pěkná).
Jinak fakt pěkný článek Wiro, díky za něj.
Jenom bych se chtěl zeptat, teďkon rozjíždím GARAGE S3, a tam doporučují XFS, a nemusí se dělat raid vzhledem k tomu, že budou 3 geograficky oddělená místa. Doporučili byste to taky?
Dík.
Jednoducha odpoved je, ze pokud to doporucujou, tak bych to pouzil taky :)
Sirsi odpoved je ze zalezi na workloadu. Neplati uplne ze vzdy je XFS lepsi nez treba Ext4.
XFS ma hlavni vyhody pokud:
- se jedna o praci s velkyma souborama
- pozadavek na velke prenosove rychlosti
- duraz na zvladani velkeho mnozstvi paralelnich operaci
Predpokladam ze u S3 je prave potencial naplnit ty podminky kde XFS muze vyrazne lip performovat.
Ahoj Wiro,
primární použití bude bucket pro Nextcloud: více méně malé soubory do 100MB. Připojení na internet mám pomalé (2 místa do 300Mb/s, 1 místo do 100Mb/s, na VPS si až to rozjedu přikoupím 1Gb/s) a dále na inkrementální zálohu mail serveru (bucket pro email, pouze 6 lidí, zabírat to bude pár giga). Disky mám co jsem tady sehnal jsou to SATA3 do 6Gb/s. Mám v plánu tam mít cca 6TB na data, zbytek budou archivní věci, na které budu šahat sporadicky -> 4. NASka 2xraid1.
V.
O ty ostatní zmíněné výhody XFS (alokační skupiny, lepší paralelismus, škálování atd.) až tak nejde.
Ten primární důvod je pevný počet inodů (prealokované místo) u ext4, kde se to specifikuje jen při vytváření filesystému (většinou jako poměr - např. "mkfs.ext4 -i 4096" vyhradí pro každé 4 kilobajty dat jeden bajt na inody, default je myslím 16k).
Za normální situace každý soubor, adresář nebo symlink spotřebuje jeden inode.
S tím S3 serverem tam je ale ještě další vrstva, která větší soubory rozděluje na chunky (což může být např. 1 megabajt, nebo něco jiného podle potřeby). Na filesystému pod tím je pak každý chunk uložený jako samostatný soubor, takže ta spotřeba inodů může být výrazně větší, než když se to ukládá rovnou.
Je to asi primárně záležitost větších úložišť, ale ovlivňuje to i zvolená velikost chunku, délka ukládaných souborů, nastavení při vytváření fs atp. Dá se pak také samozřejmě dopočítat, kdy by to byl problém, resp. kolik inodů se na daný systém vejde.
XFS.. pak má dynamickou alokaci místa na inody, tzn. prakticky to pevné rozdělení vůbec nemusíte dopředu řešit, proto to doporučení.
Jinak CoW filesystémy jako Btrfs nebo ZFS mají také dynamickou alokaci inodů, ale obecně mnoho jejich výhod v tomhle použití trochu padá tím, že je nad fs další vrstva, kde se také počítají checksumy a redundance je v tomhle případě řešená replikací celých souborů resp. chunků na jiné nody.
U RAIDu pod tím je to pak nejspíš na zvážení podle použití..
Pokud tam bude a dojde k výpadku jednoho z disků, tak ten node kompletně pojede dál v degradovaném režimu a po výměně bude citelně rychlejší rebuild (data se berou lokálně blokově), na druhou stranu zas přijdete o místo.
Pokud použijete multi-disk v Garage, tak bude mít víc místa, ale zároveň když nastane výpadek, vyměníte disk, vytvoříte fs a připojíte jej do stejného adresáře, tak se všechny chunky budou zpátky kopírovat po síti, aby se doplnil nastavený počet reundantních kopií.
Finálně při těch uvahách o rychlostech je třeba brát v potaz také to, že pokud mám např. tři nody a na jeden kontinuálně zapisuji (např. v rámci LAN, nebo jednoho serveru s virtuály, kontejnery), tak se ty chunky musí dostat na zbylé dva nody.. a teoretická rychlost uploadu se pak dělí dvěma.
U krátkých zápisů (co jsou menší než nastavený buffer) mu stačí potvrdit zápis jen z jednoho dalšího nodu, aby si splnil kvórum, a do třetího (nejpomalejšího) pak zapíše asynchronně. Ale když do toho budu kontinuálně hrnout data, naplní se ten buffer a v podstatě pořád čekám na oba dva. Další faktor, co v tom hraje roli, bude pak samozřejmě i latence sítě mezi nody.
Já to čtu tak, že cesta a svoboda je cíl. Nejlepší investice je investice do rozšiřování vlastních zkušeností/dovedností. Za mne krásný seriál a děkuji za něj.
Ano, je možné koupit hotový case nebo koupit hotový NAS. Modelář si také může koupit hotový model a nemusí stovky hodin lepit jedno letadýlko. Těžko mu ale jeho počínání rozmluvíte. :)
Přesně! Já třeba si bastlil prakticky všechno na moje koníčky (včely: medomet-oříšek co jsem neuměl a naučil se byl regulák na motor z pračky, abych to nemusel kupovat za 10+ tisíc, líheň na matky -> tam jsem se naučil dělat reguláky pomocí arduina+esp a dělal jsem si jednoduchý monitoring na webovkách + upozornění pomocí externího cronu do mailů, drony, 3d tiskárny, OpenCV na počítání včel apod...:-), občas taky něco nakonstruuju, abych v tý Catii úplně nezakrněl ). Tak právě proto dělám to S3 úložiště, protože mě to zajímá. Nejspíš by mi stačila obyč NASka za pár korun, ale to bych se právě nenaučil plno věcí okolo, co je třeba k tomu, aby to bylo funkční - doteď jsem vše řešil exterňákama a více či méně mi to stačilo. Cesta je cíl a pro mnoho lidí je největší odměna, že to zvládli udělat sami i když by ostatní řekli "takový práce a přitom taková blbost" :-)
@????????????
Kvôli prípadným reklamáciam/rýchlej výmene komponentov a mini-ITX skríň pre viac diskov (nielen u nás) moc nie je na výber, takže voľba padla na mATX. Zrovna to mobo som musel hneď reklamovať, ale to je náhoda. Inak áno, Číňan má všetko.
Někdy kolem roku 2013-2014 jsem si na NAS koupil skříňku Lian Li PC-Q25.
Neměnil bych.
Vleze se tam celkem 8 HDD (7x 3,5" + 1x 2,5") a přitom má malé rozměry.
Tenkrát se tady Lian Li neprodával, tak jsem oslovil asi 2 prodejce a 1 distributora a skříňku od Lian Li sehnal.
Jak bylo řečeno výše, dnes není potřeba se orientovat jen na český rybníček.
Ten Sagittarius NAS Case vypadá velice zajímavě.
Na můj vkus je to ale moc perforované, nejsem zastáncem designu cedníku. A jen z oceli - zmiňovaná Lian Li je z hliníku, což byl důvod proč jsem ji sháněl :)
Kdyz koukam na dalsi dily serialu tak to rozhodne neni uplne jednoduche :)
Nerad bych aby tento serial zpusobil to, ze z toho bude pocit ze je to slozite, spis jsem chtel odkryt nektere veci ktere by mohli nekomu pomoct se do problematiky dostat hloubeji.
Kdyz si vyberete standardni HW, date do nej disky a pouzijete hotovou NAS distribuci OS tak si myslim ze to jednoduche byt muze a i levne ale asi neni moc o cem psat.
Berte to jen jako inspiraci z moji cesty, kde primarnim ucelem byla ta cesta. V ruznych dilech serialu budou veci ktere muzete aplikovat i v jinych situacich nebo na svym soukromym serveru.
Clovek si tiskne vlastni skrin.. ale udela tam tu strasnou chybu ze nacpe vsechny disky k sobe... to se ti upece (a pokud ne tyhle disky, tak ty normalni urcite). Achjo.
To je clanek na demonstranci jak veci nedelat ??
10. 9. 2025, 10:57 editováno autorem komentáře
Ahoj :) muze to byt i demonstrace co nedelat :)
Nicmene mezi kazdym diskem je mezera 10 mm, co je velmi velkoryse. Pak je to o vykonnosti zadniho velkeho ventilatoru kolik vzduchu je potreba prohnat za jednotku casu.
Disky maj pod zatizenim teplotu do 40 stupnu takze bohudik zatim se to neupeklo.
Ale jak pisu pokud by nekdo stavel neco primarne na vykon a ne na spotrebu jako ja tak bych doporucoval standardni kovovou case.
Já tam tedy vidím cca mezi disky cca centimetrový odstup a vcelku velký větrák, takže pokud to nebude 24/7 streamovat 8k video, tak no-problemo. Pro doma super.
Daji se objednat docela levne "sata backplane" desky, to by jiste byl elegantni doplnek pro DIY NAS:
https://www.aliexpress.com/item/1005009683517543.html
OS: Debian 13 trixie
Kernel: x86_64 Linux 6.12.43+deb13-amd64
Uptime: ----------
Packages: 2758
Shell: bash 5.2.37
Disk: 101T / 114T (89%)
CPU: AMD Ryzen 5 4600G with Radeon Graphics @ 12x 3.7GHz
GPU: Advanced Micro Devices, Inc. [AMD/ATI] Renoir [Radeon Vega Series / Radeon Vega Mobile Series] (rev c9)
RAM: 38544MiB / 62086MiB
Alternativne sa moze ist do M.2.
Nejaka lacna doska s 5× PCIe x16 (napr. GIGABYTE B760 DS3H DDR4)
Napchat do toho 5 expanderov (PCI-E 4.0 4x4 to M.2 4-Bays Expansion Card for M.2 NVMe) a mat 20 pozicii na SATA/NVMe
Bohuzel deska s PCIe x16 nezarucuje ze tam je i x16 signal.. typicky tam je x4 nekde x2. A jeste to sdili s onboard M2 slotama napr.
Pokud nekdo chce vicero plnotucnych x16, tak musi volit threadripper / epyc / xeon platformu.
A pak existuje expander do x16 slotu na 20 M2 disku od DELLu.. ten by fungoval i na uzsim slotu, protoze nese sebou switch... jenze to zere 15-20w a 20x7.5w mate v tech M2... takze ~ 170W na dvojslotovou kartu.
V té odkazované desce není ani 4x ani 2x.
Chipset:
4 x PCI Express x16 slots, supporting PCIe 3.0 and running at x1
(PCIEX1_1, PCIEX1_3~PCIEX1_5)
https://www.gigabyte.com/Motherboard/B760-DS3H-DDR4-rev-10/sp#sp
Kde sú tie časy keď sa dal objednať HP Microserver N54L s 4GB ECC RAM, profi SAS/SATA radičom na 4 x SATA disky + 5. disk/DVDRW horná šachta a úsporným CPU za nejakých 140 €. Väčšinou stačilo dokúpiť 4GB RAM a dali sa prevádzkovať aj mini docker/LXD aplikácie, apache2 + mysql + php + docker + lxd + dokonca aj drobna virtualizacia WinXP a podobne cez Qemu. Doteraz jeden beží u známych v 4 x 8TB + 2 x 4GB ECC RAM (8GB) konfigurácii (štartuje TrueNAS z USB média) už asi 5.- 6. rok.
Nedávno jsem řešil něco podobného a nakonec jsem koupil starší server od HP (asi z leasingu). Chtěl jsem hot-plug. Každopádně mne také příjemně překvapilo, že se MD-RAID sestavil úplně sám.
Zajímalo by mne, jestli autor v Ubuntu narazil u NFS na maximální limit otevřených souborů. Trochu se s tím potýkám, různě zkouším změny nastavení, ale znovu se to vrací.
2 hinty:
1. mdraid umí pracovat i s metadaty některých HW RAID řadičů. Takže je schopno sestavit i pole z disků, co se vyndaly ze zařízení kde se používal hardwarový raid. Moc se o tom neví, občas se to může hodit.
2. U software na vytváření 3D modelů mi chybí OpenSCAD. Přijde mi, že pro lidi co programují a mají matematické myšlení, je to velmi dobrá volba. Navíc je k tomu hromada knihoven. Pro ty co vyrostli na Merkuru a chtějí se vrátit do svých dětských let bude knihovna STEMFIE ráj na zemi ;-)
11. 9. 2025, 12:41 editováno autorem komentáře
Mimochodem doporucuji se jeste podivat po necem mezi napajeni MB a napajeni ze site...
nejake miniups, nejlepe pro clanky LiFePo 12V<->12V s rozumne deklarovanym vykonem.
Velmi sikovne miniUPS najdete treba tady:
https://www.mini-box.com/micro-UPS-load-sharing
Prijde mi to vyrazne vyhodnejsi nez klasicka ups, ktera to resi na urovni pred transformaci... kde to jde 12V->220V a pak v napajecim zdroji zase 220V->12V->PicoPSU.
Take je mozna vhodne se zamyslet nad navrhem skrine ve variante zdroj, ups atd jsou primo ve skrini - nekde pod deskou zcela oddelene od zbytku pouze s predni mrizkou a zadnim ventilatorem - treba i sdilenym s tim pro disky.
Ja hlavne nechápem že štandardné NAS riešenia (zloženiny od Synology/QNAP) ešte aj dnes majú problém podporovať NVMe či iné pre mňa základné funkcionality či už z pohľadu HW tak SW.
Preto som tiež rozmýšľal že si postavím vlastné NAS, zrejme buď ako miniPC alebo niečo podobné ako ste riešili vy. Samozrejme bez tlače vlastnej case, nemám 3D tlačiareň.
Problémom sú PCIe linky, resp ich nedostatok na bežných SoC. Pokiaľ v zariadení nie je Xeon, Threadripper alebo Epyc, tak jednoducho nie sú.
Niektoré all flash zariadenia (napr. Asustor Flashstor) to riešia PCIe switchom, ale to je samozrejme drahé a výkon ide dole. Iné, že dostupné linky poskromne rozdelia medzi disky (aj špecializované, ako Mikrotik RDS 2216), ale zase výkon je obmedzený týmto rozdelením.
Ja hlavne nechápem že štandardné NAS riešenia (zloženiny od Synology/QNAP) ešte aj dnes majú problém podporovať NVMe či iné pre mňa základné funkcionality či už z pohľadu HW tak SW.
Protože ty hotové menší NASy s dedikovaným systémem (ne komponenty nebo skládačky z Ali) především reflektují potřeby "standardních" uživatelů v tom SOHO segmentu.
Jde tam primárně o kapacitu vs cenu v nějaké akceptovatelné rychlosti při daném použití.
A to je v drtivé většině ukládání dokumentů, fotek, audio a video souborů (včetně třeba záznamů z kamer) a záloh z jiných zařízení. Chtějí pak jednoduché nastavení, ideálně také hotové doplňkové appky na mobilní platformy a zajištěnou širokou kompatiblitu s mnoha zařízeními, co tam budou přistuovat (i třeba vzdáleně). Relativně výkonné úložiště na práci mají lokálně (PC, notebook, mobil a tablet interně s UFS), na NAS víceméně odlévají data.
Vzhledem k tomu, že SSD jsou ve vyšších kapacitách řekněme stále 3-4 krát dražší než točivé disky, je to většinou jasná volba. Na zmíněné bulk-storage použití není úplně nutné mít stovky tisíc IOPSů z SSD.
Navíc se to nechá také v případě potřeby zkombinovat i se SATA SSD, pokud by někdo měl nutkání udělat třeba dva mirrory v 4 slotovém NASu (rychlý, pomalý), tak to jde. Sekvenční přenosové rychlosti stejně typicky vybrzdí použité síťové rozhraní (v lepším případě 2.5GbE).
Jakmile jde o výkonější firemní modely, pak jak Synology, tak QNAP atp., už ty NVMe disky také podporují.. ale už je to v nějaké konfiguraci, kde to dává trochu smysl. Tzn. je tam také minimálně možnost osadit 10GbE kartu, je tam také výkonější CPU atp., aby tam nebyl jiný bottleneck.
Typicky je to v nějakém hybridu, NVMe jsou použité třeba jako bloková cache, byť se samozřejmě nechá udělat čistě SSD volume.
Ten all-flash Asustor na 4 nebo 6 NVMe je spíš výjímka (outlier), s trochu specifickým využitím (protože to má relativně slabé CPU).. Třeba když někdo mermomocí nechce instalovat normální server (spotřeba, cena, instalace OS) a chce/potřebuje rychlé úložiště třeba na střih videa z pár stanic po síti.
Preto som tiež rozmýšľal že si postavím vlastné NAS, zrejme buď ako miniPC alebo niečo podobné ako ste riešili vy. Samozrejme bez tlače vlastnej case, nemám 3D tlačiareň.
Myslím, že už jsme se o tom v pár vláknech bavili.. Já bych to mu neříkal NAS ani mini PC, což jsou za mě oboje spíš specifické věci, ale homelab server :)
Je pak vcelku logické, že se člověk (geek) nemusí vejiít do standardních produktových řad a nekoupí to typicky jako hotovou věc (zítra u dveří z Alzy se zárukou), ale zaskládá si a stráví s tím nejspíš spoustu času..
Protože má specifické požadavky na konfigurovatelnost, bude na tom mít od ukládání dat i třeba nějaké virtuály, kontejner hosta (od domácí automatizace, po testovací CI/CD pipeline), bude na tom třeba on-demand transkódovat videa atp. A ještě chce, aby to mělo ECC paměti, pokud možno vůbec nežralo, bylo to ideálně celé open a nakonec vlastně nestálo tolik peněz :)
Ale jak už jsem taky zmiňoval, já bych třeba v podobné kategorii volil Odroid H4 nebo AOOSTAR NAS s Ryzenem.
Přesně. Jako člověk, co má doma nějakých sedm let dvoudiskové Synology, se zeptám: K čemu? Jasně, není to na hraní a customizaci, ale pokud člověk chce jen nějakou síťovou replikaci/zálohování, pár low-res kamer a media server, tak tohle naprosto bohatě stačí, moc to nestálo a nemusím se o to skoro vůbec starat. NVMe bych prostě nevyužil.
Apropo, k hromadě virtuálek a podobných věcí na domácím serveru: Od toho jsem upustil, jak jsem začal řešit disaster recovery: Všechna vejce v jednom košíku. Ne, že bych si nedovedl představit nějaké věci zkombinovat dohromady, ale třeba HomeAssistenta opravdu nechci mít na stejném železe, na jaké se ukládají jeho denní zálohy, a naopak ho chci mít na něčem, co, když to umře, můžu během pár hodin snadno koupit v obchodě a po příchodu z práce jen nahraju tu HA OS full zálohu a mám na pár kliknutí do hodiny hotovo.
Skládat celý server a obnovovat všechny služby najednou proto, aby se zas rozjelo ovládání domu, to z toho dělá mnohem stresovější záležitost, plus člověk stejně pořád potřebuje nějaký ten NAS, kam dává zálohy toho serveru. A nebo si doma dělat cluster s redundancí, ale to je už jiná liga. :-)
na N100 jde nainstalovat v pohodě prý proxmox nebo truenasscale , dá se najít na blogách... bret.dk, dalších
Opravdu je diskový z NASU QNAP v pohodě mountnout? Bylo to testované i v jiném scénáři než staticky definovaná volume? Myslím thick nebo thin provisioning.
Opravdu je diskový z NASU QNAP v pohodě mountnout? Bylo to testované i v jiném scénáři než staticky definovaná volume? Myslím thick nebo thin provisioning.
Většinou jde, pokud se nepoužívá necommitnutá bloková cache (SSD RAID+HDD RAID), kde mají jak Synology i QNAP své moduly do dm (není to standardní lvm-cache nebo bcache), tak jsou to v podstatě standardní věci.. mdraid, lvm-thin, ext4 nebo btrfs.
U těch vyšších řad od QNAPu, tzn. ty se systémem QuTS Hero, pak mají ZFS. Což taky funguje, akorát si u toho konkrétního filesystému musí člověk zkontrolovat zapnuté feature flagy, aby to zfs driver, kterým to člověk připojuje, podporoval. QNAP to nemá úplně zarovnané s releasy OpenZFS, berou commity přímo z gitu, a některé fíčury můžou mít třeba povolené ještě dřív, než to probublá z testingu do oficiálního release OpenZFS.
Ale samozřjemě berte mě s rezervou, neznám všechny modely, jen to, co jsem viděl, bylo vcelku v pohodě.
Velmi děkuji za článek.Muj stávající NAS dojel na havárii dvou disků jedoucích přes 10 let.Green řada od WD nic moc.Naštěstí funguje jako backup tak to mám vše na hlavním PC. Blokoval jsem NAS4Free z USB flashdisku i to se nějak složilo.Velkou vinou tvrdého vypínání a zapínání elektřiny pomocí Xioami chytré zásuvky.Pruměrná spotřeba v klidu byla 60 W to nešlo mít zaple nonstop.
Říkám si preinstaluji a prozatím že stripech pole odeberu vadné disky.
Narazil jsem na to, že NAS4Free se přestal vyvíjet , poslední ISO co jsem zkousel se mi nedaří nainstalovat z USB flash disku na druhý USB flashdisk, prostě nevidí žádné cílové úložiště.Zkoušel jsem následný projekt, který je vlastně též mrtvý XigmaNAS s podobnými neúspěchy.
Přes 20 leť používám všude Ventil, ale sem jej dávat nechci, abych se na slabším CPU mordoval u všeho s kompilací.
Líbí se mi tento projekt, rozkoukat se v Ubuntu serveru mi nedělá problém.
Pořídil jsem hardware schopných parametrů.
Potřeboval bych vysvětlit jak jsou zde využity dva stejné M2 SSD disky, žil jsem v tomto že oba budou pro systém v mirrorrezimu RAID1.Navic i instalátor protestuje když je spřáhnu do md0 , že tam odmítá vytvořit EFI partiśnu.