Vlákno názorů k článku Lékaři neřeší bezpečnost, ZFS na Linuxu se zlepšuje a miniaturní verze ESP32 od Harvie.CZ - Tak tvrzeni "ZFS má vlastní cache, která je...

  • Článek je starý, nové názory již nelze přidávat.
  • 9. 10. 2017 14:11

    Harvie.CZ (neregistrovaný)

    Tak tvrzeni "ZFS má vlastní cache, která je chytřejší než ta v Linuxu" me fakt nasrtvalo. Neni chytrejsi, je arogantnejsi. Co je chytryho na tom, ze si cache zabere 40GB RAMky (nebo libovolny jiny mnozstvi na ktery to clovek zastropuje - defaultne 1/2 veskery pameti) a pak cache nevyklidi kdyz pamet potrebujou bezici procesy na normalni ne-cache data?

    Sorry jako, ale abych mel 40GB RAMky pouzitou jako cache a ZFS ani nebylo schopny se uskromnit kdyz je zrovna spicka zateze, coz vede k vyvolani OOM me dost vytocilo. Dokonce se to delo i v jinym pripade, kdy sem cache zfs omezil z 20G na 1G a i po chvili OOM killer zabijel procesy protoze cache nebyla schopna tu pamet uvolnit dost rychle.

    ZFS je cool ale tohle je fakt na palici...

  • 9. 10. 2017 14:40

    Harvie.CZ (neregistrovaný)

    Jo a uplne nejsilenejsi vlastnost ZFS jako takovyho je, ze jakmile omylem pridate disk do poolu, tak uz ho nevyndate. Takze kdyz mate dva 1TB disky v Raid 1 a potom co jeden odejde udelate omylem "add" misto "replace" nebo "attach", tak se ZFS pool zvetsi na 2TB a ste behem zlomku sekundy nahnany.

    Musite udelat novej ZFS pool a data na nej syncnout, starej pool smazat a pooly prohodit. Pokud mate v poolu treba 8 disku, tak je to mega prusvih, protoze potrebujete dalsich 8 disku (ktery nejspis nemate a mozna na ne ani nemate zrovna rozpocet) a k tomu samozrejme dalsich 8 SATA portu (ktery nejspis ani mit nemuzete). O downtimu nemluve.

    Opravdu nechapu jak neco cemu se rika "mature filesystem" muze mit takovouhle vlastnost, ze behem zlomku sekundy jde pridat disk, ale odebrat nejde bez komplet novyho naformatovani vsech disku.

  • 9. 10. 2017 22:40

    j (neregistrovaný)

    Nj, kde ja to jen ...jooo, prej je btrfs unstable a zcela nepouzitelny ... lol (disky muzes pridavat a odebirat zcela dle libosti - samo dokud je misto).

  • 9. 10. 2017 14:43

    snajpa (neregistrovaný)

    Netvrdil jsem, ze je ARC nejak extra dobre integrovana se zbytkem pametoveho subsystemu v Linuxu, bude to predmetem jeste hodne uprav, nez se ARC povede dointegrovat s pagecache tak, aby mohla reagovat spravne pruzne.

    Nicmene pokud vezmeme v uvahu situaci, kdy ma ARC a na porovnatelnem systemu originalni pagecache stejne zabrano v RAM, bude mit z principu jejiho fungovani system s ARC min prace na diskach - tedy, pokud neni zatez zpusobena jednim procesem nebo nejakou jednoduchou linearni zatezi - v takovem pripade by fungovaly na stejno.

    Kdyz ale zahrnu jeste treba podporu komprimovanych stranek u komprimovanych datasetu (a ty stranky se pri cetnem pristupovani opet v RAM nechaji dekomprimovane) - bude mit ARC zase navrch, protoze pokryje vetsi mnozstvi dat.

    A jinak to uvolneni RAM, na ktere nadavas, to nadavas ZFS nepravem - tu pamet ti neuvolni zpatky Linux, ktery predtim tu pamet sice ZFS dal, ale ono i kdyz mu je nakrasne vrati, pokud v danem slabu jeste zustalo neco pouzivaneho, neuvolni se cely slab a zustava tak rozfragmentovana pamet nepouzitelna na nic jineho.

    Defragmentace SLAB caches je neco, co by to zasadne resilo - a mimochodem, ZFS neni jediny velky konzument SLAB cachi v Linuxu - primo v mainline je treba Ceph, ktery pameti take nesetri.

  • 9. 10. 2017 22:53

    shr3k (neregistrovaný)

    Osobně se potýkám s tímto problémem https://forum.proxmox.com/threads/frequent-cpu-stalls-in-kvm-guests-during-high-io-on-host.30702/ ne tak hrozně, ale občas je to vyskytne.