Hlavní navigace

Vlákno názorů k článku Zpracování systémových logů pomocí Cacti a rsyslog od anonym - Jak je výkonné ukládání do db? Jestli to chápu...

  • Článek je starý, nové názory již nelze přidávat.
  • 1. 4. 2020 11:59

    bez přezdívky

    Jak je výkonné ukládání do db?
    Jestli to chápu správně, musí pro každý záznam provést login, insert, logout...

    Jak by to vypadalo třeba při 1000 nebo 10000 záznamech za sekundu? (Na mail serveru mám při běžném provozu 100z/s)

  • 3. 4. 2020 21:31

    @verosk

    Nemáte úplně pravdu.

    Jednak existuje persistentní spojení do databáze - ta režie s login a logout se tím dá efektivně zrušit. Nebo pokud víte, že ve Vaší databázi je login a logout drahá operace, můžete použít něco, co drží spojení dlouho - třeba ProxySQL [MySQL] nebo pgpool [PostgreSQL].

    A místo INSERT pro každou jednu událost/záznam můžete dělat INSERT DELAYED třeba po 1000 událostech najednou. Databáze by se s takovým zpracováním měla vypořádat lépe.

    Když se podíváte do Elasticsearch či Redis pluginu pro Logstash, tak přesně takhle se tam ty operace dělají
    Ano, vím, že ES i Redis nejsou typické relační databáze.