To neni malo, ono to presne odpovida ... na ty disky nasypes nejaky data. A pak uz tam ladujes jen rozdily. Pokud des data obnovovat, tak se skladaji postupne ze vsech snapu ktery tam mas. Tzn defakto mas na discich 100% fragmentaci.
Jinak receno, pokud si na disky pustis bench a nastavis mu random cteni(*), tak to je presne ta hodnota, kterou ti to da. A prave proto, aby to dalo vyrazne vic, tak potrebujes vyrazne vic disku a/nebo SSD. A na to pochopitelne taky potrebujes adekvatni krabici, do ktere to vsechno das. Dal pak potrebujes taky adekvatni konektivitu, protoze pri objemech dat ktery dneska i pidifirmy syslej (casto samozrejme uplne nesmyslne) je Gbit zcela nepouzitelne pomaly. Nekdy uz je i 10G tragicky malo.
Proto se u tech vetsejsich instalaci (kde se teda chce bezpecne zajistit provoz) ... vubec s obnovovanim dat nepocita, protoze se to technicky vlastne udelat neda. Resi se to tak, ze se proste udela mirror celyho storage, a pri vypadku se vesele jede z toho druhyho. Az se vymeni/opravi, tak se to nejak nekdy casem dosyncne.
(*) doporucuju kazdymu "domacimu" ssdckari s nejakym tim uzanym 300 000 iops ... ssdckem za petikilo ... to se zasmeje, az mu to bude davat 10MB/s nebo min.