Kdyz mas XMbit, tak se jeden soubor podruhym bude stahovat v idealnim neexistujicim pripade presne stejne dlouho jako 100 souboru najednou. Realita je typicky takova, ze vic souboru najednou se bude stahovat dyl, protoze je typicky stahujes ze stejnyho serveru a ten ma omezeny IOps a omezi ti i ty Mbity.
Dalsi realita je ta, ze omezeny IOps ma i to tvoje lokalni uloziste, s bonusem, ze opet stahovani vice souboru najednou = fragmentace. Nektere aplikace (typicky torrent) tohle resi alokaci prazdnych souboru ktere pak prepisuji.
Pak ty balicky musis rozbalit, coz opet paralelene = radove vetsi zatez na uloziste a radove vetsi zatez na CPU. Coz take znamena, ze to bude trvat dyl, nez pekne jedno podruhem.
A jak uz tu zaznelo, bude to taky znamenat, ze po dobu te uzasne paralelni aktualizace bude to zarizeni prakticky nepouzitelne. Plus velice pravdepodobne nasobny narust failu.
Nie, to som nemyslel. Problem je, ze android pri instalacii jednej aplikacie caka az sa dokonci, nez rozbehne stahovanie dalsej. Nedava mi logiku, preco sa nestahuju aplikacie paralelne s tym, ze instalovat sa uz mozu po jednej a to aj pocas stahovania tych ostatnych.
V kazdom pripade nemate pravdu ani pri tom paralelnom stahovani viacerych suborov a to hlavne pokial ide o vacsie mnozstvo mensich suborov. Paralelne bolo vzdy rychlejsie aj ked teoreticky mate pravdu tak prakticky to tak nie je. Problemom je totiz vacsinou ten overhead okolo. Rovnako vytazenost serverov pri infrastrukture google asi nie je zrovna velky problem.