Zdá se, že u Google začínají mít problémy s objemem dat.
Nikoli, vše vyjmenované nasvědčuje tomu, že Google řeší rychlost přenosu dat přes pomalé linky uživatelů.
Kdyby Google řešil objem u sebe ukládaných dat, řešil by maximální možnou kompresi (i za cenu dlouhé soby komprese) a rychlou dekompresi, klidně algoritmem nekompatibilním s čímkoli jiným (protože by dekomprimoval sám). To nesplňuje ani jeden z uvedených algoritmů.
Vzhledem k tomu, že dnes má Google Chrome, tak už tu kompatibilitu nepotřebuje. V oznámení také píšou, že doufají, že algoritmus bude brzy podporován nejpoužívanějšími prohlížeči. A pořád je to směřováno především pro web. Navíc ta maximální komprese je jen jedna z variant, také jsou tam varianty, které komprimují stejně dobře, jako lzma, ale o dost rychleji a výrazně rychleji se dekomprimují.