Hlavní navigace

Vlákno názorů k článku Komprimační program RZIP od Marek Paška - No na úspěch rzipu bych si tedy nevsadil....

  • Článek je starý, nové názory již nelze přidávat.
  • 27. 5. 2004 0:24

    Marek Paška (neregistrovaný)

    No na úspěch rzipu bych si tedy nevsadil. Ne, že by byl tak špatný, ale změna se prostě nevyplatí.

    Ten popis těch algoritmů se mi moc nelíbil. gzip, bzip a rar jsou postaveny každý na něčem jiném.

    O gzipu toho vím prd, ale tipnu si, že je to obdoba "klacického zipu" - to znamená LZW + neco navíc.

    Bzip je postanen na jakési transformaci Burrows-Wheeler. Ta je sama o sobě docela výkonná, ale pravděpodobně tam už není moc velký prostor pro zlepšení. A jestli autor rzipu nějak vylepšil to předzpracování, tak je to jistě teoretický úspěch.

    RAR je podlě mě o třídu lepší než výše zmiňované. Obsahuje pokročilé kontextové modelování. Zajímavé je, že vylepšení kontextového modelování nazývané Information Inheritance bylo do RARu 3 implementován snad dřív, než byl dotyčný článek dostupný v angličtině :-) Azbukou jsou psané nejen nejlepší učebnice matematické analýzy :-)

  • 27. 5. 2004 0:54

    mol (neregistrovaný)

    LZW používal snad compress a GIF, zip a gzip používaj deflate (LZ77+Huffman)

    jinak já čekám na linuxovej port 7-zipu (http://7-zip.org), to je můj favorit

  • 27. 5. 2004 15:28

    lzap (neregistrovaný)

    Přesně tak, 7-ZIP má nejlepší kompresní poměr -- a to bez diskuze. Windows verze je neskutečně pomalá, ale jak autor tvrdí, může za to špatné zacházení Windows s pamětí.

    Linux port bude již brzy stejně také jako rozdělování do svazků.

  • 27. 5. 2004 23:45

    Přemysl Paška (neregistrovaný)

    tak jsem právě zkoušel ten 7-zip, a RAR je pořád můj favorit

  • 27. 5. 2004 15:16

    Andrei Badea (neregistrovaný)

    Podle toho, co pisou na www.win-rar.com, RAR pouziva modifikaci algoritmu LZSS, coz neni kontextove, ale slovnikove modelovani.

    Nekde nize take pisete, ze serazeni souboru dle pripony pomuze kontextovemu modelovani. Myslim, ze v pripade RARu to spise pomaha principu tzv. "solid" archivu, ktery spociva v tom, ze komprese dalsiho souboru nezacina s prazdnym slovnikem, ale pokracuje se starym slovnikem (tak, jak zustal po kompresi posledniho souboru). Soubory se stejnou priponou budou asi mit podobny obsah, takze je kvuli lepsimu vyuziti slovniku lepsi komprimovat za sebou.

    Take jsem nekde slysel, ze RAR je tak uspesny protoze zkousi najednou vic metod a vybira z ni tu s nejvyssim kompresnim pomerem. Ale nemam k tomu zadne detaily, takze to taky nemusi byt pravda.

  • 27. 5. 2004 23:32

    Přemysl Paška (neregistrovaný)

    (Win)Rar od verze 3 (mozna 2.8) sice dale obsahuje nejakou podobu slovnikove metody.
    Navic ale obsahuje implementaci kontextoveho modelovani, konkretneji temer urcite PPM II (Prediction by Partial Match v modifikaci Information Inheritance).
    Nevim, jestli byla tato metoda v testu zapnuta (nejspis ne), ale pokud ne, urcite by dala jeste lepsi vysledky (navic s pouzitim solid archivu).

    Jinak popis principu fungovani obecneho komprimacniho programu v clanku je *HODNE* nepresny. (Co treba zminovane kontextove modelovani??).

    Ja se naopak divim, ze se autor porad tak divil nad tim, jak je rar dobry!-)