abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 13:44 | Komunita

    Free Software Foundation zveřejnila ocenění Free Software Awards za rok 2023. Vybráni byli Bruno Haible za dlouhodobé příspěvky a správu knihovny Gnulib, nováček Nick Logozzo za front-end Parabolic pro yt-dlp a tým Mission logiciels libres francouzského státu za nasazování svobodného softwaru do praxe.

    Fluttershy, yay! | Komentářů: 0
    dnes 13:11 | IT novinky

    Před 10 lety Microsoft dokončil akvizici divize mobilních telefonů společnosti Nokia a pod značkou Microsoft Mobile ji zanedlouho pohřbil.

    Ladislav Hagara | Komentářů: 0
    včera 21:33 | Komunita

    Fedora 40 release party v Praze proběhne v pátek 17. května od 18:30 v prostorách společnosti Etnetera Core na adrese Jankovcova 1037/49, Praha 7. Součástí bude program kratších přednášek o novinkách ve Fedoře.

    Ladislav Hagara | Komentářů: 5
    včera 21:11 | IT novinky

    Stack Overflow se dohodl s OpenAI o zpřístupnění obsahu Stack Overflow pro vylepšení OpenAI AI modelů.

    Ladislav Hagara | Komentářů: 1
    včera 17:55 | Nová verze

    AlmaLinux byl vydán v nové stabilní verzi 9.4 (Mastodon, 𝕏). S kódovým názvem Seafoam Ocelot. Přehled novinek v příspěvku na blogu a v poznámkách k vydání.

    Ladislav Hagara | Komentářů: 0
    včera 17:11 | IT novinky

    Před 50 lety, 5. května 1974 v žurnálu IEEE Transactions on Communications, Vint Cerf a Bob Kahn popsali protokol TCP (pdf).

    Ladislav Hagara | Komentářů: 0
    včera 13:44 | Zajímavý článek

    Bylo vydáno do češtiny přeložené číslo 717 týdeníku WeeklyOSM přinášející zprávy ze světa OpenStreetMap.

    Ladislav Hagara | Komentářů: 0
    včera 04:00 | Nová verze

    Byla vydána (Mastodon, 𝕏) nová stabilní verze 2.10.38 svobodné aplikace pro úpravu a vytváření rastrové grafiky GIMP (GNU Image Manipulation Program). Přehled novinek v oznámení o vydání a v souboru NEWS na GitLabu. Nový GIMP je již k dispozici také na Flathubu.

    Ladislav Hagara | Komentářů: 6
    včera 00:22 | Komunita

    Google zveřejnil seznam 1220 projektů od 195 organizací (Debian, GNU, openSUSE, Linux Foundation, Haiku, Python, …) přijatých do letošního, již dvacátého, Google Summer of Code.

    Ladislav Hagara | Komentářů: 2
    5.5. 22:22 | IT novinky

    Na základě DMCA požadavku bylo na konci dubna z GitHubu odstraněno 8535 repozitářů se zdrojovými kódy open source emulátoru přenosné herní konzole Nintendo Switch yuzu.

    Ladislav Hagara | Komentářů: 7
    Podle hypotézy Mrtvý Internet mj. tvoří většinu online interakcí boti.
     (64%)
     (8%)
     (14%)
     (15%)
    Celkem 129 hlasů
     Komentářů: 8, poslední 4.5. 08:25
    Rozcestník

    Praktický test komprese ZPAQ v programu lrzip

    24. 4. 2018 | Bystroushaak | Tipy a triky | 10353×

    Poslední dobou mě velmi zaujal komprimační nástroj lrzip (Long Range ZIP). Dosahuji s ním lepších komprimačních poměrů, než s čímkoliv jiným, a to ne o pár procent, ale často o celé desítky.

    lrzip je poměrně pomalý (s parametrem -z pro kompresi ZPAQ) a vyžaduje velké množství paměti. U mě na počítači se však průměrná rychlost komprese pohybuje okolo 3 MB/s, což není zas až tak špatné, je to lepší než například lzma (0,7 až 2 MB/s).

    Osobně se snažím dělat pravidelné inkrementální zálohy pomocí rsync. Tyto zálohy pak jednou za čas šifrované pomocí GPG vypaluji a kopíruji mj. na různá internetová úložiště. V tuto chvíli je pro mě velikost výsledného souboru podstatná, zatímco čas na kompresi mě v podstatě nezajímá a může trvat klidně celý den.

    Příklady

    Všechny příklady probíhaly na stroji vybaveném Intel Core i5-4590S (3,0 GHz), 16GB RAM a SSD.

    Rsync delta složka

    Mám adresář syncthing_delta, kam se pravidelně kopírují inkrementální zálohy. Velikost zatarovaného adresáře je 12,8 GB (12836904960 bajtů). V adresáři se nacházejí textová data, gitové repozitáře, obrázky, PDF soubory a celkově takový různý mix běžných uživatelských dat. Gzipovaných souborů je tam hodně, protože jsou interně používány rsyncem.

    Tento tarovaný soubor potřebuji něčím následně zmenšit. K tomu jsem historicky využíval gzip, bzip2 a lzma. Zde je tabulka výsledných velikostí a času, který to zabralo:

    Program Čas Výsledná velikost (GB) Rychlost komprese (MB/s) Komprese o (%) Čas dekomprese Rychlost dekomprese (MB/s)
    lrzip -z 58m  4s 9,5 3,51 25,78 67m 37s 3.01
    bzip2 -9 27m  7s 11,4 7,52 10,93 12m 16s 14,77
    gzip -9 9m  6s 11,4 22,42 10,93 2m 29s 72,97
    lzma -9 90m 58s 11,1 2,24 13,28 11m 28s 15,43

    Samotná složka Syncthing

    Předchozí příklad je lehce zkreslený, neboť komprimovaný soubor obsahuje velký počet souborů gzip, které si do ní ukládá rsync. Zde je ukázka benchmarku na zatarované složce Syncthing. Vstupní soubor tar má velikost 4,0 GB (4036546560 bajtů).

    Ve složce se nachází 29 592 souborů. Četnost některých zajímavějších typů souborů je následující:

    py 3471
    txt 1315
    png 1034
    jpg 932
    pyc 919
    sample 894
    self 858
    log 589
    hh 434
    cache 385
    cpp 362
    html 354
    js 344
    java 294
    md 285
    gif 232
    json 221
    css 208
    rst 190
    gz 148
    sh 113
    pyo 103
    pdf 102
    zip 94
    xcf 85
    pym 80
    yml 70
    dat 52
    st 48
    z 42
    c 34
    rar 34
    xml 30
    doc 27
    lzma 26

    Benchmark tentokrát vyšel takto:

    Program Čas Výsledná velikost (GB) Rychlost komprese (MB/s) Komprese o (%) Čas dekomprese Rychlost dekomprese (MB/s)
    lrzip -z 23m 12s 3,2 2,76 20,24 25m 10s 2,54
    bzip2 -9 7m 52s 3,3 8,15 15,65 3m 49s 14,17
    gzip -9 2m 52s 3,4 22,3 14,69 0m 48s 72,53
    lzma -9 30m 18s 3,3 2,11 17,34 3m 50s 13,83

    Textový soubor

    Čas od času potřebuji provést zálohy různých databází, což jsou více či méně strukturované textové soubory. Někdy se jedná o JSON, jindy jde o SQL dumpy.

    Vstupem byl soubor csfd.tar o velikosti 771,2 MB (771184640 bajtů), obsahující export z MongoDB v podobě souborů JSON.

    Program Čas Výsledná velikost (MB) Rychlost komprese (MB/s) Komprese o (%) Čas dekomprese Rychlost dekomprese (MB/s)
    lrzip -z 4m 15s 122,6 2,88 84,10 3m  7s 3,91
    bzip2 -9 1m  4s 142,3 11,4 81,54 0m 21s 6,77
    gzip -9 3m 26s 207,6 3,57 73,08 0m  4s 51,9
    lzma -9 12m 52s 140,3 0,17 81,80 0m  7s 20,04

    Grafy komprese

    Redukce velikosti Čas komprese Rychlost komprese

    Nevýhody

    Trochu nevýhodou jsou nestandardní přepínače a poněkud ukecanější výstup, než bývá běžně zvykem:

    Output filename is: /home/bystrousak/Plocha/syncthing_delta.tar.lrz
    /home/bystrousak/Plocha/syncthing_delta.tar - Compression Ratio: 1.351. Average Compression Speed:  3.514MB/s.
    Total time: 00:58:04.10

    Rychlost dekomprese

    Větší nevýhodou je pak nízká rychlost, a to nikoliv jen komprese, ale také dekomprese. To nebývá tak úplně zvykem. Například dekomprese pomocí gzipu je o řád rychlejší než komprese (3,57 MB/s komprese, 51,6 MB/s dekomprese).

    Tohle nevadí v některých konkrétních aplikacích, kdy nepotřebujete výsledné soubory často rozbalovat a jejich použití je spíše 1:1 (jednou zabaleno, jednou rozbaleno) než 1:N (jednou zabaleno, Nkrát rozbaleno). Typicky jde například o zálohování. Naopak pro distribuci software se program moc nehodí, neboť každý uživatel by na tom spálil mnoho výkonu.

    Čas dekomprese Rychlost dekomprese

    Zajímavosti

    Parametr -z specifikuje algoritmus ZPAQ. Ten je poměrně zajímavý mimo jiné tím, že provádí deduplikaci dat a jejich částečnou analýzu, na základě které pak vybírá různé pod-algoritmy, které se nejlépe hodí pro kompresi konkrétní části souboru.

    V hlavičkách archivu poněkud netradičně nejsou specifikované samotné algoritmy použité pro kompresi, místo toho je použit formát ZPAQL pro popis dekompresního algoritmu formou bytecode, jenž je možné za běhu přímo překládat na x86 instrukce. Díky tomu je teoreticky možné popsat výstupní data čistě algoritmicky a vygenerovat na tomto základě velké množství výstupu, podobně jako třeba prográmky demoscény generují desetiminutová videa z 64KiB binárky.

    Deduplikace probíhá na základě vyhledávání již zkomprimovaných bloků dat. Tyto bloky dat přitom mají variabilní velikost a jsou děleny a identifikovány na základě svého hashe. Podle mého názoru se jedná o velmi pěkný způsob zajištění deduplikace bez ohledu na to, kde jsou data v souboru uložena a jak moc jsou v něm posunuta.

    Verdikt

    Nejlepší kompresní poměr. Komprese lepší než lzma, dekomprese pomalejší než všechno ostatní mnou testované. Dobré na zálohy, špatné na distribuci software a cokoliv, kde data plánujete často rozbalovat.

           

    Hodnocení: 88 %

            špatnédobré        

    Nástroje: Tisk bez diskuse

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    Komentáře

    Vložit další komentář

    24.4.2018 07:21 petr_p | skóre: 59 | blog: pb
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    lrzip bohužel není udržovaný a obsahuje nepříjemné množství bezpečnostních chyb. Značný podíl na tom má zadrátovaná historická verze ZPAQu, s jejíž aktualizací si neví rady ani Kolivas. (ZPAQ změnil vnitřní API a lrzip samozřejmě používá jeho vnitřnosti.) Samozřejmě testy neexistují. Ostatně i ZPAQ je kapitola sama pro sebe (dynamická knihovna je zde sprosté slovo.) Osobně radím nestavět na této technologii nic. Proto jsem lrzip odstranil z Fedory.
    24.4.2018 08:48 Tibor
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    V článku nesedia čísla. GiB je 230 B. 12836904960 B je 11,96 GiB, 4036546560 B je 3,76 GiB.
    Bystroushaak avatar 24.4.2018 12:06 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Jo, to bude chyba, má to být GB, ne GiB.
    Fluttershy, yay! avatar 24.4.2018 12:21 Fluttershy, yay! | skóre: 92 | blog:
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    OK, opraveno.
    🇵🇸Touch grass🇺🇦 ✊ no gods, no masters
    24.4.2018 08:51 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Osobně se snažím dělat pravidelné inkrementální zálohy pomocí rsync. … V tuto chvíli je pro mě velikost výsledného souboru podstatná, zatímco čas na kompresi mě v podstatě nezajímá a může trvat klidně celý den.
    Všechno je to pouze o objemu dat. Pokud ti objem komprimovaných dat naroste do takové míry, že ti přestane na kompresi 24 hodin stačit – máš problém.
    24.4.2018 09:18 Andrej | skóre: 9
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    jedine ak "pravidelné" znamena "kazdych 24 hodin"...
    Any sufficiently advanced magic is indistinguishable from technology. --Larry Niven
    Ilfirin avatar 24.4.2018 11:29 Ilfirin | skóre: 32 | blog: ilfblog | Liberec
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    A to jsem myslel, že ZPAQ je můj tajný nástroj, který nikdo nezná... Nicméně skončil jsem také ve fázi pokusů. Ano, komprimuje to jako ďábel, ale v reálném nasazení nemám na tu komprimaci čas (reálný, i procesorový) a fallbacknul k lzma. Ale furt ho mám jako hračku pro srovnání, o kolik víc by to šlo ještě zkomprimovat oproti lzma.
    24.4.2018 14:09 x14
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Děkuji za test, o existenci něčeho takového jsem neměl tušení.
    24.4.2018 14:42 Cejvik | skóre: 5
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    škoda že v testu nebyl použit 7zip/LZMA
    24.4.2018 14:44 Cejvik | skóre: 5
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    beru zpet
    24.4.2018 16:17 Petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Krom toho, ze lrzip je neudrzovan, mozna bych ti doporucil podivat se na lzma2 treba v 7zipu (u me p7zip na freebsd). Tech prepinacu, hlavne co se tyce ram a velikosti ruznych slovniku je tam x a s dostatkem ram se dostanes dal nez s lrzip. 16gb ram je pro max kompresi nedostatecnych.
    24.4.2018 23:11 Andrej | skóre: 9
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    16gb ram je pro max kompresi nedostatecnych?
    Any sufficiently advanced magic is indistinguishable from technology. --Larry Niven
    25.4.2018 07:26 Petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Ano. U 1gb archivu samozrejme ne, ale pokud komprimujes treba x desitek/stovek gb nebo v mem pripade tb dat, tak ty pametove naroky jsou jinde. Vychazi to z velikosti slovniku, predikcnich algoritmu atd.
    Bystroushaak avatar 25.4.2018 11:43 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Krom toho, ze lrzip je neudrzovan, mozna bych ti doporucil podivat se na lzma2 treba v 7zipu (u me p7zip na freebsd). Tech prepinacu, hlavne co se tyce ram a velikosti ruznych slovniku je tam x a s dostatkem ram se dostanes dal nez s lrzip. 16gb ram je pro max kompresi nedostatecnych.
    A umí to deduplikaci? Protože to je pro mě docela killer feature.
    25.4.2018 12:20 Peter Golis | skóre: 64 | blog: Bežné záležitosti | Bratislava
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Aký je prosím rozdiel medzi slovníkovou kompresiou a deduplikáciou s použitím nekonečne veľkého slovníka a pevnej dĺžky slova? Nejako som si žiaden nevšimol.
    Bystroushaak avatar 25.4.2018 13:06 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    A konkrétně? Jaký program, jaké parametry, jak ti vyšel benchmark?
    25.4.2018 17:08 Peter Golis | skóre: 64 | blog: Bežné záležitosti | Bratislava
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Vedel by si povedať ako chceš programom definovať rozdiel v definícii dvoch technológií?
    Bystroushaak avatar 25.4.2018 18:47 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Vedel by si povedať ako chceš programom definovať rozdiel v definícii dvoch technológií?
    Zajímá mě konkrétní řešení, pokud to chceš brát hypoteticko-filosoficky, tak na to nemám ani čas, ani náladu.
    25.4.2018 18:54 Peter Golis | skóre: 64 | blog: Bežné záležitosti | Bratislava
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Pretože deduplikácia je slovníková kompresia, s pevnou dĺžkou slova a nekonečne dlhým slovníkom.

    A ak urgentne potrebuješ funkčné riešenie, tak skús povedať cenovú hladinu. Hotových riešení pre deduplikáciu je plno. BSD s ZFS, Linux s BTRFS, OpenDedup, alebo komerčné Quantum DXi, či HPE StoreOnce.
    25.4.2018 21:03 marbu | skóre: 31 | blog: hromada | Brno
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Pretože deduplikácia je slovníková kompresia, s pevnou dĺžkou slova a nekonečne dlhým slovníkom.
    Z praktického hlediska bych viděl menší zádrhel v tom nekonečném slovníku.
    A ak urgentne potrebuješ funkčné riešenie, tak skús povedať cenovú hladinu. Hotových riešení pre deduplikáciu je plno. BSD s ZFS, Linux s BTRFS ...
    Tak jednoduché to zase není. Filesystém (např. btrfs) nebo blokové vrstva (např. vdo) s deduplikací je přece jiný use case než deduplikace při kompresi tarballu.

    There is no point in being so cool in a cold world.
    26.4.2018 09:28 Peter Golis | skóre: 64 | blog: Bežné záležitosti | Bratislava
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Pretože deduplikácia je slovníková kompresia, s pevnou dĺžkou slova a nekonečne dlhým slovníkom.
    Z praktického hlediska bych viděl menší zádrhel v tom nekonečném slovníku.
    Ja nie, slovník sa nemusí alokovať na počiatku sveta.
    A ak urgentne potrebuješ funkčné riešenie, tak skús povedať cenovú hladinu. Hotových riešení pre deduplikáciu je plno. BSD s ZFS, Linux s BTRFS ...
    Tak jednoduché to zase není. Filesystém (např. btrfs) nebo blokové vrstva (např. vdo) s deduplikací je přece jiný use case než deduplikace při kompresi tarballu.
    Áno. Pri deduplikácii na úrovni FS nepotrebuješ používať TAR.
    24.4.2018 21:58 pc2005 | skóre: 38 | blog: GardenOfEdenConfiguration | liberec
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    To jsem nepochopil. Rzip má jen o 0.1GB menší soubor, ale dekomprese trvá skoro o řád déle než u bzipu2 ? Na co to je pak dobrý. Ten ~4% rozdíl ve velikosti je příliš malý, aby převážil dobu, kdy se čeká na dekompresi (a podobně dlouhou kompresi). A pokud by při bzip2 už nestačila velikost disku, tak to je špatně zvolená rezerva. Dokonce bych během rozdílu času komprese mezi bzip2 a lrzip byl schopen dojít koupit náhradní disk do města a zpět :-D.
    25.4.2018 07:31 Petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Tak ono je obcas usecase, ze tech dat mas proste hodne a neocekava se ze je nekdy budes cist a kazde usetrene procento znamena treba 1x 1tb disk. Ja treba komprimuji do sejfu data ktera nepredpokladam ze nekdy budu chtit cist, presto maji pro me urcitou cenu. Tech dat co takhle odlozim je nekolik tb mesicne (po maximalni lzma2 kompresi v p7zip).
    25.4.2018 22:29 V.
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Co to znamená, že data neplánujete číst? U záloh neověřujete jejich použitelnost?
    26.4.2018 08:47 Petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Odtestovat integritu archivnich souboru neni problem, kvuli tomu ale nemusim rozbalovat cely archiv.
    25.4.2018 22:38 pc2005 | skóre: 38 | blog: GardenOfEdenConfiguration | liberec
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Pokud každé 1 procento znamená jeden 1TB disk, tak je celkej zanedbatelný rozdíl mezi 109 kKč (100x 1TB) a 112 kKč (103x 1TB).
    26.4.2018 08:49 Petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Vy zalohujete dulezite data na 1 disk? Ja mam dulezite data na ruznych datovych mediich celkove v 6 kopiich na ruznych mistech. Takze to usetrene procento znamena vetsi usporu nakladu. Ale ano, chapu to, ze ty naklady jsou v celkovem meritku zanedbatelne.
    26.4.2018 23:14 pc2005 | skóre: 38 | blog: GardenOfEdenConfiguration | liberec
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    U soukromých dat proč by ne. Ale i v případě kopií by 1% nákladů bylo pořád 1% ;-). Jinak kdybych měl úkol zazálohovat profesionální data, tak bych stejně použil bzip2 a to kvůli dlouhému času dekomprese lrzip (ztráta zisku při delším downtime).
    Bystroushaak avatar 25.4.2018 11:44 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    To jsem nepochopil. Rzip má jen o 0.1GB menší soubor, ale dekomprese trvá skoro o řád déle než u bzipu2 ?
    Záleží. Například u toho syncthing_delta.tar je to menší o 1.6GB než LZMA, což není zanedbatelné. Konkrétně to pálím na 25GB bluray, kde se každý volný gigabajt hodí.
    25.4.2018 22:44 pc2005 | skóre: 38 | blog: GardenOfEdenConfiguration | liberec
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    No je to víc než 10%, dejme tomu. Já bych ale těch 10% oželel. Rezerva by měla být pořád větší než těch 10%. Zvlášť pokud bych ukládal inkrementální zálohy na násobně větší disk (nehledě na to, že na tvůj bluray se stejně nevejde víc jak dvě kopie v libovolném kompresním algoritmu - záleží samozřejmě na fluktuaci velikosti při každé záloze).

    26.4.2018 10:51 lertimir | skóre: 64 | blog: Par_slov
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    A jak to vyjde s cenou elektřiny? Tedy jestli to znamená plný výkon 100W procesoru (plus běžící zbytek kompu a disky) po 1 hodinu na to abych ušetřil 1,5GB tak je to cca 0,5 Kč za elktřinu proti cca 1,2 Kč za cenu media (na rotačním disku). Před časem jsem kompresoval nějaké filmy do x265, ale postupně to oželím, protože i když film stisknu na cca 30'% původní velikosti, tak rychlost je někde kolem uspory 0,8 GB za hodinu výpočtu a to mi připadá málo efektivní.
    Bystroushaak avatar 26.4.2018 12:34 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    A jak to vyjde s cenou elektřiny? Tedy jestli to znamená plný výkon 100W procesoru (plus běžící zbytek kompu a disky) po 1 hodinu na to abych ušetřil 1,5GB tak je to cca 0,5 Kč za elktřinu proti cca 1,2 Kč za cenu media (na rotačním disku). Před časem jsem kompresoval nějaké filmy do x265, ale postupně to oželím, protože i když film stisknu na cca 30'% původní velikosti, tak rychlost je někde kolem uspory 0,8 GB za hodinu výpočtu a to mi připadá málo efektivní.
    Elektřinu zanedbávám. Stojí tak málo, že se mi to v podstatě nevyplatí řešit. Počítač by stejně běžel tak jako tak, teď jen běží CPU na plný výkon. Šlo mi o to, že jinak bych musel pálit další bluray, trvalo by to další hodinu a byl by to další opruz, to dávat do vypalovačky, katalogizovat, nadepisovat a pak skladovat. Takhle se mi tam vešlo co jsem potřeboval. Na zálohování mám napsaný script, co všechno zkomprimuje, zašifruje, vytvoří md5sum a tak podobně, takže tam prostě přepíšu lrzip místo gzipu a tím to pro mě hasne.
    25.4.2018 12:33 Kkt1
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Az budu doma, udelam nejaky test s p7zip a lzma2 vs lrzip. Ram mam dostatek, mozna si udelam i graf kolik to zere ram v case. Prosim o napady na referencni data, idealne desitky/stovky gigabajtu, jinak pouziji svuj mix nekolika tb dat.
    Bystroushaak avatar 25.4.2018 13:07 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Zkus použít nějaké dumpy z SQL / Mongo. Pak taky text, třeba wikipedii (dá se stahnout oficiálně celá).
    25.4.2018 13:12 Kkt1
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Takze specificke baliky dat? Zadny mix? Ok, neco postaguhi o vikendu a pustim na to kompresi. 100gb pro input? Nebo vice?
    Bystroushaak avatar 25.4.2018 13:31 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Mix taky, ale tohle by mě konkrétně zajímalo. Mix ti neporadím kde vzít.
    28.4.2018 12:52 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Mix dat mam, vyslovene SQL dumpy nemam. Respektive nepracovni mnozstvi je v radu desitek MB a pracovni DB jsou zase oracle v praci a to domu nemohu. Nejaky napad kde sehnat treba 100GB SQL dumpu?
    27.4.2018 14:23 Andrej | skóre: 9
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    ten backup script by niekde nebol?
    Any sufficiently advanced magic is indistinguishable from technology. --Larry Niven
    Bystroushaak avatar 27.4.2018 19:44 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Mám ho na domácím PC, ale tohle zvládne napsat kde kdo za pár minut. Je to prostě jen pár funkcí v bashi a pár řádek s umístěními, které se mají sebrat a „zpracovat“ (zatarovat a zašifrovat s progress barem pv a pak zmd5sumovat) do konkrétní složky. Celé to má asi 20 řádek.
    Bystroushaak avatar 29.4.2018 11:44 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    #! /usr/bin/env bash
    #
    export ADDRESS="bystrousak@kitakitsune.org"
    export GPG_PARAMS="--recipient $ADDRESS --compress-level 0 -e --yes --output"
    
    function md5it {
        pv "$1" | md5sum - > "$1.md5sum";
    }
    
    function pack_to_gpg {
        echo "Packing $2 .. "
        # tar -czO "$1" 2>/dev/null | gpg $GPG_PARAMS "$2";
        tar -cO "$1" 2>/dev/null | pv -s $(du -sb "$1" | awk '{print $1}') | pbzip2 -5 -p3 -c | gpg $GPG_PARAMS "$2";
        md5it $2;
        echo "done"
    }
    
    
    if [ -d bluray ]; then
        rm -fr bluray;
    fi
    
    mkdir bluray
    cd bluray
    
    pack_to_gpg /media/bystrousak/Internal/Backup/delta/xlit_delta xlit_delta.tar.bz2.gpg
    pack_to_gpg /media/bystrousak/Internal/Backup/delta/syncthing_delta syncthing_delta.tar.bz2.gpg
    pack_to_gpg /media/bystrousak/Internal/Backup/delta/dropbox_delta dropbox_delta.tar.bz2.gpg
    pack_to_gpg /media/bystrousak/Internal/Backup/delta/pocketbook_delta pocketbook_delta.tar.bz2.gpg
    
    cp /home/bystrousak/Plocha/scanny .
    md5it scanny
    29.4.2018 01:54 Halis | skóre: 6 | blog: capacitor
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Pokud by ses spokojil s deduplikací na úrovni souborů, tak doporučuji technologii z BackupPC.
    10.5.2018 14:40 Kkt1
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Well... po delsi dobe, kterou jsem vyuzil k porovnani 7zip a lrzip (a par dalsich), k memu obrovskemu prekvapeni 7zip neni kralem, a to ani s lzma2, ale vyhral u naproste vetsiny mych testu lrzip. Jak u 7zip tak u lrzip jsem pouzival maximalni moznou kompresi bez ohledu na ram nebo dopad na performance (stroje s 1tb ram, xeony, rychly storage), slo mi ciste jenom o kompresni pomer. Zdrojove data byli ruzne a komprimoval jsem je oddelene tak i mix. Vysledky byli u nekterych dat podobne (treba binarni bloby) ale u nekterych byli naprosto odlisne (treba komprese nekolik desitek vmware masin vcetne snapshotu kde lrzip dokazal vyprodukovat asi 20% velikost toho co vyprodukoval 7zip). Pro me nevyhody ve srovnani s 7zip - absence komprese adresaru (nejdrive musite udelat tar ktery treba pres pipe sypete do lrzip, tady ale ztratite optimalizaci dle obsahu jednotlivych souboru), nemoznost delit vystup na treba 50gb baliky, nekomu muze chybet sifrovani. Pro predstavu nejvetsi set komprimovanych dat mel neco pres 2tb, vetsina byla kolem 50-100gb.
    Bystroushaak avatar 10.5.2018 15:24 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    tady ale ztratite optimalizaci dle obsahu jednotlivych souboru
    Je to jen pocit, nebo to tak fakt je? Já myslel, že by na tom nemělo záležet, ale netestoval jsem to.
    10.5.2018 16:54 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    U malych archivu je to vicemene jedno, u archivu v radech stovek GB/TB je IMHO rozdil jestli je milion textaku/exe/bmp/cehokoliv za sebou, nebo jestli je to random sorted. Nevejde se to do RAM/slovniku. Vyslovene test na tohle jsem nedelal, protoze problem je takovy sorted tar vyrobit a lrzip bez taru nefunguje, zatimco 7zip si proste ty files zkontroluje a dle toho obsahu je komprimuje. Zkusim ale neco vymyslet jak to rozumne odtestovat (napada me x ruznych taru dle obsahu vlozenych do dalsiho taru pro lrzip). Jeste jsem se koukal na zpaq ktery by mel byt konkurenci lrzipu, zkusim prohnat testovaci data jeste nim v max nastaveni a dam vedet.
    Bystroushaak avatar 10.5.2018 17:15 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Asi je otázka, jak rychle se to přizpůsobí datům.
    protoze problem je takovy sorted tar vyrobit
    Čistě jen pro inspiraci: python má tarfile. Tím si to můžeš namixovat.
    Jeste jsem se koukal na zpaq ktery by mel byt konkurenci lrzipu, zkusim prohnat testovaci data jeste nim v max nastaveni a dam vedet.
    Počkat, já psal ten článek právě o lrzipu s -z, což zapíná zpaq. Pokud myslíš zpaq jako program, tak to bude imho jen jiný frontend. Nebo ne?
    10.5.2018 17:30 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    pokud jsem to pochopil spravne, tak lrzip i zpaq pouzivaji stejny algoritmus, implementace bude ale patrne jina. Zpaq ma x dalsich moznosti, zkusil jsem ted -method 5 -threads 1 a uvidime. Vice vlaken zhorsuje kompresni pomer a to i v 7zipu.
    10.5.2018 17:46 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    tak zpaq v maximalni kompresi odhaduje cas ke kompresi 20GB dat na nejakych 30hodin... tim padem bych rekl, ze implementace bude jina nez lrzip. Dam vedet az to dokomprimuje i vysledek z lrzipu i s casem.
    11.5.2018 21:28 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Takze lrzip ma s nejvetsi pravdepodobnosti svou implementaci nez zpaq. Zpaq ma lepsi kompresni pomer ale ten cas je sileny. Testovaci tar byl 20443942400B lrzipem skomprimovany pres lrzip -T -L 9 -z Archive.tar na 7810518281B za 03:20:48. Zpaq na jednom vlakne to skomprimoval na 7489268634B za 23:53:31. Neumim si predstavit nechat komprimovat pres zpaq treba svych obvyklych 2TB, ale treba po roce by to dobehlo... Nasel jsem v ramci tech ruznych implementaci jeste rzip, ktery by mel mit moznost nejakych dalsich levelu, tudiz jdu to testnout.
    12.5.2018 09:45 petr
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    tak rzip po 12ti hodinach skomprimoval tech 20GB na 8307926621B. Z pohledu kompresniho pomeru je tedy zpaq vitez, z pohledu rychlost a kompresni pomer je lrzip vitez.
    Bystroushaak avatar 12.5.2018 10:06 Bystroushaak | skóre: 36 | blog: Bystroushaakův blog | Praha
    Rozbalit Rozbalit vše Re: Praktický test komprese ZPAQ v programu lrzip
    Díky za info!

    Založit nové vláknoNahoru

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.