OSASK-WikiのKの落書きの過去ログ

  • 本家:OSA:K
    • 過去ログにコメントしたい人も、本家のこめんと欄に突っ込んでください。
      • そのうちKによって下のこめんと欄に移動しますので。

圧縮能力の評価方法

  • (2004.11.14-2004.11.22)
  • 世間では、圧縮能力の比較方法として、無圧縮サイズに対する割合で示したものがほとんどですが、これがナンセンスだということはZ:tekの「解説」に既に書きました。それで僕は、それぞれの圧縮後のサイズを、もっとも小さくできた圧縮サイズで除した、圧縮指標を導入して分析を進めてきました。
  • 先ほど、もっと役に立ちそうな指標を思いついたので、これを説明・検討してみたいと思います。
  • 僕の提唱した圧縮指標は明らかに世間一般の表現方法よりも有用でしたが、それでも不満な点がありました。例としてZ:tekの表から一部を持って来たものを挙げます。
    osaskbmpkdun00bbim2bincosaskgozero64k
    無圧縮161932248583.7263.7242726
    LZO354.8178.9173.8157.41563
    stk1318.6171.0186.3170.3100.0
    stk2293.7160.5177.1156.6107.4
  • これを見ると、確かにstk2ではosaskbmpを限界圧縮サイズの約3倍にまで小さくできているということは分かります。一方、osaskgoに関しては1.6倍程度だということも分かります。
  • でも、これだけでは分からないこともあります。たとえばstk2はbmpが得意なのでしょうか、不得意なのでしょうか?そういうことを論じるには本来は他の圧縮形式ではどうなっているのかをみなければいけません。でも、そういう比較をしないでもある程度のことが分かったらいいのではないかと思いました。
  • 293.7と156.6ということを単純に比較すれば、なんとなくosaskgoのほうが得意なのかと思ってしまうところですが、そもそもosaskgoは無圧縮でも263.7であって、そういう比較では不十分だと分かります。
  • そこでこんな指標を考えました。
    指標B = ln((参考サイズ - 限界サイズ) / (圧縮サイズ - 限界サイズ))
  • 考え方はこうです。まず、どれだけ小さくなったのかではなく、どれだけ無駄を削ったのか、ということを中心に考えることにしました。そこで参考サイズというものが出てきます。これは適当に決めていいのですが、まあ目安としては一番圧縮率の悪いものを選びます(無圧縮を選んでも構わないですが)。これを基準にして、その比そのものではなく自然対数をとることにしました。これは極端に大きな数や極端に小さな数が出るのを避けて、見通しをよくするためです。
    • 自然対数なので0.7の差は、比では約2倍の差になります。たとえばもし1.4の差があれば、無駄を1/4に削減できているということです。
  • 早速この考えで、表を作ってみました。
    osaskbmpkdun00bbim2bincosaskgozero64kmin.
    無圧縮-4.146-3.305-1.724-0.845-4.873
    stk10.1530.1050.0000.000[inf]0.000
    LZO0.0000.0000.1560.2040.2380.000
    stk20.2740.2650.1120.2175.5230.112
    bzip20.9160.2360.7680.5663.4440.236
    tek00.4470.2970.3150.2726.2170.272
    lh70.4270.3400.4710.4071.7170.340
    gzip0.6420.5400.6260.4391.8220.439
    dgc0.8510.4920.8470.7920.0000.492
    PPMd0.6660.7941.4400.8811.3960.666
    stk51.4641.6560.8210.9995.5230.821
    LZMA1.2311.5500.8230.9992.0730.823
    tek51.6081.8130.8601.0275.5230.860
    paqar[inf][inf][inf][inf]3.444[inf]
    • min.はzero64k以外の最小値。これをもとにソートしてある。
  • これによるとtek5はbim2bincが苦手だということがよく分かります。逆にkdun00bが得意だということも分かります。今までの指標(指標A)だとosaskbmpのほうが改良の余地ありだったのですが、それよりもbim2bincのほうこそ改良の余地があるのでしょう(なお既に改善案はあって、それを使うと0.96くらいには改善しそうです)。
  • OSA:why_sarページの表も指標Bで整理してみました。
    sar+stk1lzhzipyz2tar.bz2tar.gzdgcPPMdrarcabLZMAsarpaq
    osat45i0.0000.3480.4750.1140.1450.5100.3870.4270.5560.6200.9171.065[inf]
    sartol0g0.0000.1070.1440.1340.3960.3060.5581.2110.7480.5730.7830.911[inf]
    make460.4410.0000.0970.8010.7000.1621.2111.7291.0701.0471.3041.352[inf]
    min.0.0000.0000.0970.1140.1450.1620.3870.4270.5560.5730.7830.911[inf]
    • ここにはstk1やLZOが入っていないので上記と比べると全体的にスコアが低めです。
      • それだとかえって比較しにくいと思ったので、stk1を追加しました。
      • sar+stk1のサイズ: osat45i:559696, sartol0g:48250, make46:342168
  • おまけ:なぜベスト値でも平均値でもなく、ワースト値で評価するのか?
    • ベストを使わない理由は簡単です。特定の傾向に特化したアルゴリズムを作っていいのなら、圧縮率を高めるのはやさしくなるからです。極端なことをいえば、展開ツール側に巨大な辞書(というか無圧縮データ?)を持たせておき、アーカイブではその辞書番号だけを入れたような、ひどい圧縮ソフトだって作れます。これは特定の数種のファイルだけを数バイトに圧縮可能ですが、こんなものをベスト値として評価すれば、これは最高のスコアを出すでしょう。
      • 他には、オールゼロのファイルに対しては、ファイルサイズのみ記録し、中身は記録しない、とか。これだとオールゼロのファイルに対してはものすごい圧縮率になる。
    • 平均値を使わない理由はこうです。平均を取るとしたら、どういうテストデータで平均を取るべきなのかが問題になります(テストデータの選び方で順位が大きく変わる)。
    • これらに対し、ワースト値は簡単です。いろんなデータを食わせてみて、ベストを探すのは非常に難しいですし(たいていベスト値が出せるのはかなり傾向が限定されているので)、平均値だとテストデータを追加するたびに全部計算しなおしですが、適当に試していれば簡単にワースト値(厳密な最悪値ではないにしても、それに近いもの)は見つかります。テストデータを追加しても、順位に影響するほどワースト値が更新されるものはめったにありません。
  • おまけ2:切り替え戦略について
    • 7-zipでは、LZMAとPPMdをセレクトして使えるようになっています(他の形式もいくつか選べます)。これは非常にかしこい戦略であるように見えます。というのは、PPMdが不得意なものではLZMAがよいスコアを出しているからです。
    • こういう手法を肯定的に考えると、ワーストをフォローして不得意分野を改善していくよりも、ベストを磨いて得意分野に特化するほうが、良さそうに思えてきます。というのは、もし得意分野があればこのような切り替え法の中の一つのメソッドとして生き残れますが、得意分野がなければ、たとえ全体的に安定していて不得意な部分がなくても、切り替え法の一部としては採用されないからです。
    • しかしそれは誤解です。得意分野を磨き始めると、どんどん得意分野は狭くなり、汎用的なデータをカバーできなくなります。そうなればなるほど、たくさんのメソッドを切り替える必要が出てくる上に、それらがどうしても取りこぼしてしまう分野の救済のために、結局はワースト底上げ型のようなものが必要になるのです。
    • また切り替え型には別の問題もあります。切り替え型は柔軟性にかけるので、アルゴリズム融合型には勝てません。たとえばあるデータがあって、前半はLZMA向き、後半はPPMd向きだったとしましょう(こういうデータはtarなどでファイルをアーカイブするとか、EXEにリソースファイルを組み込んだりすると容易に出現する)。これを切り替えアルゴリズムで圧縮すると、どちらのアルゴリズムを選ぶにしても、ぱっとしない圧縮率にしかなりません(半分はうまく圧縮できるが、残り半分がうまく圧縮できないため)。一方、LZMAのアルゴリズムにPPMd的な考えを導入したアルゴリズムを新規に作った場合、このアルゴリズムならそういう混在データに対しても、おそらく個別に得意なほうで圧縮したものの総和くらいには圧縮できるでしょう(もちろん、PPMdにLZMA的な考えを導入してもよい)。うまくいけば相乗効果で、さらによくなることだってありえます。

リロード   新規 編集 差分 添付   トップ 一覧 検索 最終更新 バックアップ   ヘルプ   最終更新のRSS
Last-modified: 2006-02-16 (木) 18:00:05 (5977d)