p20191226a
の編集
http://k.osask.jp/wiki/?p20191226a
[
リロード
] [
新規
|
編集
|
差分
|
添付
] [
トップ
|
一覧
|
単語検索
|
最終更新
|
バックアップ
|
ヘルプ
]
-- 雛形とするページ --
2012_09
ADSL
ADSL1
BarbaraDye@protonmail.com
Books
DVD-R
EPIA_series
EPM
FormatRule
FrontPage
Help
HomeBakery
HomeBakery2016
InterWikiName
InterWikiSandBox
InterWikiテクニカル
K
KHBIOS/0001
KHBIOS/0002
Lojban
MenuBar
OSA/imp060524
OSC_rule
PASS3
PASS3v1
PukiWiki
RecentDeleted
SandBox
SitePolicy
WattChecker
bank
banks
blogs
blogs2
boyaki_a
boyaki_a/00001
boyaki_a/00002
boyaki_a/00003
boyaki_a/00004
boyaki_a/00005
boyaki_a/00006
boyaki_a/00007
boyaki_a/00008
boyaki_a/00009
boyaki_a/00010
boyaki_a/00011
boyaki_a/00012
boyaki_a/00013
boyaki_a/00014
boyaki_a/00015
boyaki_a/00016
boyaki_a/00017
boyaki_a/00018
boyaki_a/00019
boyaki_a/00020
boyaki_a/00021
boyaki_a/00023
boyaki_a/00024
boyaki_a/00025
boyaki_a/00026
boyaki_a/00027
boyaki_a/00028
boyaki_a/00029
boyaki_a/00030
boyaki_a/00031
boyaki_a/00032
boyaki_a/00033
boyaki_a/00034
boyaki_a/00035
boyaki_a/00036
boyaki_a/00037
boyaki_a/00038
boyaki_a/00039
boyaki_a/00040
boyaki_a/00041
boyaki_a/00042
boyaki_a/00043
boyaki_a/00044
boyaki_a/00045
boyaki_a/00046
boyaki_a/00047
boyaki_a/00048
boyaki_a/00049
boyaki_a/00050
boyaki_a/00051
boyaki_a/00052
boyaki_a/00053
boyaki_a/00054
boyaki_a/00055
boyaki_a/00056
boyaki_a/00057
boyaki_a/00058
boyaki_a/00059
boyaki_a/00060
boyaki_a/00061
boyaki_a/00062
boyaki_a/00063
boyaki_a/00064
boyaki_a/00065
boyaki_a/00066
boyaki_a/00067
boyaki_a/00068
boyaki_a/00069
boyaki_a/00070
boyaki_a/00071
boyaki_a/00072
boyaki_a/00073
boyaki_a/00074
boyaki_a/00075
boyaki_a/00076
boyaki_a/00077
boyaki_a/00078
boyaki_a/00079
boyaki_a/00080
boyaki_a/00081
boyaki_a/00082
boyaki_a/00083
boyaki_a/00084
boyaki_a/00085
boyaki_a/00086
boyaki_a/00087
boyaki_a/00088
boyaki_a/00089
boyaki_a/00090
boyaki_a/00091
boyaki_a/00092
boyaki_a/00093
boyaki_a/00094
boyaki_a/00095
boyaki_a/00096
boyaki_a/00097
boyaki_a/00098
boyaki_a/00099
boyaki_a/00100
boyaki_a/00101
boyaki_a/00102
boyaki_a/00103
boyaki_a/00104
boyaki_a/00105
boyaki_a/00106
boyaki_a/00107
boyaki_a/00108
boyaki_a/00109
boyaki_a/00110
boyaki_a/00111
boyaki_a/00112
boyaki_a/00113
boyaki_a/00114
boyaki_a/00115
boyaki_a/00116
boyaki_a/00117
boyaki_a/00118
boyaki_a/00119
boyaki_a/00120
boyaki_a/00121
boyaki_a/00122
boyaki_a/00123
boyaki_a/00124
boyaki_a/00125
boyaki_a/00126
boyaki_a/00127
boyaki_a/00128
boyaki_a/00129
boyaki_a/00130
boyaki_a/00131
boyaki_a/00132
boyaki_a/00133
boyaki_a/00134
boyaki_a/00135
boyaki_a/00136
boyaki_a/00137
boyaki_a/00138
boyaki_a/00139
boyaki_a/00140
boyaki_a/00141
boyaki_a/00142
boyaki_a/00143
boyaki_a/00144
boyaki_a/00145
boyaki_a/00146
boyaki_a/00147
boyaki_a/00148
boyaki_a/00149
boyaki_a/00150
boyaki_a/00151
boyaki_a/00152
boyaki_a/00153
boyaki_a/00154
boyaki_a/00155
boyaki_a/00156
boyaki_a/00157
boyaki_a/00158
boyaki_a/00159
boyaki_a/00160
boyaki_a/00161
boyaki_a/00162
boyaki_a/00163
boyaki_a/00164
boyaki_a/00165
boyaki_a/0022
data/Clover
data/Clover/hrb_A
data/Clover/hrb_Clover
data/Clover/mail0000
data/Clover/mail0001
data/Clover/mail0002
data/Clover/mail0003
data/Clover/mail0004
data/Clover/mail0005
data/Clover/others
dev-j/THE-BBL/nanasi
ideas
ideas/s7st
ideas/tek3
ideas/tek5
impressions
index
isolations/osw_vga
k
k_in_TOMAMI
kclib1_0000
kclib1_0001
kclib1_0002
kclib1_0003
kclib1_0004
keng
khaba/memo001
khaba/memo002
khaba/memo003
khaba/memo004
khaba/memo005
khaba/memo006
khaba/memo007
klog
klog/comment03
klog/comment04
klog/comment05
klog/essay050
klog/essay051
klog/essay052
klog/essay053
klog/essay054
klog/essay055
klog/essay056
klog/essay057
klog/essay058
klog/essay059
klog/essay060
klog/essay061
klog/essay062
klog/essay063
klog/essay064
klog/essay065
klog/essay066
klog/essay067
klog/essay068
klog/essay069
klog/essay070
klog/essay071
klog/essay072
klog/essay073
klog/essay074
klog/essay075
klog/essay076
klog/essay077
klog/essay078
klog/essay079
klog/essay080
klog/essay081
klog/essay082
klog/essay083
klog/essay084
klog/essay085
klog/essay086
klog/essay087
klog/essay088
klog/essay089
klog/essay090
klog/essay091
klog/essay092
klog/essay093
klog/essay094
klog/essay095
klog/essay096
klog/essay097
klog/essay098
klog/essay099
klog/essay100
klog/essay101
klog/essay102
klog/essay103
klog/essay104
klog/essay105
klog/essays
klog/gfghh
klog/monologue0312
klog/monologue0401
klog/monologue0402
klog/monologue0403
klog/monologue0404
klog/monologue0405
klog/monologue0406
klog/monologue0407
klog/monologue0408
klog/monologue0409
klog/monologue0410
klog/monologue0411
klog/monologue0412
klog/monologue0501
klog/monologue0502
klog/monologue0503
klog/monologue0504
klog/monologue0505
klog/monologue0506
klog/monologue0507
klog/monologue0508
klog/monologue0509
klog/monologue0510
klog/monologue0511
klog/monologue0512
klog/monologue0601
klog/monologue0602
klog/monologue0603
klog/monologue0604
klog/monologue0605
klog/monologue0606
klog/monologue0607-12
klog/old1010
klog/oldk00
krdm0000
krdm0001
krdm0002
krdm0003
links
links/pc0000
links/prog0000
links/soft0000
math
math/00
math/01
math/02
math/03
math/04
math/05
math/06
math/07
math/08
math/09
math/10
mc
memo0001
memo0002
memo0003
memo0004
memo0005
memo0006
memo0011
memo0012
memo0013
memo0014
memo0015
memo0016
memo0017
memo0018
memo0019
memo0020
memo0020/old
memo0021
memo0022
memo0023
memo0024
memo0025
memo0026
memo0027
memo0028
memo0029
memo0030
memo0031
memo0032
memo0033
memo0034
memo0035
memo0036
memo0037
memo0038
memo0039
memo0040
memo0041
memo0042
memo0043
memo0044
memo0045
memo0046
memo0047
memo0048
memo0049
memo0050
memo0051
memo007
memo008
memo009
memo010
memo_dos
memo_opera
minimemo
miniquestions
nask/guide000
nask/guide001
notice
osalinks
osask_khb/memo001
osask_khb/memo002
oversampling
p2018
p20181020
p20181021a
p20181023a
p20181024a
p20181026a
p20181026b
p20181026c
p20181102a
p20181115a
p20181127a
p20181208a
p20181214a
p20190119a
p20190122a
p20190126a
p20190129a
p20190131a
p20190201a
p20190201b
p20190206a
p20190206b
p20190208a
p20190209b
p20190213a
p20190218a
p20190225a
p20190306a
p20190513a
p20190524a
p20190528a
p20190917a
p20191006a
p20191025a
p20191030a
p20191122a
p20191125a
p20191126a
p20191226a
p20200109a
p20200221a
p20200309a
p20200315a
p20200423a
p20200513a
p20200808a
p20200821a
p20211014a
p20211017a
p20211028a
p20211223a
p20220106a
pcmemo
physics
populars
prog/01
prog/02
prop/WaseiOs
quake
quake/jsedip
quake/jsedip/data
quake/jsedip/data05
rep_20061028
rep_OSC06_niigata
sam
sdk0000
sdk0001
sdk0002
sdk0003
sdk0004
spam/hrbwiki/rule
spam/kkiwi/boyaki_a
spam/oswiki/ASKA
spam/oswiki/VGA
spam/oswiki/qemu
spam/test
spysee
test_kor
travel
urls
videochips
ヘルプ
整形ルール
練習用ページ
20212021
* KMemPoolのアルゴリズムについて -(by [[K]], 2019.12.26) ** (0) -KMemPoolは、[[K]]が2019年の夏ごろから使っている、malloc/free相当の機能を持つライブラリです。 ** (1) //-基本インタフェース //--KMemPool *KMemPool_init(KMemPool *w, KMemPool *p); //--void *KMemPool_dest(KMemPool *w, KInt force); //--void *KMemPool_alloc(KMemPool *w, KInt siz); //--KMemPool *KMemPool_free(KMemPool *w, KInt siz, void *p); //--void *KMemPool_realloc(KMemPool *w, KInt s0, KInt s1, void *p); -基本的な考え方として、KMemPoolでは、mallocと同じことをするのではなく、mallocよりもちょっとだけ情報を与える代わりに、mallocよりもずっと高速にしてやろうという考えのもとで作られています。 -mallocの処理で時間がかかっているのは、チェーンでつながった空き領域を走査して、適切なサイズを見つけてくるところです。 -またfreeの処理で時間がかかっているのは、前後の空き領域と結合させる処理です。これをやるために空き領域をアドレス順でソートして、頑張っているわけです。 -KMemPoolでは、このどちらのループも原則としてやりません。だから当然速くなります。 -まずサイズを適当に量子化します(量子化=飛び飛びの値に正規化すること)。 --8, 16, 24, 32, 40, 48, 56, 64 (ここまで8バイト刻み), 80, 96, 112, 128 (ここまで16バイト刻み), 160, 192, 224, 256 (ここまで32バイト刻み), ... -これに適合しないサイズを要求されたら、適合サイズまで切り上げて計算します。 -そして、この量子化されたサイズには小さい順に番号を付けておきます。 -任意のサイズを渡されたときに、何番目のサイズのグループに属しているのかを計算するのは、ビット演算を使うことでO(1)のオーダーで演算できます。 --厳密にはサイズ情報がNビット幅で渡されるのならO(logN)にはなっていますので、まあ最大サイズをMとしたら、O(log(logM))ってことでしょうか。 -番号が決まったら、その番号の線形リストの先頭から一つとってくるのがmallocで、その番号の線形リストの先頭に一つ付け足すのがfreeです。これらはどちらも当然O(1)なので、すごく速いです。 --当然のことながら、線形リストの要素はその空きメモリ自身を兼ねるので、線形リストを伸ばしたりちぢめたりするために、別途のmallocやfreeは必要になりません。 -唯一の例外は、malloc時にリストが空だった場合です。この場合は仕方ないので別の方法で量子化されたサイズの空き領域を確保してきて、それを渡すことになります。 -[Q]なぜサイズを量子化するのですか? -サイズを量子化しなければ、線形リストがたくさん必要になってしまいます。また似たようなサイズでも別々のリストで管理することになると、free済みのものを割り当てるという「リサイクル」がしにくくなります。そうなるとメモリが枯渇しやすくなります。 -量子化によって、たとえは本当は129バイトしか必要ではないのに、160バイトが割り当てられることになります。このときメモリの19%は無駄になります。このムダ率は最大でも20%にしかなりません。これを小さくしたければ量子化の刻みをもっと小さくすることで改善できますが、リサイクル問題も考えると、単に小さくすればいいというものでもなさそうです。もしかしたらもっと荒い刻みの方がいいかもしれません。 -[Q]これでは再結合ができませんよね?メモリが断片化してしまって使い物にならなくなるのではないですか? -それは実によい指摘です。そう、基本的にはその通りです、もし話がここまでであれば。 ** (2) -KMemPoolは、malloc時にどのプールからメモリを取ってくるかを指定しなければいけません(これが純粋なmallocとは違う、追加の情報に該当します)。freeの時は、取ってきたプールへメモリを返すことになります。 --プールは必要に応じていくつでも作れます。 -このプールという考え方は、メモリオブジェクトの寿命を反映しています。たとえばあるメモリ構造(たとえば二分木)があった時に、そのメモリ構造を構成するメモリは全て一つのプールから取ってくることにします。こうすれば、そのメモリ構造全体を解放した時には、そのプールに属するメモリは全て返されるということになります。 -一方、プールは結構大きな単位(たとえば1MBとか)でメモリを確保して(デフォルトのmallocなどを使って)、それを切り分けて線形リストに充てんしていきます。大きな単位で確保した記録も取っておきます。 -プールに属するメモリをすべて返した時点で(=オブジェクト構造を解放した時点で)、アプリはKMemPoolをデストラクトするので、KMemPoolは大きな単位で取ってきていたメモリを全部システムへ返します(デフォルトのfreeなどを使って)。 -こうして、断片化したメモリはきれいにつながってシステムに返されることになるのです。 -[Q]プールごとに、量子化された空きメモリを管理するための線形リストがある(=線形リストが100個以上ある)のですか? -はいそうです。 -[Q]なんかそれはちょっと無駄っぽくないですか? -無駄かもしれませんが、仮に100個だとしても、800バイトですよね(ポインタが64bitだとして)。それでアルゴリズムがシンプルになり、高速化もできるのなら、私は許容できます。 -[Q]たとえば二分木をプログラムで扱っているとき、ノードやリーフを増やしたくなったら、メモリ確保が必要になりますよね?その時にどのプールから取ってくればいいのかなんて、どうやって知るんですか? -二分木の中に、どのプールを使うかの情報も含めておくのです。そうすれば間違いはないです。 ** (3) -デバッグ効率などを考えると、プールにすべてのメモリが返されたわけでもないのに、間違ってデストラクタを呼び出してしまった場合にエラー終了できるとより良いかもしれません。 -そのためには、プールごとに割り当て済みのメモリブロック数をカウントしておくといいでしょう。これが0になっていないときにデストラクタが呼ばれたら、エラー終了すればいいわけです。 ** (4) -私が使っているKMemPoolは、メモリ利用効率を徹底して追及するために、メモリブロックのサイズやどこのメモリプールに属しているかなどの情報を、メモリオブジェクトのヘッダに含めていません。だからfree時に指定しなければいけません。これは便利ではないので、もしそれらをメモリオブジェクトのヘッダに含めるのなら、それも有意義だと思います。 -さらに、freeした際にメモリブロックのサイズを-1などのあり得ない値に改変するようにしておくと、double-freeのバグを容易に検出できるようになるでしょう。 -ちなみになぜメモリブロックのサイズやメモリプールへのポインタをメモリブロックに格納しなかったのかですが、結局のところfreeするプログラムはmallocするプログラムと同じレイヤに属している場合がほとんどで、これらの情報をすべて持っていることがとても多いのです。だから困ることは時々しかなく、困った場合は、自前でメモリオブジェクトの中にsizeフィールドやmempoolフィールドを持たせるだけで簡単に解決できています。 ** (5) -アイデアのきっかけについて。 -もともとは、メモリのフラグメンテーションをどうするかを考えていました。たとえば、 for (i = 0; i < 10000000; i++) p[i] = malloc(100); -みたいなループを回した後に、p[i]の偶数番号だけfreeしたらどうなるでしょうか。そりゃ断片化しまくりですよね。 -これを救済するには、使っている番号だけq[i]にmallocし直してコピーして、その後にp[i]を全部freeとかすれば良さそうなものですが、それでもq[i]がp[i]の中に混ざりそうで、結局アプリ側ではほとんど何も解決できないなと思ったのです。 -この状況は標準のmallocとfreeだけではどうしようもないのです。これ以降のmallocでは別のところから取ってくれとか、何かそういう伝達手段がなければだめだと思いました(註1)。 -もちろん、そもそも断片化なんか気にするまでもないという態度をとることも可能です。でも断片化が進むと、空きメモリは十分にあるのに、メモリ不足やスワップファイルの巨大化やメモリ空間不足に陥る危険があるのです。 -しかもメモリは連続しているほうがキャッシュ利用効率が良くなります。 -別のケースとしては、この「清書作業」をやる前に、別の作業をしてしまって、freeした偶数番のp[i]の中が違うオブジェクトの一部として使われてしまったというのはどうでしょうか。そうなったら、もはやその後でp[i]の清書作業をしても、まとまった領域を解放することができません。本来はまとめられたかもしれないのに。 -この辺りの思考実験を出発点として、KMemPoolのアルゴリズムを作るに至りました。 -(註1)もちろん、t = malloc(100 * 5000000)して、ここに奇数番号の内容をコピーしておいて、p[i]を全部freeしたのちに、q[i]を必要なだけmallocして、そしてtからq[i]にコピーして、最後にtをfreeすれば、とりあえず目的は達成できます。しかしこれはメモリコピーの回数が倍増して時間がかかるうえに、本来は連続した領域が必ずしも必要ではないのに、100*5000000の連続領域を(一時的にとはいえ)必要としてしまっているのです。・・・やりたかったことはこれなのだろうかと、私は思うわけです。 * こめんと欄 #comment
タイムスタンプを変更しない
* KMemPoolのアルゴリズムについて -(by [[K]], 2019.12.26) ** (0) -KMemPoolは、[[K]]が2019年の夏ごろから使っている、malloc/free相当の機能を持つライブラリです。 ** (1) //-基本インタフェース //--KMemPool *KMemPool_init(KMemPool *w, KMemPool *p); //--void *KMemPool_dest(KMemPool *w, KInt force); //--void *KMemPool_alloc(KMemPool *w, KInt siz); //--KMemPool *KMemPool_free(KMemPool *w, KInt siz, void *p); //--void *KMemPool_realloc(KMemPool *w, KInt s0, KInt s1, void *p); -基本的な考え方として、KMemPoolでは、mallocと同じことをするのではなく、mallocよりもちょっとだけ情報を与える代わりに、mallocよりもずっと高速にしてやろうという考えのもとで作られています。 -mallocの処理で時間がかかっているのは、チェーンでつながった空き領域を走査して、適切なサイズを見つけてくるところです。 -またfreeの処理で時間がかかっているのは、前後の空き領域と結合させる処理です。これをやるために空き領域をアドレス順でソートして、頑張っているわけです。 -KMemPoolでは、このどちらのループも原則としてやりません。だから当然速くなります。 -まずサイズを適当に量子化します(量子化=飛び飛びの値に正規化すること)。 --8, 16, 24, 32, 40, 48, 56, 64 (ここまで8バイト刻み), 80, 96, 112, 128 (ここまで16バイト刻み), 160, 192, 224, 256 (ここまで32バイト刻み), ... -これに適合しないサイズを要求されたら、適合サイズまで切り上げて計算します。 -そして、この量子化されたサイズには小さい順に番号を付けておきます。 -任意のサイズを渡されたときに、何番目のサイズのグループに属しているのかを計算するのは、ビット演算を使うことでO(1)のオーダーで演算できます。 --厳密にはサイズ情報がNビット幅で渡されるのならO(logN)にはなっていますので、まあ最大サイズをMとしたら、O(log(logM))ってことでしょうか。 -番号が決まったら、その番号の線形リストの先頭から一つとってくるのがmallocで、その番号の線形リストの先頭に一つ付け足すのがfreeです。これらはどちらも当然O(1)なので、すごく速いです。 --当然のことながら、線形リストの要素はその空きメモリ自身を兼ねるので、線形リストを伸ばしたりちぢめたりするために、別途のmallocやfreeは必要になりません。 -唯一の例外は、malloc時にリストが空だった場合です。この場合は仕方ないので別の方法で量子化されたサイズの空き領域を確保してきて、それを渡すことになります。 -[Q]なぜサイズを量子化するのですか? -サイズを量子化しなければ、線形リストがたくさん必要になってしまいます。また似たようなサイズでも別々のリストで管理することになると、free済みのものを割り当てるという「リサイクル」がしにくくなります。そうなるとメモリが枯渇しやすくなります。 -量子化によって、たとえは本当は129バイトしか必要ではないのに、160バイトが割り当てられることになります。このときメモリの19%は無駄になります。このムダ率は最大でも20%にしかなりません。これを小さくしたければ量子化の刻みをもっと小さくすることで改善できますが、リサイクル問題も考えると、単に小さくすればいいというものでもなさそうです。もしかしたらもっと荒い刻みの方がいいかもしれません。 -[Q]これでは再結合ができませんよね?メモリが断片化してしまって使い物にならなくなるのではないですか? -それは実によい指摘です。そう、基本的にはその通りです、もし話がここまでであれば。 ** (2) -KMemPoolは、malloc時にどのプールからメモリを取ってくるかを指定しなければいけません(これが純粋なmallocとは違う、追加の情報に該当します)。freeの時は、取ってきたプールへメモリを返すことになります。 --プールは必要に応じていくつでも作れます。 -このプールという考え方は、メモリオブジェクトの寿命を反映しています。たとえばあるメモリ構造(たとえば二分木)があった時に、そのメモリ構造を構成するメモリは全て一つのプールから取ってくることにします。こうすれば、そのメモリ構造全体を解放した時には、そのプールに属するメモリは全て返されるということになります。 -一方、プールは結構大きな単位(たとえば1MBとか)でメモリを確保して(デフォルトのmallocなどを使って)、それを切り分けて線形リストに充てんしていきます。大きな単位で確保した記録も取っておきます。 -プールに属するメモリをすべて返した時点で(=オブジェクト構造を解放した時点で)、アプリはKMemPoolをデストラクトするので、KMemPoolは大きな単位で取ってきていたメモリを全部システムへ返します(デフォルトのfreeなどを使って)。 -こうして、断片化したメモリはきれいにつながってシステムに返されることになるのです。 -[Q]プールごとに、量子化された空きメモリを管理するための線形リストがある(=線形リストが100個以上ある)のですか? -はいそうです。 -[Q]なんかそれはちょっと無駄っぽくないですか? -無駄かもしれませんが、仮に100個だとしても、800バイトですよね(ポインタが64bitだとして)。それでアルゴリズムがシンプルになり、高速化もできるのなら、私は許容できます。 -[Q]たとえば二分木をプログラムで扱っているとき、ノードやリーフを増やしたくなったら、メモリ確保が必要になりますよね?その時にどのプールから取ってくればいいのかなんて、どうやって知るんですか? -二分木の中に、どのプールを使うかの情報も含めておくのです。そうすれば間違いはないです。 ** (3) -デバッグ効率などを考えると、プールにすべてのメモリが返されたわけでもないのに、間違ってデストラクタを呼び出してしまった場合にエラー終了できるとより良いかもしれません。 -そのためには、プールごとに割り当て済みのメモリブロック数をカウントしておくといいでしょう。これが0になっていないときにデストラクタが呼ばれたら、エラー終了すればいいわけです。 ** (4) -私が使っているKMemPoolは、メモリ利用効率を徹底して追及するために、メモリブロックのサイズやどこのメモリプールに属しているかなどの情報を、メモリオブジェクトのヘッダに含めていません。だからfree時に指定しなければいけません。これは便利ではないので、もしそれらをメモリオブジェクトのヘッダに含めるのなら、それも有意義だと思います。 -さらに、freeした際にメモリブロックのサイズを-1などのあり得ない値に改変するようにしておくと、double-freeのバグを容易に検出できるようになるでしょう。 -ちなみになぜメモリブロックのサイズやメモリプールへのポインタをメモリブロックに格納しなかったのかですが、結局のところfreeするプログラムはmallocするプログラムと同じレイヤに属している場合がほとんどで、これらの情報をすべて持っていることがとても多いのです。だから困ることは時々しかなく、困った場合は、自前でメモリオブジェクトの中にsizeフィールドやmempoolフィールドを持たせるだけで簡単に解決できています。 ** (5) -アイデアのきっかけについて。 -もともとは、メモリのフラグメンテーションをどうするかを考えていました。たとえば、 for (i = 0; i < 10000000; i++) p[i] = malloc(100); -みたいなループを回した後に、p[i]の偶数番号だけfreeしたらどうなるでしょうか。そりゃ断片化しまくりですよね。 -これを救済するには、使っている番号だけq[i]にmallocし直してコピーして、その後にp[i]を全部freeとかすれば良さそうなものですが、それでもq[i]がp[i]の中に混ざりそうで、結局アプリ側ではほとんど何も解決できないなと思ったのです。 -この状況は標準のmallocとfreeだけではどうしようもないのです。これ以降のmallocでは別のところから取ってくれとか、何かそういう伝達手段がなければだめだと思いました(註1)。 -もちろん、そもそも断片化なんか気にするまでもないという態度をとることも可能です。でも断片化が進むと、空きメモリは十分にあるのに、メモリ不足やスワップファイルの巨大化やメモリ空間不足に陥る危険があるのです。 -しかもメモリは連続しているほうがキャッシュ利用効率が良くなります。 -別のケースとしては、この「清書作業」をやる前に、別の作業をしてしまって、freeした偶数番のp[i]の中が違うオブジェクトの一部として使われてしまったというのはどうでしょうか。そうなったら、もはやその後でp[i]の清書作業をしても、まとまった領域を解放することができません。本来はまとめられたかもしれないのに。 -この辺りの思考実験を出発点として、KMemPoolのアルゴリズムを作るに至りました。 -(註1)もちろん、t = malloc(100 * 5000000)して、ここに奇数番号の内容をコピーしておいて、p[i]を全部freeしたのちに、q[i]を必要なだけmallocして、そしてtからq[i]にコピーして、最後にtをfreeすれば、とりあえず目的は達成できます。しかしこれはメモリコピーの回数が倍増して時間がかかるうえに、本来は連続した領域が必ずしも必要ではないのに、100*5000000の連続領域を(一時的にとはいえ)必要としてしまっているのです。・・・やりたかったことはこれなのだろうかと、私は思うわけです。 * こめんと欄 #comment
テキスト整形のルールを表示する