はじめに
持橋大地・鈴木大慈 監訳「確率的機械学習 入門編I」は,世界的に評価の高いK.P.Murphy著 "Probabilistic Machine Learning (Book1)" の和訳であり,確率モデルに基づく機械学習,深層学習といった基礎が丁寧に整理されている。私は統計検定1級として数理統計の基礎は学んできたが,機械学習・深層学習は実務に応じて場当たり的に学んできた。実務での応用に向けて,機械学習・深層学習の基礎を体系的に学び,チームの技術力を底上げしたいと考えている。また読書メモに自身の理解をまとめることで,製造業に携わる若いエンジニアにとっても有益な知識を還元できればと考えている。
※なおボリュームが多い本なので,知っているところは端折りながら読み進めたい。
4.6 ベイズ統計学
4.6.6 信用区間
中央区間
本項では,推定の不確実性を定量化するための考え方である信用区間(credible interval)を説明している。
%信用区間とは,連続な区間
(下限と上限)であって,事後分布の質量のうち
の割合を含むものである。
これを満たす区間は多数存在しうるので,通常は両側の裾にの割合で質量をもつものを選び,これは中央区間と呼ばれる。
事後分布の関数形が既知であり,累積分布関数の逆関数gが分かっている場合,
および
である。
ただしこの逆関数は一般には求めるのが難しい場合がある。この場合,モンテカルロ近似などで近似する方法がある。
中央区間の問題点は,分布が左右非対称のときに,確率密度が大きい領域が含まれなくなることがある点である。
下図は,中央区間を表している。この分布は右側の裾が長いため,左端の確率密度が高い領域が中央区間に含まれなくなってしまう,すなわち確率密度の値が大きいのに信用区間から外れてしまう領域が出現することである。

4.6.8 計算上の問題
事後分布の計算は,一般に困難なことが多い。本項では,近似事後分布推論(approximate posterior inference)の方法を説明している。
格子点近似
事後分布推論を近似するための最も単純なアプローチは,未知量が取り得る値の空間を有限の候補
で集合に分割し,総当たりで事後分布を近似する方法である。
しかしこの方法は,パラメータの次元数に対して指数的に候補が増加してしまうため,2,3次元以上になる場合は使うことができない。
まとめと感想
今回は,「4 統計学」のベイズ統計学における,信用区間,ベイズ的機械学習,事後分布の近似についてまとめた。
信用区間は,推定されたパラメータの不確実性を評価するための方法であるが,中央区間・最大事後密度領域の特徴について把握することができた。
ベイズ統計を用いると,推定されたパラメータの分布を評価することができるが,実務上は得られる事後分布が対称な形になっている保証がないので,最大事後密度領域を用いる方が妥当だと感じた。
プラグイン近似は,実務ではよく用いる方法であるが,過剰適合の可能性があるとのことである。その対策としてモンテカルロ近似が紹介されていたが,計算自体も比較的容易なので,実務でも試してみたい。
ラプラス近似は,複雑な事後分布を多変量ガウス分布で近似するという方法であるが,多変量ガウス分布であれば扱いやすいうえに理解もしやすいので,実務上も有用だと感じた。
本記事を最後まで読んでくださり,どうもありがとうございました。
参考サイト
- 確率的機械学習:入門編 I |朝倉書店
- 『確率的機械学習:入門編』サポートサイト
- 原著関連
- Probabilistic Machine Learning: An Introduction : 原著のサポートページ
- pyprobml/notebooks.md at auto_notebooks_md · probml/pyprobml · GitHub : 原著の図作成用Notebooks一覧

