White scenery @showyou, hatena

If you have any comments, you may also send twitter @shsub or @showyou.

PRML勉強会

メンバー
.a.u,laughing,wilson,showyou
範囲
P213「4.3.7 反復再重み付け最小二乗」〜4章終わりまで

ログ

  • P213
  • f(z)は既知?
  • テイラー展開
  • 図4.14
    • 点線派(本によって点線/実践違う模様)
  • ラプラス近似の限界
  • 鞍点ってなんでしょう?
    • 書いて説明できない・・・
  • ラプラス法を適用する為には真の分布の正規化関数Zを知る必要は無い
  • ↑これって事後分布の比例項(f(x))さえ分かればモードがとれるから,でいいんですかね?
  • 1次項は傾き0だから
  • ラプラス近似=モードの近似。全体の特性はとらえられない
  • 逆数になるのは当たり前
  • モデルエビデンス P160 p(D | Mi)
  • オッカム係数
  • ヘッセ行列が非退化→簡単になる?>ヘッシアンがゼロでない停留点は非退化である
  • ということは,p(\theta_MAP) * 2\pi / |A| → N ?
  • AICって出てきましたっけ
  • BICAICよりペナルティが強い. 1/2 M ln N >2M (N>>M)
  • well-determinedってなんでしたっけ
    • p169
  • P217,(4.142) いきなり式がぶっ飛んできた
  • ロジスティック回帰は2クラス分類? t_n \in {0, 1}って書いてますね

データ n に対するラベルが0か1なのでは

    • p.204最後の行をみると.2クラス分類問題ぽいですね→(4.142)
  • ln p(w|t) = ln p(w) + ln p(t|w) = (4.140) + (4.90)
  • (4.146)難しいです
  • 新たな特徴ベクトル=テストデータ?
  • p(w|t) = q(w)は学習済み?
  • aで積分してる・・・
  • (4.16)は,aを入れてシグモイドを定義しているだけ?
  • p(a)を評価することが出来る..?
  • q(w)は対照だから平均をとると,w_MAP?
  • q(w)w ← 期待値
  • ∮q(w)w^Tφdw = 1* wMap^T *φ なのかなあ
  • 4.150 1行目→2行目
    • 2行目→3行目は厳しい.
  • 変分近似ってなんですか?4.151式がそうらしいんですけども
  • p(a)にN(a|μa,σa^2)daを入れてるだけにも見えるけど・・
  • 演習4.25
  • 同4.26
  • 横軸のスケールってどれのことなんでしょう。プロビット関数あたりを説明してる4.13の横軸だとaっぽいんですけど
  • 河童 wで周辺化のくだりは,4.145からずっとですかね
  • 霧がいいところで.次回「ニューラルネットワーク」こうご期待

感想

割とわからないとこが多い。むむむ。