White scenery @showyou, hatena

If you have any comments, you may also send twitter @shsub or @showyou.

PRML

メンバー
syou6162,.a.u,laughing,wilson,showyou
範囲
P225「5.ニューラルネットワーク」〜P240「5.2.2 局所二次近似」

ログ

感想

プログラムや図で書いたときはもっと楽なもんなのに、数式の方が却って難しく感じるよなぁ。

プログラムなら、

for(j=0;j<hiddenUnitSize;++j){
    tmpH[j] = 0;

    for(i=0;i<inputUnitSize;++i){
        tmpH[j] += w_i2h[i] * x[i];
    }
    h[j] = f(tmpH[j])l
}

for(k=0;k<outUnitSize;++k){
    tmpY[k] = 0;

    for(j=0;j<hiddenUnitSize;++j){
        tmpY[k] += w_h2o[j] * h[j];
    }
    y[k] = g(tmpY[k]);
}

とかで行けそうなのに。

追記

http://d.hatena.ne.jp/syou6162/20081218/1229611962 にて、対象性がわからないとの事なので図を交えて紹介。


例えば、この図1のような条件で、簡単なニューラルネットワークを考えてみる。そしてyを満たすような重みを考えると、図2のような重みをつければ成り立つことがわかる。


一方で図3のように、h1にかかる重みとh2にかかる重みを"全てとっかえても"成り立ってしまう。これはh1,h2の間で制約が無いから当然なんだけど。



今回は隠れ層1で入力2次元,出力1次元の簡単なやつだけど、隠れ層がj個とかあったとしてもこの入れ替えは成り立つ。だから答えの種類は入れ替えできる分だけ減るよ。順列じゃなくて組み合わせの問題だよ、って話。