Sat, 21 Feb 2009

今日のこと

今日の本

  • わかりやすいパターン認識 第2章
    • perceptron learning rule: 誤識別の場合に、xに沿ってwを動かして誤差を修正する*1
    • perceptron convergence theorem: perceptron learning ruleにより、augmented weight vectorは有限回で解領域に達する
    • Φ function: 線形結合で表される関数。Φ functionではperceptron convergence theorem が成立する
    • fixed increment rule: perceptron learning ruleにおいて、重みρを固定にしていること。ρを可変にすると、解領域への到達は保証されなくなる
    • error-correction method: perceptron learning rule のように誤識別に対してだけ重み修正を行う方法
    • 重みの変更による学習は、NN-ruleでプロトタイプを動かすことと同義
    • voronoi diagram: プロトタイプがカバーする領域を図示したもの
    • piecewise linear discriminant function: プロトタイプを各クラス当たり複数に増やしたもの。subsidiary discriminant functionのmax値になる。Φ functionではないのでperceptron learning ruleは使えない*2
    • subsidiary discriminant function: piecewise linear discriminant functionを構成する各linear discriminant function
    • 本書で扱うのは、feedforward型のmulti-layer neural network
    • neural network と piecewise linear discriminant function は∞の極限において等価
    • neural networkで特筆すべきは識別能力ではなく、誤差伝搬法の学習能力である*3

*1:xはw^tx=0の平面の法線となる

*2:max()なので線形じゃない

*3:これは勘違いしやすそう。重要。