Fri, 20 Feb 2009

今日の仕事

  • テスト書き

今日のこと

  • 高校数学を余りに忘れていて危機感

今日の本

  • わかりやすいパターン認識 第2章
    • learning|training|designing pattern: 識別部設計に利用するパターンの集まり
    • minimum distance method: 1クラス1プロトタイプのNN-rule
    • discriminant function: 識別関数。この値を最大とするクラスに属すると識別する
    • linear discriminant function: 線形識別関数。g(\bf{x}) = \bf{w}^t\bf{x} となる識別関数*1
    • weight coefficient: w0, w1, ..., wd
    • weight vector: \left(\large\begin{array} w_1\\ ... \\ w_d \end{array}\right)
    • augmented feature vector: 拡張特徴ベクトル。linear discriminant functionのxのこと(x0を含んだ物)
    • augmented weight vector: 拡張重みベクトル。linear discriminant functionのwのこと(w0を含んだ物)
    • perceptron: 線形和の最大値選択によって識別を行う識別系
    • learning pattern Xが線形分離可能 ⇔ \exists w_1, ... w_c \forall i (0 \le i \le c) \forall x \in X_i \forall j (i \ne j) g_i(x) > g_j(x)
    • weight space: augmented weight vector(w)が張るd+1次元の空間
    • solution region: 線形分離可能な場合、\exists wはlearning pattern x \in X によるweight space上の平面w^tx=0によって分断されるどちらかの空間にあるが、その解が存在する側

*1:xとwはd+1次元のベクトルでx0 = 1。t() は転値。