Multi Layer Perceptron(MLP)
MLPのアルゴリズム概略
Back propagation of error(誤差逆伝搬)により重みを学習。出力値とターゲット値の誤差を最少にする重みを求めるため、gradient descent(最急降下法、勾配法)という計算手法が使われる。
- 入力ベクトルを入力層の各ノードへ入力
- 入力がネットワークをForwardに伝搬
- 入力と入力層と隠れ層間の重みの積を、隠れ層の各ノードに入力。
- 活性化関数(Activation Function)にはシグモイド関数が使われる
- 隠れ層のノードの出力と隠れ層と出力層間の重みの積を、出力層の各ノードに入力。活性化関数により最終出力値が出力される。
- 入力と入力層と隠れ層間の重みの積を、隠れ層の各ノードに入力。
- 出力値とターゲット値の誤差を計算
- 誤差がネットワークをBackwardに伝搬
- 最初に隠れ層、次に入力層の重みが更新される