1 / 17

知能ロボット

知能ロボット. 2012 年度後期 第12回. ニューロコンピューティング. 脳 の情報処理機能の いくつかの 性質 を計算機上の シミュレーションによって表現する数学モデル. 最近は脳神経科学の進歩により,数学モデルの相違が明らかになってきたので, ANN(Artificial Neural Network) と言うことも多い. パーセプトロン. 形式ニューロン: 神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって 考案された. x 1. x 2. x は 0 ~ 1 の入力信号 w は重み係数

ziv
Download Presentation

知能ロボット

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 知能ロボット 2012年度後期 第12回

  2. ニューロコンピューティング 脳の情報処理機能のいくつかの性質を計算機上の シミュレーションによって表現する数学モデル 最近は脳神経科学の進歩により,数学モデルの相違が明らかになってきたので,ANN(Artificial Neural Network) と言うことも多い

  3. パーセプトロン 形式ニューロン: 神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって考案された x1 x2 xは0 ~ 1 の入力信号 wは重み係数 h :閾値 H:ヘヴィサイド型関数 出力 xN

  4. 単純パーセプトロン 入力層と出力層の2層のみのネットワーク 線形非分離な問題は解けないことがマービン・ミンスキーらによって証明された a1 w11 x1 S1 a2 R1 V1 w22 S2 x2 a3 出力 SN VM xN aM wNM R層 S層 A層

  5. 単純パーセプトロンの学習 荷重 Vi (i=1,2, … , M) しきい値 θiの修正 (入力パターンS,教師信号) 単純パーセプトロンによる処理 Ri の出力値=教師信号 ? (YES) (NO)

  6. 知識構造 ニューロンモデル間の結合パターンを変化させることを 「知識構造が変化する」と言い,荷重の値を変化させる ことと等価である. a1 w11 x1 S1 a2 R1 V1 w22 S2 x2 a3 出力 SN VM xN aM wNM R層 S層 A層

  7. ヘブの学習則 ニューロン i がニューロン jから入力信号を受け取るとして,もし,ニューロン iもニューロンjも共にその活性度 (ai, aj) が高いならば,重み wijを大きくする. ニューロン j ニューロン i aj ai wij 出力 ti(教師信号) ヘブの学習則の一般形

  8. 今回の話

  9. デルタ則(Widrow-Hoff 学習則) ニューロン j ニューロン i aj ai wij 出力 ti(教師信号) デルタ則

  10. デルタ則の意味 ある入力パターンベクトル IP (P=1,2,…, K:パターンの数)における出力層からの誤差として次式を定義する. したがって,パターン全体の誤差は次式で与えられる. デルタ則の適用とは,Opjを様々に変化させて全体の誤差Eの最小値を求める最急降下法を実装したものと等価である.

  11. 多層パーセプトロン バックプロパゲーション手法(逆誤差伝播法)によって学習することができる

  12. バックプロパゲーション学習 1.ニューラルネットワークに学習のためのサンプルを与える 2.ネットワークの出力とそのサンプルの最適解を比較し,各出力ニューロンについて誤差を計算する 3.個々のニューロンの期待される出力値と倍率,要求された出力と実際の出力の差(局所誤差)を計算する 4.各ニューロンの重みを局所誤差が小さくなるよう調整する 5.より大きな重みで接続された前段のニューロンに対して,局所誤差の責任があると判定する 6.前段のニューロンのさらに前段のニューロン群について同様の処理を行う。

  13. その他のANN ●RBFを用いたANN(Radial Basis Function Network) ●自己組織化写像(Self Organizing Map) ●リカレントニューラルネットワーク(Recurrent NN) ●スパイキングニューロンネットワーク ●ボルツマンマシン ●ベイジアンネットワーク

  14. 最急降下法 与えられた評価指標(評価関数)を最適(最大・最小)とするようなパラメータを求める. パラメータを aとして,評価関数を次のようなものとする. f(a) 最急降下法のパラメータ更新則

  15. 動的計画法(Dynamic Programming) 10 15 GOAL 15 10 20 10 20 10 20 20 10 15 15 10 15 30 10 START START から GOAL までの最適な経路を求めよ.

  16. 動的計画法(Dynamic Programming) Richard E. Bellman が考案した最適化手法 現在の状況から推定される,ある戦略を採用して行動することにより得られるであろう,今後(未来)の報酬(評価指標)の期待値が最適となるように逐次的に戦略を行うことで大域的に最適な解が得られる. 非線形な偏微分方程式 Bellman 方程式を解く. 力学系に対応させた方程式として Hamilton Jacobi Bellman 方程式もある.

  17. 強化学習(Reinforcement Learning) • ある環境内におけるエージェントが,現在の状態を観測し,「適切な行動」を決定する問題を扱う • 動的計画法に似たアルゴリズム • 大きく分けて,次のような手法がよく知られている. • TD学習則 • Q学習則

More Related