slide1
Download
Skip this Video
Download Presentation
知能ロボット

Loading in 2 Seconds...

play fullscreen
1 / 17

知能ロボット - PowerPoint PPT Presentation


  • 144 Views
  • Uploaded on

知能ロボット. 2012 年度後期 第12回. ニューロコンピューティング. 脳 の情報処理機能の いくつかの 性質 を計算機上の シミュレーションによって表現する数学モデル. 最近は脳神経科学の進歩により,数学モデルの相違が明らかになってきたので, ANN(Artificial Neural Network) と言うことも多い. パーセプトロン. 形式ニューロン: 神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって 考案された. x 1. x 2. x は 0 ~ 1 の入力信号 w は重み係数

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' 知能ロボット' - ziv


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
slide1

知能ロボット

2012年度後期

第12回

slide2
ニューロコンピューティング

脳の情報処理機能のいくつかの性質を計算機上の

シミュレーションによって表現する数学モデル

最近は脳神経科学の進歩により,数学モデルの相違が明らかになってきたので,ANN(Artificial Neural Network) と言うことも多い

slide3
パーセプトロン

形式ニューロン:

神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって考案された

x1

x2

xは0 ~ 1 の入力信号

wは重み係数

h :閾値

H:ヘヴィサイド型関数

出力

xN

slide4
単純パーセプトロン

入力層と出力層の2層のみのネットワーク

線形非分離な問題は解けないことがマービン・ミンスキーらによって証明された

a1

w11

x1

S1

a2

R1

V1

w22

S2

x2

a3

出力

SN

VM

xN

aM

wNM

R層

S層

A層

slide5
単純パーセプトロンの学習

荷重 Vi (i=1,2, … , M)

しきい値 θiの修正

(入力パターンS,教師信号)

単純パーセプトロンによる処理

Ri の出力値=教師信号

?

(YES)

(NO)

slide6
知識構造

ニューロンモデル間の結合パターンを変化させることを

「知識構造が変化する」と言い,荷重の値を変化させる

ことと等価である.

a1

w11

x1

S1

a2

R1

V1

w22

S2

x2

a3

出力

SN

VM

xN

aM

wNM

R層

S層

A層

slide7
ヘブの学習則

ニューロン i がニューロン jから入力信号を受け取るとして,もし,ニューロン iもニューロンjも共にその活性度

(ai, aj) が高いならば,重み wijを大きくする.

ニューロン j

ニューロン i

aj

ai

wij

出力

ti(教師信号)

ヘブの学習則の一般形

widrow hoff
デルタ則(Widrow-Hoff 学習則)

ニューロン j

ニューロン i

aj

ai

wij

出力

ti(教師信号)

デルタ則

slide10
デルタ則の意味

ある入力パターンベクトル IP (P=1,2,…, K:パターンの数)における出力層からの誤差として次式を定義する.

したがって,パターン全体の誤差は次式で与えられる.

デルタ則の適用とは,Opjを様々に変化させて全体の誤差Eの最小値を求める最急降下法を実装したものと等価である.

slide11
多層パーセプトロン

バックプロパゲーション手法(逆誤差伝播法)によって学習することができる

slide12
バックプロパゲーション学習

1.ニューラルネットワークに学習のためのサンプルを与える

2.ネットワークの出力とそのサンプルの最適解を比較し,各出力ニューロンについて誤差を計算する

3.個々のニューロンの期待される出力値と倍率,要求された出力と実際の出力の差(局所誤差)を計算する

4.各ニューロンの重みを局所誤差が小さくなるよう調整する

5.より大きな重みで接続された前段のニューロンに対して,局所誤差の責任があると判定する

6.前段のニューロンのさらに前段のニューロン群について同様の処理を行う。

slide13
その他のANN

●RBFを用いたANN(Radial Basis Function Network)

●自己組織化写像(Self Organizing Map)

●リカレントニューラルネットワーク(Recurrent NN)

●スパイキングニューロンネットワーク

●ボルツマンマシン

●ベイジアンネットワーク

slide14
最急降下法

与えられた評価指標(評価関数)を最適(最大・最小)とするようなパラメータを求める.

パラメータを aとして,評価関数を次のようなものとする.

f(a)

最急降下法のパラメータ更新則

dynamic programming
動的計画法(Dynamic Programming)

10

15

GOAL

15

10

20

10

20

10

20

20

10

15

15

10

15

30

10

START

START から GOAL までの最適な経路を求めよ.

dynamic programming1
動的計画法(Dynamic Programming)

Richard E. Bellman が考案した最適化手法

現在の状況から推定される,ある戦略を採用して行動することにより得られるであろう,今後(未来)の報酬(評価指標)の期待値が最適となるように逐次的に戦略を行うことで大域的に最適な解が得られる.

非線形な偏微分方程式 Bellman 方程式を解く.

力学系に対応させた方程式として

Hamilton Jacobi Bellman 方程式もある.

reinforcement learning
強化学習(Reinforcement Learning)
  • ある環境内におけるエージェントが,現在の状態を観測し,「適切な行動」を決定する問題を扱う
  • 動的計画法に似たアルゴリズム
  • 大きく分けて,次のような手法がよく知られている.
  • TD学習則
  • Q学習則
ad