190 likes | 266 Views
3.1. A (1)~(4). 4402040 土金礼次郎. (1)意味ネットワーク. 機械翻訳や自然言語処理の分野 文や会話の意味内容をコンピュータが取り扱いやすいように表現しなおす. 文や言葉が持つ意味のモデリング ‘知識表現’と呼ばれる. 知識表現の一つにグラフを用いた意味ネットワークがある。. 例文で説明する. (ア) 『 彼女はユタカが芦毛の馬に乗るのを 見る 』 を例文とすれば、 (イ) 『 馬の毛は芦毛 』 (ウ) 『 ユタカは(イ)の馬に乗る 』 (エ) 『 彼女は(ウ)を見る 』 の基本的な3つの 命題 から構成される。.
E N D
3.1.A (1)~(4) 4402040 土金礼次郎
(1)意味ネットワーク 機械翻訳や自然言語処理の分野 文や会話の意味内容をコンピュータが取り扱いやすいように表現しなおす • 文や言葉が持つ意味のモデリング • ‘知識表現’と呼ばれる 知識表現の一つにグラフを用いた意味ネットワークがある。
例文で説明する (ア)『彼女はユタカが芦毛の馬に乗るのを 見る』 を例文とすれば、 (イ)『馬の毛は芦毛』 (ウ)『ユタカは(イ)の馬に乗る』 (エ)『彼女は(ウ)を見る』 の基本的な3つの命題から構成される。
命題の分析 • 命題を「実体」,実体の「性質」,実体間の「関係」の3つで表現する。 • 例文(ア)では「実体」 ・・・ 「彼女」、「ユタカ」、「馬」「性質」 ・・・ 「芦毛」「関係」 ・・・ 「乗る」、「見る」 となっている。
図の書き方のポイント • 関係はある行為の述部になっている。 • 述部によって結合つけられる各実体を項という。 性質も述部として取り扱う。 一つの命題が項になることもある。 実体・性質・関係をノードでノード間の結合関係をアーク(リンク)で表現したグラフを意味ネットワークと呼ぶ。
意味ネットワークの図式化 図3.1 意味ネットワークとリスト
(2)リスト • 情報プログラミングは一般にデータ構造とアルゴリズムとの両方を考慮して行われる。 • データ構造とはプログラム上での処理対象の表現形式を言う。 • データ構造をコンピュータのメモリに記憶させる形式を記憶構造という
データ構造の表示 • モデルがグラフで表現される場合,そのデータ構造として関係表示行列などの配列がある。 →しかし,配列は大きなグラフになると効率的でなくなる。 一つの属性とそれに対応付けられた属性値との組をフィールドと呼び、複数のフィールドが1次元的に並んだデータ構造を線形リストと呼ぶ。
リストの記憶構造① • リストに対する記憶構造として,単位節を用いる方法がある。 • 単位節は識別符,頭部,尾部の3つのフィールドからなる。 • 単位節の頭部にはレコードまたはその単位節に接続する。ほかの単位節の格納アドレスを示すポインタが入る。 • 識別符は頭部の情報がレコードであるかポインタであるかを表す。
リストの記憶構造② • 尾部には他の単位節へのポインタ,または空レコードが入る。 • 図1のリストの記憶構造を図2に示す。 図3.2 リストの記憶構造
(3)微分方程式モデル • 微分方程式による対象の状態の記述は理学や工学で馴染み深いモデルである。 • 対象の状態変化に関係する諸要素間の相互関係が表現されている。
1自由度線形システム • 1自由度線形システムの運動方程式はmX´´+cX´+kX=R(t) ・・・ (3.1) ただし,Xは運動の変位,X’はXの時間微分であり,m,c,kは係数,Rは時間についてのみの関数。 • 式(3,1)は励振力を受けるばね系の運動のモデルである。
n自由度への応用 • 式(3,1)でXとRをn次元ベクトルに,m,c,kは (n×n)行列に拡張する。 • ベクトル・行列を用いて X´=AX+BR ・・・ (3.2) ここで,X=(X,X’)Tであり,A,B、Rはそれぞれ行列,ベクトル,スカラーに相当する。 • 式(3.2)を線形システムの状態方程式と呼ぶ
状態方程式の一般化 • 式(3.2)を一般化すると X´=F(X,R) ・・・ (3.3) ただし,X´=(X1,・・・,Xn)T,F=[F1,・・・,Fn]Tである。 • 式(3.2)(3.3)の形式で状態のモデリングができるものを力学系と呼ぶ。ベクトル関数Fの要素に非線形関数が含まれる場合は,非線形力学系と呼ばれる
(4)ニューラルネットワークのモデル • 脳は非常に多くの神経細胞(ニューロン)が結合したもの。 • 非線形力学系の例として,神経回路網(ニューラルネットワーク)のモデルを示す。
ニューロンのモデル① • 各ニューロンの状態は0から1までの実数値をとる。 • 時刻tでのi番目のニューロンの状態Vi(t)は次の方程式 (3.5) (3.6)
J番目のニューロンよりの入力 出力 入力の総和 Ui 状態 Vi TijVj Vi 自己バイアス Ii ニューロンのモデル② Tij:j番目のニューロンからi番目のニューロンへのシナプス荷重 図3.5 ニューロンとそのモデル • Uiは他のニューロンよりの入力の総和,Iiは自己バイアスと呼ばれる信号。 • 係数Tijはj番目のニューロンからi番目のニューロンへ伝達される信号にかかる重みで,シナプス荷重と呼ばれる。
ニューロンの入出力関数 • ニューロンの入出力関数Φは,0から1までの値をとる単調増加関数であり (3.7) のようなシグモイド型の関数が用いられる。 このように入力が大きくなるにつれてニューロンの状態は1に近づき,入力が小さくなるにつれて状態は0に近づく Φ(U) 1 図3.6 ニューロンの入出力関数 0 U
ニューラルネットワークの状態方程式 • 式(3.5),(3.6),(3.7)から次式が導き出される (3.8) • 各ニューロンiについて式(3.8)を連立させたものが,非線形力学系としての各ニューラルネットワークの状態方程式となる