1 / 27

情報エントロピーを用いた森林情報の解析

情報エントロピーを用いた森林情報の解析. Forest Information Analysis using the Information Entropy. Forest Community Dynamics, Kyoto Prefectural University MINOWA,Yasushi, Ph.D (Agric. of Tokyo). Today's contents. 主観的情報の理論的考察   シャノンの情報理論(情報量),ファジィ理論(曖昧さ)   ベイジアン統計学(主観確率)

corine
Download Presentation

情報エントロピーを用いた森林情報の解析

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 情報エントロピーを用いた森林情報の解析 Forest Information Analysis using the Information Entropy Forest Community Dynamics, Kyoto Prefectural University MINOWA,Yasushi, Ph.D (Agric. of Tokyo)

  2. Today's contents • 主観的情報の理論的考察   シャノンの情報理論(情報量),ファジィ理論(曖昧さ)   ベイジアン統計学(主観確率) • エントロピー計算を用いた2種類の観測システムの情報量比較    ー目測の傾向を考慮しない場合ー   通常の観測システム,ファジィ観測システム • エントロピー計算を用いた2種類の観測システムの情報量比較    ー目測の傾向を考慮する場合ー   通常の観測システム,ファジィ観測システム • 目測の傾向を考慮した場合の報量比較

  3. 情報とは • 広辞苑(岩波書店、第4版1991年発行) •   1.或ることがらについてのしらせ。 •   2.判断を下したり行動を起こしたりするために必要な知識。 • 新選国語辞典(小学館、新版1980年発行) •   1.事情についての知らせ。 •   2.なんらかの知識をあたえるもの。知らされる内容。インフォメーション。 • 現代用語の基礎知識(自由国民社、1992年発行) •   情報のもっとも簡単な定義は「報せ」であるが,より正確な定義は「生活主体   と外部の客体との間の情報関係に関する報せ」 専門的な意味での情報とは • 総合コンピュータ辞典(共立出版、1984年発行) • 1.データを表現するために用いた約束に基づいて,人間がデータに割り当て    た意味。 •   2.対象となる事象の性質や作用・意味などの内容で、事象の集合によって     表現された生物,機械,組織などが決定したり行動したりするために必要    なもの。 • マグローヒル科学技術用語大辞典日刊工業新聞社、1979年発行) • (通信) 事実やデータの集合。

  4. 哲学事典による情報の説明 「情報の確定的な定義はまだされていない。情報を漠然と,理性的な存在としての人間が特定の目的に対してもつ知識,意味とする理解は,きわめて狭い理解である。情報現象は生物や機械や社会組織といった系にも認められ,ウィーナーのサイバネティックスの構想以来,情報概念は再検討され,物質,エネルギーと並ぶ位置を与えられている。すなわち,広義の物質現象に,教義の物質(物素,材料)の物質形態とエネルギー形態の他に,第3の重要な形態として情報が加わったのである」 「広義の情報は,物質,エネルギーを「秩序・無秩序」的次元から見た共通形式であり,時間的,空間的,定性的,定量的ないっさいのパターンである。このパターンは,パターンのにない手にかかわりなく,加工(伝達,変換,貯蔵)が可能であり,にない手としての物質、エネルギーがどんな形態をとろうとも,量的に測定可能である。情報の量的側面はシャノンの提唱した情報理論によって解明され,そこでは,情報の量的側面としての「意味内容」を捨象し,確率過程として処理するから,情報量が客観的に測定され,情報量を表現するためにエントロピーという語が用いられている。 」

  5. シャノンの情報理論(SHANNON’S Information Theory) 自然科学では,確率の対数的測度は熱力学第2法則(エントロピー増大の法則:閉じた系内ではエネルギーの配分が均一化し,エントロピーが増大する方向に向かう)によって「エントロピー(entropy)」と呼ばれる物理量で表される。熱力学第1法則では「仕事する可能性を表す尺度」として「エネルギー(energy)」という物理量が定義されているが,エントロピーはこのエネルギーの中の使用不可能な部分を指している。また,エントロピーという語は,熱力学のみでなく,人間社会を含めた自然界すべてに当てはめられ,一般には「秩序・無秩序の度合いを測る尺度」として認識されている。 1984年,アメリカの数学者C.E.SHANNONは「情報は1つのメッセージを選ぶときの選択の自由度の尺度である」として定義することにより,情報を定量的に評価できることを示し,またそのとき情報の量(情報エントロピー:Information entropy)が確率の対数的測度で表されることを提示した。SHANNONの情報理論では,ある事象系のエントロピーをその事象系の生起確率分布から定義し,情報を受け取る前後でのエントロピーの差を用いて,その情報がもたらす情報量を導出する。

  6. 「1の目が出た」情報 (1の目が出るという)事象が生起した  この系は「1の目」から「6の目」までの6つの事象が等確率で生起する事象系である。  「情報がもたらす系の状態の不確定さの減少分をその系の(自己)情報量という」 最初に観測を行う前,つまり系がどの目を出したかが全くわからない状態 不確定度(エントロピー)の高い状態にある 次に,観測し「1の目が出た」という情報によって系の状態が確定 不確定度(エントロピー)の低い状態となる 例)サイコロを振ってどの目が出たかを観察する

  7. ハートレーの情報量 - R.V.L. Hartley (1982) - 今,伝送できる記号の集合を考え,それがn個の記号からなる場合を考える。この集合からN個の記号を選んで作った系列はnのN乗通りある。よって,このような系列の中から1つを受信したときに得られる情報量は,情報量をHとすると, 〔単位:Hartley〕 情報量の単位 において 対数の底を2にとれば,単位はビット,10にとればデジット,自然対数の底e(=2.71828…)にとればナットとなる。 1ビットの情報量とは二者択一の,1デジットとは10者択一の,1ナットはe者択一の事象が生じたことを報せる情報のもつ情報量である。       1デジット=3.22ビット, 1ナット=1.443ビット

  8. 情報を定量的に評価する ← 情報の加法性 I0:サイコロの1の目が出たことを直接報せる情報量 I1:奇数の目が出たことを報せる情報量 I2:奇数の目が出たことを知った上で,それが1の目であることを報せる情報量 情報量は事象の生起確率のみの関数,よって生起確率P0=1/6,p1=1/2 ,p2=1/3 を用いて を満たす初等関数は対数関数である。従って,確率pの事象が生起したことを報せる情報の量(情報量,あるいは自己情報量)は (負号は情報量を正の値にするため)

  9. X = xi = {x1, x2, … , xn} (I = 1〜n) :n個の事象からなる集合 p(xi) = {p1, p2, … , pn} (i = 1〜n) :集合の中の各事象の生起確率ただし,Σ pi = 1 とすると,そのときの自己情報量I(xi)は となる。この値は事象xiの確率p(xi)によるので時々刻々において異なる。よって,時々刻々と伝えられる事象の自己情報量は変化を繰り返して定まらないが,その重み付け平均値, ;平均情報量(自己情報量の期待値) として与えることができる。 自己情報量 サイコロを振って1の目が出たときの自己情報量は 6者択一の事象が生じたわけだから,4者択一の場合の2ビットより多く,8者択一の場合の3ビットより少ない値となる。一方,系が様々な確率で時々刻々をと異なる状態にあることが判っている時、多数回の観測を行った場合に得られるであろう1情報あたりの情報量は 情報量の評価方法

  10. ファジィ理論(Fuzzy Theory) Fuzziness(ファジィ性)の概念に関する提案は,1965年カリフォルニア大学バークレー校教授のL.A.ZADEHによる「Fuzzy Sets」と題する論文によりなされた。ファジィ性の概念については、古くからVaguness,Ambignity,Genelality等といった曖昧さに対する定性的な考察はなされており,その数学的手法として確率,すなわちRandamness(ランダム性)の概念が広く利用されている。しかし,ランダム性では確率現象にみられるような対象的性質としての不確かさ,すなわち”客観的”不確かさしか処理できず,人間の主観に起因する”主観的”不確かさは処理できない。 「彼女は美人だ」 「彼はかなり背が高い」 「サイコロを投げて  3の目が出る」 「明日、雨が降る」 実験や観測では完全に解消されない 実験や観測によって明らかとなる 本質的曖昧さ:言葉の意味,概念の定義

  11. A:境界のはっきりしない容れ物 〜 B:境界のはっきりした容れ物 X:よくわかっている対象 Y:よくわからない対象 〜 ファジィ集合 ファジィ測度 “x∈A”の度合い “y∈B”の度合い 〜 ファジィ集合はクリスプ集合(通常の集合)の拡張 ファジィ測度は確率測度(ルベーグ測度)の拡張

  12. 1.0 小さい  中位い  大きい 0.0 1.0 小さい  中位い  大きい 0.0 従来の集合(クリスプ集合)を用いた「大・中・小」の表現 ファジィ集合を用いた「大・中・小」の表現

  13. 「明日は小雨が降りそうだ」 ‖ 「小雨が降る」は”だいたい真” 「2は偶数である」 ‖ 「2は偶数である」は”真” 前提1 凍っている道は滑る 前提2 滑りやすい道は危険だ 結 論 凍っている道はとても危険だ 前提1 車間距離が短くなったら減速せよ 前提2 車間距離は約20m 結 論 とても減速せよ ファジィ演算 (「だいたい2」+「だいたい3」=「だいたい5」) ファジィ論理と古典論理 ファジィ命題   ファジィ真理値 クリスプ    二者択一 ファジィ推論 (管野,1988)

  14. ベイジアン統計学(あるいはベイズ統計学) 通常の確率に対し,主観確率(Subjective probability)というものを考え,母集団の未知の要素,つまり母数についての事前確率分布が存在しているとする考え方。通常の確率論では,事象の起こりやすさについてのみ確率の概念を適用し,”命題(統計学においては仮説)”については確率という概念は適用されない(”命題”とは真偽いずれかであるかは定まっているべきもので,同程度に確からしいといった概念は考えられないとする立場から)。これに対し,主観確率の立場は,通常の概念およびその適用範囲の拡張として,事象だけでなく命題についても確率を考えようとするものである。これは不確実性のもとでの個人の”確信の度合い”を表しており,この場合,確率はすべて「経験」とか「知識」といったものを前提とした条件付き確率である。 ベイズの定理(Baye’s theorem)  有限個または可算無限個の事象H1,H2,…のどの2つも互いに排反でかつ UiHi = Ω(Hiの和集合が全事象Ωになること)であるとき、p(A )> 0である  事象Aに対し,  が成り立つことを言う。 (Hのいずれか(Hk)が起こったときの事象Aが起こる確率)

  15.  量    次元        項     目 長 さ   L1幹の直径,樹高,樹冠幅etc 面 積 L2    幹の断面積,樹冠断面積,樹冠表面積etc 体 積 L3    全体の体積,立木材積,幹材積,樹冠体積etc 重 量 M    幹重量,枝重量,葉重量,地上部(地下部)総重量etc 時 間 T    樹齢etc その他    -樹種,立木位置etc  作業区分    皆伐,択伐,補植etc  地况情報    標高,斜面方位,傾斜,斜面位置,土壌条件,下層植生  (外的情報)  地質,気象条件 etc  林况情報    林分蓄積,成立本数,立木粗密度,樹種構成,林木配置  (内的情報)  上表にあげた樹木構成 etc  その他     林分面積,混合歩合,NL別(針葉樹,広葉樹) etc 森林から得られる情報の種類とその曖昧性-「数値情報」- 単木における調査項目 森林調査における調査項目

  16. 森林から得られる情報の種類とその曖昧性-「その他の情報」-森林から得られる情報の種類とその曖昧性-「その他の情報」- 森林から得られる情報の種類 (a)・・・胸高直径が26.5cmというような数値情報 (b)・・・ある林分がAという林型に所属するというカテゴリー情報 (c)・・・リモートセンシングの読み取りなどのような,境界領域が       不明瞭な画像情報 (d)・・・「やや枯損している」「成長が良い」という明確な基準のない       情報,つまり自然言語情報

  17. 2種類の観測システム 情報源(ここでは森林)には種々の情報がある種の確率を持って存在すると考え「情報源から情報を抽出し、その結果を報告する装置(あるいは方法)」を「観測システム」と呼ぶこととする。 「森林から得られる主観的情報(Subjective Forest Information)とは,人間の主観が大きく関与するもの(例えば,目測による樹高測定,樹形級区分,立木の評価等)や,それらを用いた行動(例えば,枝打ち技術,伐採木等の選木技術,経営計画おける意思決定)など「経験(則)」とか「勘」が重要な役割を示す情報のことである」と定義する(美濃羽,1995)。 シミュレーションの条件  ①.情報源の種類:樹高測定  ②.測定範囲:9.5m〜14.4m、単位は0.1m  ③.観測システム:通常(測高器),ファジィ(目測)  ④.目測の傾向の有無

  18. X1 X2 X3 X4 X5 1.0 0.5 0.0 10 11 12 13 14 通常の観測システム 確率的情報源  種々の測高器(測棹,レラスコープ,ブルーメライス,等)を  用いた計測。  測定値は1m単位で四捨五入。10.5mも11.4mも同じ11mと報告  される。 縦軸:メンバーシップ関数[0,1], 横軸:樹高(m)

  19. A5 A2 A1 A4 A3 1.0 0.5 0.0 9 10 11 12 13 14 15 ファジィ観測システム ファジィ情報源  目測による計測。 ex)  ファジィ情報源A2:「およそ11mぐらいの木である」  つまり,10mから12mまでの間のメンバーシップ値で表される。 縦軸:メンバーシップ関数[0,1], 横軸:樹高(m)

  20. 通常の情報システム (確率的情報源) 事象系 S ファジィ情報システム (ファジィ情報源) 2つの観測システムとその評価の仕方 情報 Xp 確率 p(Xp) H(Sk|Xp) H(S|Xp) 条件付き確率 p(s1|X1) p(s2|X1)… 確率     p(X1) p(X2)… 事象     X1X2… H(S|X) I(X) = H(S) - H(S|X) 事象     s1s2… 確率     p(s1) p(s2)… H(S) I(A) = H(S) - H(S|A) ファジィ事象 A1A2… 確率     p(A1) p(A2) … 条件付き確率 p(s1|A1) p(s2|A1)… H(S|A) H(S|Ap) H(Sk|Ap) ファジィ情報 Ap 確率 p(Ap)

  21. μ 1.0 μAij(sk) sk 0.0 cij cij αij ファジィメンバーシップ関数 左右対称なL-Lファジィ数Aijを と表現し,メンバーシップ関数を以下のように定義する。 ただし,α1j=10, α2j=11, α3j=12, α4j=13, α5j=14, ci2=1.0, ci3=1.5, ci4=2.0, ci5=2.5 である。 また,L(sk)は,(1). L(sk) = L(-sk), (2). L(0) =1, (3). L(sk)は[0, ∞]において厳密に減少する,を満たす型関数である。なお,αijは中心をcijは幅を表している。 ここでは,左右対称な三角形型ファジィ数を考えているので,L(sk)は となる。

  22. 情報量の計算 事象系SをS = si = {s1, s2, …, sm} (i= 1〜m)とおく。刻みは0.1としたので,m=50となる。事象の確率p(sk) (k=1〜50)は, 通常の観測システムでは,測定値は0.1m単位だが情報として用いるときは1m単位に四捨五入する。つまり9.5〜10.4mのときはX1を,10.5〜11.4mのときはX2というように,事象系の状態skに応じてXp(p=1〜5)なる観測結果を報告する。そのときの確率は, (ただし和は事象Xpに含まれるすべての根元事象sk(ここでは事象系の状態sk)についてとられる。)

  23. 情報量の計算 -通常の観測システム- 情報量H(S)は,次式より また,条件付き確率p(sk | Xp)より,情報を得た後の事象系がもたらすエントロピーの期待値は次式の条件付きエントロピーで表される。  また,    より,    となる。また,   である。 以上より,情報源X= {X1, X2, …}の持つ情報量I(X)は, I(X) = H(S) - H(S | X) = 5.644 - 3.222 = 2.322 (bit) すなわち,この例における林木が持っている樹高情報を確定するのに必要な5.644ビットのうち,2.322ビットの情報量がこの観測により得られると期待される。

  24. 情報量の計算 -ファジイ観測システム- メンバーシップ値をAij(sk)とするとき,ファジィ事象を報告する確率p(Aij)および条件付き確率p(sk | Aij)は,それぞれ ただし, よって,情報を得た後の対象系のエントロピーの期待値は さらに次式より, となる。ゆえにファジィ情報のもたらす情報量は,I(A)=H(S)-H(S|Aj)より 右表のようになる(通常を 100%とした場合)。

  25. 目測の傾向を考慮した場合の情報量比較 • 調査地    北海道大学演習林本部内の札幌実験苗畑に成立するカラマツ人工林 • 概要    面積:約0.086 ha,立木本数:74本(861本/ha),    直径:10.0-49.0 cm (平均24.1 cm),樹高:7.3-20.6 m(平均14.9 m)    樹高はレラスコープで実測し真値とした。 • 測定者:6人(林学科3年生,4年生) • 解析方法    教師なし学習モデル:測定者に最後まで真値を教えない方法    教師つき学習モデル:1本測定するごとに測定者に真値を教える方法 • 評価式 Er>0:測定者が過小評価,Er<0:測定者が過大評価    (Er:誤差率,Ht:真の樹高値,He:目測による樹高値)

  26. 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 誤差率 (%) 誤差率 (%) 0.0 0.0 - 0.1 - 0.1 樹高(m) 樹高(m) - 0.2 - 0.2 - 0.3 - 0.3 8 8 10 10 12 12 14 14 16 16 18 18 20 20 22 22 - 0.4 - 0.4 - 0.5 - 0.5 教師なし学習モデル 教師つき学習モデル 測定者の誤測の傾向

  27. 1.0 0.0 7.0 12.0 17.0 22.0 1.0 0.0 7.0 12.0 17.0 22.0 教師なし学習モデル 教師つき学習モデル

More Related