1 / 36

前回の復習

前回の復習. 講義の概要 chapter 1: 情報を 測る ... エントロピーの定義 確率変数 の(一次)エントロピー は実現値の個数, は 番目の実現値が取られる確率. bit. 実現値. 表. 裏. 確率. 0.5. 0.5. 練習 問題の解答. 講義 web ページにあるデータを使い,エントロピーを計算せよ http ://isw3.naist.jp /~kaji/lecture/ 英語の文字出現 頻度 ... 約 4.18 bit (値の解釈には要注意) 株価の騰落 データ

echo-jensen
Download Presentation

前回の復習

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 前回の復習 • 講義の概要 • chapter 1: 情報を測る... エントロピーの定義 • 確率変数 の(一次)エントロピー • は実現値の個数,は 番目の実現値が取られる確率 bit 実現値 表 裏 確率 0.5 0.5

  2. 練習問題の解答 • 講義 webページにあるデータを使い,エントロピーを計算せよ http://isw3.naist.jp/~kaji/lecture/ • 英語の文字出現頻度 ... 約4.18bit (値の解釈には要注意) • 株価の騰落データ • R社... 1.11 bit, N社... 0.93 bit, K社... 1.28 bit 表計算ソフトを使えば簡単に計算できる

  3. どういう文脈で話が進んでいるか 最終目標:「情報」の量を測る定量的指標を導入する • step 1: 確率変数の「エントロピー」を定義 • エントロピー大 不確実さ大 • step 2: 一つのニュースが持つ情報量を定義 • 情報量= (BEFORE エントロピー) – (AFTER エントロピー) • step 3: 確率変数の間の相互情報量を定義 • ある確率変数の値が,他の確率変数について何を語るか 前回 今回

  4. 本日の講義(詳細) • エントロピーの諸性質 • (確率計算に関する復習) • 関連する概念・量の定義 • 結合エントロピー ... 結合確率に対応 • 条件付きエントロピー ... 条件付き確率に対応 • 相互情報量 • 各種エントロピー・情報量の性質

  5. エントロピーの性質(1) [性質1] 証明: では, ここは非負 [性質2] ⇔ あるに対し,それ以外は 証明: (⇐) 定義より明らか (⇒) 背理法を用いて証明

  6. エントロピーの性質(2) [性質3]の取り得る値が通りならば... のときは最大,その値はとなる 証明:ラグランジュの未定乗数法を用いる • 目的関数: (変数の式と考える) • 束縛関数: • 最大化条件 これから が得られ,そのとき J. L. Lagrange 1736-1813

  7. エントロピー = 不確実さ • あるに対し,それ以外は • 何が発生するのか,あらかじめわかっている • 不確実な要素が,まったくない • どの可能性も,等しく考えられる • 非常に不確実で,振る舞いの予測がつかない エントロピー = 不確実さ = 予測の難しさ

  8. エントロピー vs. 分散 不確実さの指標として,「分散」ではダメなのか? • 確率変数の分散 • 直観的には「分散が大きい=ばらつきが大きい」 エントロピーの利点 (vs. 分散) • 実現値の上で「演算」ができなくても良い • ={りんご,バナナ,いちご} ... • 「工学的な量」と密接に関係 • 「符号化」の性能の限界を与える 情報理論は,エントロピーの概念を中心に組み立てられている

  9. エントロピーに関するまとめ 確率変数 のエントロピー: • ...【エントロピーの非負性】 • ... 【エントロピーの最小値】 • 1個の実現値に対して • ... 【エントロピーの最大値】 直観的には...エントロピー大 ⇔ 不確実さ大

  10. 複数の確率変数 • ここまで...確率変数1個に限定 • 「情報の伝達」を考えるには,複数の確率変数が必要 大気の状態 送信データ 受信データ 通信路 自然の摂理 気温 降水量 の値を知れば, の値に関する情報が得られる =の不確実さが減少する

  11. 議論すべき「情報の量」 タイガースの試合結果 友人の機嫌 「友人の機嫌が良い」⇒「タイガースは勝った?」 ... ここに潜む「情報の伝達」を,数理的に考える • 確率論に関する復習 • の個別の値が,の値について与える情報量 • 「」が,の値について与える情報量 • の値が,の値について与える情報量の平均 友人の人格 勝 or 負 良 or 悪

  12. 同時確率・結合確率 :と とが同時に発生する確率 例:過去 100日間の,試合結果() と友人の機嫌 () の統計 良 悪 • 試合も勝って,機嫌が良かった...45日 • 勝ったのに,機嫌が悪かった...12日 • ... 勝 45 12 負 15 28 同時確率,結合確率,と呼ばれる

  13. 確率の周辺化 同時確率からは,他の様々な確率を導き出せる • 勝ったのは45+12=57日 良 悪 勝 45 12 57 • 一般には, 負 15 28 33 60 40 100 ...確率の周辺化(marginalize)と呼ばれる操作

  14. 条件付き確率 :の条件のもとで, となる確率 57 45 12 = 57の中での45の割合 良 悪 試合に勝った日は 45/57 = 0.79 の確率で機嫌が良い 12/57 = 0.21 の確率で機嫌が悪い 勝 45 12 57 (条件) 負 15 28 33 • 一般には, ...ベイズの定理 60 40 100 と を混同しないこと

  15. 条件付き確率に関する注意 • 試合に勝つ確率 • 機嫌が良い確率 良 悪 勝 45 12 57 負 15 28 43 60 40 100 と を混同しないこと

  16. 確率変数の独立性 確率変数 が独立 ⇔ 任意の に対し ⇔ 任意の に対し ⇔ 任意の に対し 独立でない ⇒ 従属関係にある (どちらかが主で,どちらかが従,というわけではない点に注意)

  17. 同時エントロピー・結合エントロピー と の同時エントロピー,結合エントロピー; 良 悪 勝 45 12 負 15 28 bit の値との値とを同時に予測する「難しさ」に相当

  18. 結合エントロピーの性質 補題: 証明: 右辺 微妙に 違う 左辺

  19. シャノンの補助定理 シャノンの補助定理,Shannon’s lemmaを導入 [補題] , を満たす非負数, に対し, 等号成立は,すべての に対してのとき

  20. 補助定理の証明(概略) 左辺 – 右辺 = y = – logex 1 O y = 1 – x 等号成立 ⇔ 全てのに対し のとき

  21. 結合エントロピーの性質 補題: 証明: 右 ≤ 左 シャノンの補助定理 (証明終了) 系: 確率変数が独立なら

  22. 例で確かめてみる ⇒ bit ⇒ bit 良 悪 勝 45 12 57 bit 負 15 28 33 60 40 100

  23. の意味 • ... の値との値を同時に予測する難しさ • ... の値との値を別々に予測する難しさ • 同時に予測するほうが,別々に予測するよりも簡単 • の値の中には,の値に関する情報が含まれている

  24. 友人の機嫌と情報量 • 友人の機嫌を知る前... • 友人の機嫌が良いのを見た後... • 友人の機嫌が良い ⇒ 試合に勝った? • ... 友人の機嫌が,試合結果に関する • 情報を与えてくれる 良 悪 勝 45 12 負 15 28 「」の確率が 大きくなっている エントロピーは?

  25. 個別値による条件付きエントロピー • のときのエントロピーを以下で定義 • 前ページの例では after before bit ... 「友人の機嫌が良い」ことを知って解消された不確実さ ...「友人の機嫌が良い」ことから得られる情報量

  26. 友人の機嫌が悪いときは... • 30 良 悪 勝 45 12 負 15 28 after before bit ... 「友人の機嫌が悪い」ことを知って解消された不確実さ ...「友人の機嫌が悪い」ことから得られる情報量

  27. 「平均的」な情報量 • 「友人の機嫌が良い」 • 確率で発生する事象 • bit • 情報量は 0.18bit • 「友人の機嫌が悪い」 • 確率で発生する事象 • bit • 情報量は 0.11bit • Yの値がもたらす,Xに関する情報量の期待値は bit... Xと Yの相互情報量

  28. 相互情報量,条件付きエントロピー • Xと Yの相互情報量 • XのYによる条件付きエントロピー 「個別値による条件付きエントロピー」の期待値

  29. 例で確認 • 「友人の機嫌が悪い」 • 確率 • 「友人の機嫌が良い」 • 確率 • 条件付きエントロピー bit • bit • 相互情報量 bit

  30. 条件付きエントロピーの性質(1) 補題: 証明:

  31. 条件付きエントロピーの性質(2) 前ページの補題: 系: 証明: は,変数 について 対称であるため

  32. 相互情報量の性質(1) 系: 証明:より がについて教えてくれる情報量 = がについて教えてくれる情報量

  33. 相互情報量の性質(2) p.18 の補題: p.30の補題: 系:,等号成立はが独立のとき 証明: • Yの値を知ることで,失うものは何もない • とが独立なら,の値を知っても得るものはない

  34. 相互情報量について,まとめ 右図で表現されていることが全て たとえば... • 相互情報量の計算法は3通りある

  35. 本日のまとめ • エントロピーと,それに関連する概念 • 結合,条件付きエントロピー • 相互情報量

  36. 練習問題 • : タイガースの試合結果, • : 阪神ファンの友人のtweet やったー くやしー くやしー p.13 のように同時確率の表を書き,周辺確率も求めよ p.34 に示した3つの異なる方法で,相互情報量 を求めよ

More Related