1 / 52

要論B 講義日程 

要論B 講義日程 . 12 / 18 1. Overview ,ニユーラルネット   (福水) 2. グラフィカルモデル (土谷). 12 / 19 3. 主成分分析 (南) 4. 独立成分分析 (南). 12 / 20 5.射影追跡法、 層別逆回帰分析 (栗木)

thai
Download Presentation

要論B 講義日程 

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 要論B 講義日程  12/18 1. Overview,ニユーラルネット   (福水) 2. グラフィカルモデル (土谷) 12/19 3. 主成分分析 (南) 4. 独立成分分析 (南) 12/20 5.射影追跡法、 層別逆回帰分析 (栗木) 6.混合分布 (江口) 12/21 7.サポートベクター,ロジスティック (江口) 8.Boosting   (福水)

  2. ニユーラルネット グラフィカルモデル 主成分分析 独立成分分析 層別逆回帰分析 混合分布 Boosting サポートベクター

  3. 7.サポートベクターマシンと ロジスティック回帰 世の中、多くの問題は分類の問題に帰着できる。 そして永遠の未解決問題でもある。 もしこの問題が解決されるなら、投資家は決して損をしないだろうし 天気予報官は、確率予測をしなくてもよくなり、世の中に失恋も、倒産も なくなるかもしれない….

  4. 確率モデルとして,分布が混合されることのクリアな説明を試みる.確率モデルとして,分布が混合されることのクリアな説明を試みる. ○ 潜在変量=グループ・ラベルの理解 ○ 最尤推定値を求める EM アルゴリズムの紹介 ○ 例題として,神経回路の量子解析のシナプス可塑性 分類の問題を考えるとき,確率モデルを考える必要性を強調する. 確率モデルは混合分布モデルのある類推から導入する. ○ ベイズルールの最適性を示す. ○ パラメトリックモデル,特に線形モデルを仮定して,プラグインルールの説明をする. このフレイムワークの下で ロジスティック判別は自然に導入されることを示す. ○ トレーニング・ロス,汎化誤差の説明をする. ○ サポートベクター・マシンの説明 ○ VC次元の説明 ○ カーネル法の説明 混合分布 サポートベクター

  5. 分類方法のための解析 (判別分析) 参考文献 [1] Krazanowski, W. J. & Marriott, F.H.C. Multivariate Analysis, (1995) Arnorld, New York [2] Bishop, C. M. Neural Networks for Pattern Recognition. (1996). Oxford University Press. [3] McLachlan, G. J. Discriminant Analysis and Statistical Pattern recognition. (1992). Wiley, New York. [4] Haykin, S. NEURAL NETWORKS (1999). PRENTICE HALL 統計多変量解析の観点から ISBN 0340593253 ニューラルネットの教科書 ISBN 0198538642 統計の専門書,空間判別,ニューラルネットISBN0471615315 最近の機械学習,ニューラルネットの紹介 ISBN 0132733501

  6. [5] Harry Hochstadt, INTEGRAL EQUATIONS, Wiley, New York. [6] Jerome Friendman, Trevor Hastie, Robert Tibshirani, Additive logistic regression: A statistical view of boosting, (2000) Annals of Statistics. [7] Alex J. Smola, Bernhard Schölkopf, A Tutorial on Support Vector Regression (1998) NeuroCOLT. [8] Steve Gunn, Supprt Vector Machines for Classification and Regression, (1998) ISIS Technical Report. [9] C. J.C. Burges, A tutorial on Support Vector Machine for Pattern Recognition, Kluwer Academic Publishers. カーネルの 数学書 ホットな話題 チュウトリアル

  7. を決める。 入力 のパタンから出力 分類の問題 トレーニングデータ によって を定める。 文字認識 (郵便番号の自動読み取り) 応用例 ● ●    音声認識 (電話チケット自動予約)    画像認識 (交通量計測・予測) ● ☆ クレジットスコアリング メディカルスクリーニング ☆ 鑑定問題 ☆ 天気予測 ☆

  8. 分類の方法 トレーニングデータ i 番目の出力 i 番目の入力

  9. 方法 : かってな x が与えられた時, 関数 g(x)を使って 次のようにのように y を予測する. d = 2 目的 : トレーニングデータ を使って 良い判別関数 g(x) の構成.

  10. 直感的な学習:関数 g(x) が次の条件を満たしなさい: 上の条件を満たす 関数 g(x) は無尽蔵に存在する. そこで,関数 g(x) を線形に限ろう: 上の条件を満たす線形関数 g(x) の存在は絞られるが完全ではなく,存在しないケースがある.

  11. 線形なモデルの意味 回帰の問題を復習しよう: 確率モデルを建てよう ここで は,誤差を表す.

  12. 最小2乗法 = min SS 最尤法 = max Likelihood 誤差分布 が ガウス分布 ならば, 最小2乗法 =  最尤法

  13. 直感的な学習:関数 g(x) が次の条件を満たしなさい: ? 確率的設定を考えよう とする。 入力 x と 出力 y の同時分布を 判別関数 g によるルールの誤判別確率をロスにした時の 汎化誤差は ! min 経験誤差は min

  14. 直感的な学習 AIC, CV,…. トレーニングデータ, テストデータ

  15. 事前分布 から事後分布 への変化 の同時分布2つの条件付け: ベイズの定理 の中から1つ選ぶルールを からクラス ベイズルール: 入力 で定める。

  16. ベイズルールによる判別空間 の 誤判別確率 の良さについて見てみよう 一般に、判別 ルール が 与えられたとき 誤判別 の 確率は で与えられる。

  17. 2次元正規分布

  18. 条件付き分布

  19. 4 2 -6 -4 -2 2 4 6 -2 -4

  20. 以上の考察の結論 入力 と出力 の同時確率の分布 がわかっているなら ベイズルール が最適である。 問題点 が わかっている状況は ほとんどのケース ありえない。 そこで, 次にパラメトリックケース: 分布は未知だけど、分布形 ( パラメトリック形 ) はわかっている を考えよう

  21. 仮定: 指数型 (ここで y=±1) すると ここで

  22. が指数型ならば ベイズルールによる判別関数は と成る. を学習すれば良い. 結論はトレーニングデータから

  23. トレーニングデータ に対して 条件付尤度は と書ける これを使って を ロジスティック判別関数と呼ぶ。

  24. 学習率 を求めるアルゴリズム 勾配法 反復重み付け最小二乗法 などがある

  25. フィッシャー の線形判別関数 の仮定ではベイズルールと 書かれる を計算すると より が計算される。 これを フィッシャーの線形判別関数 と呼ぶ

  26. 入力データベクトルが,グループ内で 多変量正規分布して,グループ間では 平均のみ異なると仮定する フィッシャー線形判別 入力データベクトルが,指数型分布 して,グループ間ではパラメータが 異なると仮定する ロジステック判別 サポートベクターマシン マージン最大化

  27. 超平面の幾何 ここで を の 超平面と呼ぶ の法線ベクトルは である。 ●

  28. 法線 の直交補空間を と表す この時 と書ける

  29. さて を取ろう。この時、 と書ける。ここで これより なので

  30. このように 点 から への距離は となる これから は、直交補空間 を原点 から だけ平行移動したものといえる

  31. サポートベクターマシン 超局面 の w は超局面と 1:1 でない. このとき この等号を満たす   をサポートベクターと呼ぼう.

  32. サポートベクターを含む2平面 と の間の距離は となる。 とおくと、 の最大化は の最小化と同値なので サポートベクターマシンは次の形で定義される。 Subject to

  33. 双対問題 主問題のラグランジュ関数は

  34. クーン タッカー条件より サポートベクターマシンによる判別関数は

  35. パタンが線形分離可能でないとき、 スラック変数 は、1 を越える時上の図に対応する。 主問題 双対問題

  36. カーネル法 入力ベクトル x から特徴ベクトルへの写像を とすると の線形な判別関数 サポートベクターマシンによる学習は を解いて実行される

  37. サポートベクターマシンは, を作る. これから, 内積カーネルを と定めれば

  38. の具体的な形は必要でなく 特徴ベクトル 内積カーネル さえ与えれば実行できる 例題 例えば,d = 2 の場合

  39. 例題 XOR 問題 トレーニングデータ 入力 x 出力 y 内積カーネル (-1, -1) + 1 (-1, + 1) -1 ( + 1, -1) -1 ( + 1, + 1) + 1

  40. 10

  41. この性質はカーネルサポートベクターマシンだけの良さなのだろうか?この性質はカーネルサポートベクターマシンだけの良さなのだろうか?

  42. 命題 y ( +1, +1, + 1, + 1,-1, -1) (-1,-1, + 1, -1 + 1, -1 )(-1,-1, + 1, -1-1, + 1) ( +1, +1, + 1, + 1 + 1, + 1) 例題 XOR 問題 の 問題 では サポートベクターは 2次 カーネルを使えば 良い性質が示された. しかし,この良さは、 ロジスティック も アダブーストも 同様に 持っている性質 である。

  43. フィッシャー線形判別 ロジステック判別 ベイズルールの パラメトリック版 サポートベクターマシン マージン最大化 確率的考察ではない VC 次元の考察 .. . .

  44. グラフィカルモデル ニユーラルネット 主成分分析 独立成分分析 層別逆回帰分析 混合分布 ラベルミッシング サポートベクター Boosting

  45. 第7幕終わり...

  46. 混合分布モデル 成分分布 混合比 混合分布 ダミー(潜在)変数 Z の導入 4 2 1 3

More Related