1 / 27

Eigenboosting: Combining Discriminative and Generative Information

Eigenboosting: Combining Discriminative and Generative Information. 土屋成光 2008/1/8. 背景. 認識,検出手法における問題 Training (訓練データ) -Recognition (実データ) 双方のノイズの影響 無関係な情報(ノイズ)に着目 ノイズに過敏な認識システムとなる可能性. 従来法. Generative (生成モデル) principal component analysis (PCA) independent component analysis (ICA)

rusty
Download Presentation

Eigenboosting: Combining Discriminative and Generative Information

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Eigenboosting:Combining Discriminative and Generative Information 土屋成光 2008/1/8

  2. 背景 • 認識,検出手法における問題 • Training(訓練データ)-Recognition(実データ) • 双方のノイズの影響 • 無関係な情報(ノイズ)に着目 • ノイズに過敏な認識システムとなる可能性

  3. 従来法 • Generative(生成モデル) • principal component analysis (PCA) • independent component analysis (ICA) 欠損,オクルージョンをカバー • Discriminative(判別モデル) • クラス分類手法 • linear discriminant analysis (LDA) • support vector machines (SVM) • Boosting Generativeに比較して高精度(bag-of-keypointなど) 現実にはこれらが多く用いられる

  4. 両手法の相違点 • サンプルの分布による変化

  5. Discriminativeモデルの問題点 • トレーニングに対する性能≠実データに対する性能 Ex.ノイズ,オクルージョン • 非常に多数のラベル付きデータが必要

  6. Eigenboosting(CVPR2007) • Combining Discriminative and Generative Information • 判別,識別のための特徴と生成モデルの融合 • Helmut Grabnerら (Graz University 独) • Discriminative • Haar-like特徴の組み合わせ • Generative • Haar-likeによる固有画像

  7. 基礎技術 • Discriminative • Boostingによる特徴選別 • Generative • PCAによるモデル近似

  8. Boosting(AdaBoost) • 問題 • 弱識別器 • 強識別器

  9. PCA • 入力画像   →固有ベクトルに写像(固有値問題の解,特異値分解) • K個で元の画像を近似

  10. Eigenboosting • Discriminative/Generativeを共に考慮 • Lowレベルな特徴(Haar-like)を使用 • Discriminative • Generative • 両方で使用可能

  11. Haar-like特徴の利用 • Discriminative • Haar-likeのboosting • 強力なDiscriminative識別器 (Violaなど) • Generative • Haar-likeを用いて固有画像(Eigenimage)を近似 • BPCA

  12. Haar-likeによる近似 • PCA • 得られる基底 • 直交していない • 実用上問題ない精度で近似可能

  13. Eigenboosting • Boosting • Featurepoolより特徴選択(discriminative) • 並行して固有画像を生成 (generative) • 双方を評価

  14. Mofdified boosting error-function • Discriminative Generative • パラメタbにより両モデルを考慮 • 弱識別器

  15. Discriminative error • 弱識別器 • 全サンプルに対するエラー

  16. Generative error •   のエラー •   以外を使った際の近似誤差 • すべてを使った近似誤差より減算 • 全サンプルについて考慮,2値化

  17. Experiments • データセット • ATT database • UIUC Image Database • 再構築実験 • Haar-like+BPCAによる再構築 • BPCAと再現率を比較 • 識別実験 • ノイズを付与 • bを変化させ,識別性能を計測

  18. 再構築実験 Haar-like+BPCAによる復元の頑健さ (a)入力画像 (b)BPCA (c)Eigenboosting 欠落を補正

  19. 識別実験:ATTノイズなし • ROCカーブによる評価 • ノイズなし • Discriminativeな情報のみ(β=1)が最大

  20. 識別実験:ATTノイズあり • ROCカーブによる評価 • ノイズあり • D-G双方を考慮(β=0.5)することで性能の低下を防止

  21. 識別実験:βに対する識別性能の変化 • EER • 誤検出率=未検出率の際の誤識別率 • ノイズなし • β大 • 最大の識別性能 • ノイズあり • β=0.5付近 • 最大の識別性能 Generativeな情報 ノイズに頑健

  22. 弱識別器群の例 (a)β=1 (b)β=0.5 (c)β=0 β大→多くの弱識別器がノイズを使用 β小→大まかな弱識別器が顕著

  23. おわりに • Eigenboosting • Generativeな要素を考慮 • ノイズに対し頑健 • Lowレベルな特徴を使用(Haar-like)

  24. F. Tang and H. Tao. Binary principal component analysis. In Proc. British Machine Vision Conf., volume I, pages 377-386, 2006. BPCA • 2値フィルタを用いた近似 • 線形結合で表現

  25. BPCA (a)PCA (b)BPCA (c)BPCA with Block

  26. AdaBoost 識別器の構築 • AdaBoost - Y.Freund and R.E.Schapire at 1997 – T 個の識別器の重み付き多数決 ``A decision-theoretic generalization of on-line learning and an application to boosting", Journal of Computer and System Sciences, 1997. T回繰り返す

  27. 強識別器 • 弱識別器の集合による重みつき多数決

More Related