270 likes | 390 Views
Eigenboosting: Combining Discriminative and Generative Information. 土屋成光 2008/1/8. 背景. 認識,検出手法における問題 Training (訓練データ) -Recognition (実データ) 双方のノイズの影響 無関係な情報(ノイズ)に着目 ノイズに過敏な認識システムとなる可能性. 従来法. Generative (生成モデル) principal component analysis (PCA) independent component analysis (ICA)
E N D
Eigenboosting:Combining Discriminative and Generative Information 土屋成光 2008/1/8
背景 • 認識,検出手法における問題 • Training(訓練データ)-Recognition(実データ) • 双方のノイズの影響 • 無関係な情報(ノイズ)に着目 • ノイズに過敏な認識システムとなる可能性
従来法 • Generative(生成モデル) • principal component analysis (PCA) • independent component analysis (ICA) 欠損,オクルージョンをカバー • Discriminative(判別モデル) • クラス分類手法 • linear discriminant analysis (LDA) • support vector machines (SVM) • Boosting Generativeに比較して高精度(bag-of-keypointなど) 現実にはこれらが多く用いられる
両手法の相違点 • サンプルの分布による変化
Discriminativeモデルの問題点 • トレーニングに対する性能≠実データに対する性能 Ex.ノイズ,オクルージョン • 非常に多数のラベル付きデータが必要
Eigenboosting(CVPR2007) • Combining Discriminative and Generative Information • 判別,識別のための特徴と生成モデルの融合 • Helmut Grabnerら (Graz University 独) • Discriminative • Haar-like特徴の組み合わせ • Generative • Haar-likeによる固有画像
基礎技術 • Discriminative • Boostingによる特徴選別 • Generative • PCAによるモデル近似
Boosting(AdaBoost) • 問題 • 弱識別器 • 強識別器
PCA • 入力画像 →固有ベクトルに写像(固有値問題の解,特異値分解) • K個で元の画像を近似
Eigenboosting • Discriminative/Generativeを共に考慮 • Lowレベルな特徴(Haar-like)を使用 • Discriminative • Generative • 両方で使用可能
Haar-like特徴の利用 • Discriminative • Haar-likeのboosting • 強力なDiscriminative識別器 (Violaなど) • Generative • Haar-likeを用いて固有画像(Eigenimage)を近似 • BPCA
Haar-likeによる近似 • PCA • 得られる基底 • 直交していない • 実用上問題ない精度で近似可能
Eigenboosting • Boosting • Featurepoolより特徴選択(discriminative) • 並行して固有画像を生成 (generative) • 双方を評価
Mofdified boosting error-function • Discriminative Generative • パラメタbにより両モデルを考慮 • 弱識別器
Discriminative error • 弱識別器 • 全サンプルに対するエラー
Generative error • のエラー • 以外を使った際の近似誤差 • すべてを使った近似誤差より減算 • 全サンプルについて考慮,2値化
Experiments • データセット • ATT database • UIUC Image Database • 再構築実験 • Haar-like+BPCAによる再構築 • BPCAと再現率を比較 • 識別実験 • ノイズを付与 • bを変化させ,識別性能を計測
再構築実験 Haar-like+BPCAによる復元の頑健さ (a)入力画像 (b)BPCA (c)Eigenboosting 欠落を補正
識別実験:ATTノイズなし • ROCカーブによる評価 • ノイズなし • Discriminativeな情報のみ(β=1)が最大
識別実験:ATTノイズあり • ROCカーブによる評価 • ノイズあり • D-G双方を考慮(β=0.5)することで性能の低下を防止
識別実験:βに対する識別性能の変化 • EER • 誤検出率=未検出率の際の誤識別率 • ノイズなし • β大 • 最大の識別性能 • ノイズあり • β=0.5付近 • 最大の識別性能 Generativeな情報 ノイズに頑健
弱識別器群の例 (a)β=1 (b)β=0.5 (c)β=0 β大→多くの弱識別器がノイズを使用 β小→大まかな弱識別器が顕著
おわりに • Eigenboosting • Generativeな要素を考慮 • ノイズに対し頑健 • Lowレベルな特徴を使用(Haar-like)
F. Tang and H. Tao. Binary principal component analysis. In Proc. British Machine Vision Conf., volume I, pages 377-386, 2006. BPCA • 2値フィルタを用いた近似 • 線形結合で表現
BPCA (a)PCA (b)BPCA (c)BPCA with Block
AdaBoost 識別器の構築 • AdaBoost - Y.Freund and R.E.Schapire at 1997 – T 個の識別器の重み付き多数決 ``A decision-theoretic generalization of on-line learning and an application to boosting", Journal of Computer and System Sciences, 1997. T回繰り返す
強識別器 • 弱識別器の集合による重みつき多数決