200 likes | 388 Views
Kernel Subspace Method by Stochastic Realization for Learning Nonlinear Dynamical Systems ( Neural Information Processing Systems 2006 ). 東京大学先端科学技術研究センター 矢入 健久,町田 和雄. 東京大学大学院航空宇宙工学専攻 河原 吉伸. 動的システム学習. 時系列入出力データから,その生成モデルを推定する モデルは対象システムの制御や動的特性の解析などに利用. 入出力データ. 動的システム学習. 状態空間モデル. 動的モデル.
E N D
Kernel Subspace Method by Stochastic Realizationfor Learning Nonlinear Dynamical Systems(Neural Information Processing Systems 2006) 東京大学先端科学技術研究センター 矢入 健久,町田 和雄 東京大学大学院航空宇宙工学専攻 河原 吉伸
動的システム学習 • 時系列入出力データから,その生成モデルを推定する • モデルは対象システムの制御や動的特性の解析などに利用 入出力データ 動的システム学習 状態空間モデル 動的モデル ARMAモデル などなど… 応用 : 対象システムの制御,動的特性の解析,…
状態空間モデル 非線形の場合 線形の場合 • 直接観測されない状態ベクトルを用いたモデル表現. • 過去の全ての観測に関する十分統計量となっているため,ARMAモデルなどの入出力のみに関するモデルに比べ,正確に動的システムを表現可能 • その他,物理科学などで得られた解析モデルとのアナロジーが得られやすいなどの特徴があるが,比較的推定は困難.
状態空間学習の分類 入出力データ モデル・データ間の距離の最小化 部分空間上での幾何学的演算 予測誤差 ⇒ 予測誤差法 尤 度 ⇒ EMアルゴリズム 直交分解,CCAによる確率実現 ⇒ 部分空間法 システム行列 状態ベクトル カルマンフィルター 最小二乗法 状態ベクトル システム行列 ○ 高速で数値的に安定,一意解 × 推定精度はやや劣る ○ 高精度(但し初期値依存) × 局所解の問題,要反復計算
Existing Subspace Methods for LearningNonlinear Dynamical Systems • A nonlinear algorithm is essential for learning complex systems which cannot be expressed sufficiently with linear models. • Existing nonlinear subspace methods • Nonlinear approaches with neural networks ・ Based on embedding and regression with neural nets [VVS00] • Nonlinear approaches with reproducing kernels ・ Method for Hammerstein systems with LS-SVM [GPSM05] ・ Method using Kernel CCA on retarded coordinate vectors[VSB+04] => ・ Operate directly toward input-output data ・ Need additional nonlinear regression frameworks • Other approaches ・ Using a conditional expectation algorithm for nonlinear CCA [LB92]
再生核ヒルベルト空間(RKHS) RKHS - - 再生性 正定値カーネル: - 対称性 - 正定値性 1 : 1 … 正定値カーネルにより特徴空間内の が計算可能となる. 暗黙的に,高次元の特徴空間内でのデータ解析が可能となる. ・ 関数値 ・ 内積 カーネル特徴空間 (RKHS) 元のデータ空間
射影定理(1) • ある時刻 に関して,過去の入出力 と未来の入力 から,未来の出力 を予測する問題を考える. 未来の出力(真) 未来の入力 に沿った への射影行列 未来の出力(予測) * 過去の入出力 に沿った への射影行列 * 結合過程
射影定理(2) • 次の2つの仮定をおく. [仮定1] 出力 から入力 へのフィードバックが存在しない [仮定2] が直和分解 を持つ(実用的には,入力 が持続的励起条件を満足していれば十分) • このとき,次の射影定理が成り立つ事が導かれる. 過去の入出力と未来の入力に基づいた,未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. . , 条件付き共分散行列
特徴空間における射影定理 • 前褐の2つの仮定が成立する場合,正定値カーネルで定まる特徴空間においても,同様の条件が成立する事が示せる. • 同様の手順で,特徴空間における射影定理が導出できる. 特徴空間における過去の入出力と未来の入力に基づいた,特徴空間における未来の出力の最適予測は のように与えられる.このとき,各々の射影行列は次式で表される離散 Wiener-Hopf 型方程式を満たす. ,
射影定理から分かる事 • 最適予測子に関する方程式 を書き直すと • 一方,状態空間モデルの観測方程式 となるように , などを選択すればよい
状態ベクトル • 次のように,(拡張)可観測行列,(拡張)可制御行列,および状態ベクトルを定義する. • 状態ベクトルが持つべき性質(マルコフ性)を満足する • 前褐の射影定理と状態空間モデルとの関係が成立する. • 特徴空間上の出力に関するモデルが得られる.
元の空間上の状態空間モデル 特徴空間における出力に関する状態空間モデル と特徴写像の全単射性から が導ける 元の空間における出力に関する状態空間モデル 特徴写像を明示的に含んでいるので計算不可
カーネルPCAを用いた近似 • 基本的な考え方:特徴ベクトル を直接用いる代わりに,カーネル主成分で張られる空間上の特徴ベクトル を用いる • 係数行列 は,例えばグラム行列の固有値分解 より, として計算できる ⇒ (近似)特徴ベクトルが明示的に計算可能 • 明示的に計算する事が可能な,状態ベクトルおよび非線形状態空間モデルが得られる: 経験的共分散行列 特異値分解 により計算可 ・ ・
アルゴリズム (1) Step 1. 正則経験的共分散演算子と,その平方根行列を求める: Step 2. 正規化共分散行列の特異値分解を計算する: Step 3. 状態ベクトルの推定値を計算する: に近い特異値は無視
アルゴリズム (2) Step 4. グラム行列の固有値分解により係数行列 ,, を計算し,次式に最小二乗法を適用してシステム行列を求める. Step 5(カルマンゲインが必要な場合). 残差の共分散行列を計算し,代数リッカチ方程式(本文参照,MATLABで一発)を解き,その安定化解を用いてカルマンゲインを求める.
数値例(1) • 下記の非線形システムから生成したデータを利用 • 0.05秒毎の4,5次のルンゲ・クッタによるシミュレーション • 600点を用いて学習し,新たな400点により評価* • 入力は の間の均一分布から生成 *) 評価は主に次式で表されるシミュレーション誤差を利用 [OM96] シミュレーション値 観測値
数値例(1) 獲得モデルを用いた長期予測の結果 非線形部分空間同定法 (提案手法) 線形部分空間同定法 [KP99] 〃 : 40.2(約10%向上) シミュレーション誤差 : 45.1
数値例(2) • Simulation data of a pH neutralization process in a constant volume stirring tank. • Included in DAISY (DAtasets for the Identification of Systems, which includes several engineering, biological and environmental data). • Inputs: acid solution flow and base solution flow in litters Outputs: pH of the solution in the tank
数値例(2) 獲得モデルを用いた長期予測の結果 非線形部分空間同定法 (提案手法) 線形部分空間同定法 [KP99] 〃 : 22.7(約50%向上) シミュレーション誤差 : 47.0
Conclusions and future works • A kernel subspace method based on stochastic realization for learning nonlinear dynamical systems is proposed. • The algorithm needs no iterative optimization procedures and can obtain solutions using fast and reliable numerical schemes (SVD, etc.). • However, the parameters involve much time and effort for tuning. • Future works : • To incorporate a scheme for optimizing, automatically, the parameters into the proposed method. • To extend other established subspace methods for learning dynamical systems to nonlinear frameworks as well.