1 / 49

Független Komponens Analízis

Független Komponens Analízis. Póczos Barnabás NIPG ELTE-IK. Tartalom. ICA alkalmazások ICA információ elmélet Nemlineáris korreláció ICA ML ICA Fast ICA Nemlineáris keresztkorreláció minimalizáció. A Független Komponens Analízis (ICA).

gerda
Download Presentation

Független Komponens Analízis

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Független Komponens Analízis Póczos Barnabás NIPG ELTE-IK

  2. Tartalom • ICA alkalmazások • ICA információ elmélet • Nemlineáris korreláció ICA • ML ICA • Fast ICA • Nemlineáris keresztkorreláció minimalizáció

  3. A Független Komponens Analízis (ICA) • Vak Forrás Szeparáció (BSS) más névenFüggetlen Komponens Analízis (ICA) független forrásokból kevert jelek újra szétválasztására szolgál. • Amíg PCA olyan irányokat keres,melyre |x0 - x|2minimális, addig ICA olyan irányokat választ, melyben az adatok a lehető legfüggetlenebbek.

  4. ICA alkalmazási lehetőségek Blind source separation (Bell&Sejnowski, Te won Lee, Girolami, Hyvarinen, etc.) Image denoising (Hyvarinen) Medical signal processing – fMRI, ECG, EEG (Mackeig) Modelling of the hippocampus and visual cortex (Lorincz, Hyvarinen) Feature extraction (feature extraction), arcfelismerés (Marni Bartlett) Compression, redundancy reduction clustering (Girolami, Kolenda) Time series analysis (Back, Valpola) Pénzügyi alkalmazások

  5. A “Koktél Parti” probléma Megfigyelések Források Becslések A s x = As y=Wx

  6. Független Komponens Analízis A két jel keveréke Két független jel aIJ ... Jelentése a mikrofonoktól való távolság A becslés ICA alkalmazása után

  7. Független komponens analízis természetből vett képeken

  8. Főkomponens Analízis bázisok természetből vett képeken

  9. ICA bázisok természetből vett képeken

  10. ICA mozgó képeken

  11. PCA ICA MPPCA PCA vs ICA, Mixture of Probabilistic PCA

  12. ICA-PCA bázisok öröm arckifejezésekből

  13. ICA-PCA bázisok megelpetés arckifejezésekből

  14. ICA-PCA bázisok undor arckifejezésekből

  15. Supervised data Activity distributions of within-category test movies are much narrower Test data ICA activity for classification, novelty detection

  16. ICA elméleti kérdések

  17. Alapfogalmak • Entrópia • Együttes entrópia • Negentrópia • Kölcsönös Információ • Kullback-Leibler távolság

  18. Higher order moment and cumulants[Comon 94, Hyvarinen 97] Nonlinear PCA[Karhunen 94; Oja 97] Maximalization of information transfer[Bell & Sejnowski 95; Amari 96; Lee 97-98] Maximum likelihood[MacKay 96; Pearlmutter & Parra 96; Cardoso 97] Negentropy maximalization[Girolami & Fyfe 97] Nemlineáris kersztkorreláció minimalizáció [Jutten-Herault, Cardoso] Különböző ICA megközelítések

  19. ICA alapprobléma x1, x2, … xn, s1, s2, … sn, x=As x = iaisi ICA = generatív modell: leírja, hogyan generálódik az input ICA feladat: s=Wx ?eredeti jelek?

  20. Bizonytalanságok • Nem tudjuk megmondani • a változók szórását • a változók sorrendjét WP is jó, ha P permutáló mátrix

  21. Feltételek a legegyszerűbb esetben Ugyanannyi mikrofon van, mint hangszóró. A keverő mátrix teljes rangú. A források minden időpontban statisztikailag függetlenek. A források idősora stacionárius. Legfeljebb egy forrás lehet normális eloszlású.  Ekkor a források permutációtól, skálázástól és előjeltől eltekintve visszaállíthatóak.

  22. Statisztikai függetlenség Def y1,y2 val. változók függetlnek, ha p(y1,y2) = p1(y1) p2(y2) Állítás: Ekkor bármely h függvényre: E[h1(y1)h2(y2)] = E[h1(y1)) E(h2(y2)] Biz: E[h1(y1)h2(y2)] =   p(y1,y2) h1(y1)h2(y2) dy1dy2 = =  h1(y1) p1(y1) dy1  p2(y2) h2(y2) dy2 = = E[h1(y1)] E[h2(y2)]

  23. Korrelálatlanság, fehér adatok Def y1,y2 val. változók korrelálatlanok (fehérek), ha E[y1y2] = E[y1] E [y2] • Speciálisan, ha y1,y2 függetlenek, akkor korrelálatlanok. • Ha y1,y2 korrelálatlanok, abból nem következik,hogy függetlenek.

  24. y2 1/4 1/4 1/4 y1 1/4 korrelálatlanság  függetlenség Ezekre E[y1y2] = E[y1] E [y2]=0 De E[y12y22] =0  1=E[y12] E [y22]

  25. Gauss eloszlás nem jó • A standard többdimenziós eloszlás minden ortogonális transzformáltja ugyanúgy néz ki p(x,y) ~ exp(-0.5*(x2+y2))

  26. ICA algoritmusok • Távolodjunk a normális eloszlástól megközelítés: • Kurtózis alapján • Negentrópia alapján • Kölcsönös információ minimalizálás • Maximum likelihood becslés • Nemlineáris keresztkorreláció minimalizálás • FastICA algoritmus

  27. Maximum Likelihood ICA becslés

  28. Zajmentes Maximum Likelihood ICA x(t) = As(t), t=1,2,..., s(t)Rn, t=1,2..., eredeti, ismeretlen források x(t)Rm, t=1,2.. a megfigyelt keverékek ARn x m, az ismeretlen keverő mátrix Feltesszük, hogy a források fisűrűség függvényeismert pl Cauchy eloszlású

  29. David J.C. MacKay (97) ML derivation of squared ICA

  30. Távolodjunk a normális eloszlástól megközelítés

  31. Távolodjunk a normális eloszlástól megközelítés • Az ML módszernél kellett a sűrűség függvények ismerete, pedig az gyakran ismeretlen. • Centrális Határeloszlás Tétel: A független források keveréke közelebb kerül a normális eloszláshoz. • ICA célja: Úgy keverjük az adatokat, hogy a normális eloszlástól minél távolabb kerüljünk. • Kell egy normális eloszlástól való távolság mérték: • Negentrópia maximalizálás • Kurtózis abszolút értékének maximalizálása

  32. Cél: Normális eloszlástól minél távolabb kerülni • Kétféle módon lehet • Gauss-nál élesebben tart nullához • ‘sub-gaussian’ • Gauss-nál lassabban tart nullához (nagy eltérések valószínűsége viszonylag nagy) • ‘super-gaussian’

  33. Normális eloszlástól való távolság mérése Kurtózis Független x,y változókra: kurt(x+y)=kurt(x)+kurt(y) kurt(x) = 4 kurt(x)

  34. Negentrópia Entrópia: H(y) = - f(y) log f(y) dy Negentrópia: J(y) = H(yGauss) – H(y)  0 azonos varianciájú eloszlásokra A feladat tehát: Állítás: J(y) invariáns lineáris transzformációkra nézve J(y) = J(Ay)

  35. Negentrópia közelítései J(y) ≈ (E[y3])2 /12 + (kurt(y))2/48 Kurtózis problémája az „outlier” (kiugró kivétel) Általánosabb közelítés: J(y) ≈ i ki(E[Gi(y)] – E[Gi(Gauss)])2 aholki >0 konstans Gi(y) függvények Gauss standard normális

  36. Speciálisan 1 db k-ra J(y) ≈ (E[G(y)] – E[G(yGauss)])2 Állítás: G(y)= y4 választással J(y) ≈ E[y3]2 /12 + kurt(y)2/48 mert a várható érték számításakor integrálni kell a sűrűségfüggvényt.

  37. Egyéb gyakran alkalmazott nemlinearitások G(y) = a-1 log cosh (ay) 1  a  2 G(y) = exp(-y2) Azért, hogy a becsléseink robosztusak legyenek fontos, hogy G ne nőjön túl gyorsan.

  38. A Kölcsönös Információ minimalizálásán alapuló ICA algoritmusok

  39. Kölcsönös Információ Minimalizációja I(y1,…,ym) = i H(yi) – H(y1,…,ym) 0 Áll I(y1,…,ym) = 0  y1,…,ym függetlenek A feladat: minW I(y1,…,ym) Ha y=Wx, akkor I(y1,…,ym) = i H(yi) – H(x1,…,xm) + +log |detW|

  40. Kölcsönös Információ Minimalizációja Ha yk-k közül csak a korrelálatlan és az egységnyi varianciájúak érdekelnek, akkor 1 = E[yyT] = E[ WxxTWT] = detW E[xxT] detWT Tehát, detW konstans

  41. Kölcsönös Információ Minimalizációja A feladat: minW I(y1,…,ym) y=Wx I(y1,…,ym) = i H(yi) – H(x1,…,xm) + log |detW| detW, H(x1,…,xm) konstans A feladat: minW i H(yi) Az outputok egyenkénti entrópia összege legyen minél kisebb.

  42. Kölcsönös Információ Minimalizációja Tehát detW konstans. No de rögzített variancia esetén az entrópia és negentrópia csak konstansban különböznek: H(yi)=C’-J(yi) I(y1,…,ym) = i H(yi) – H(y1,…,ym) = = i H(yi) – H(x1,…,xm) + log |detW| = C - i J(yi) Tehát a feladat: maxW i J(yi)

  43. KIM I(y1,…,ym) = C - i J(yi)  0  KIM-en alapuló ICA eljárás ekvivalens az egyes komponensek összegzett nem-Gauss jellegének maximalizációjával úgy, hogy az egyes komponensek dekorreláltak.

  44. Független Komponens AnalízisKölcsönös Információ minimalizálása

  45. Fast ICA algoritmus

  46. Fast ICA algoritmus Állítás: Az ICA feladat megoldása megkapható bizonyos G függvényekre a min vagy maxw E[G(wTx)] feladat megoldásaként az E[(wTx)2] = ||w||2 kényszer mellett 0 = E[xG’(wTx)] – w = F(w) w F(w) = E[xxTG’’(wTx)] – I

  47. Fast ICA algoritmus Közelítés: E[xxTG’’(wTx)] ≈ E[xxT]E[G’’(wTx)] =E[G’’(wTx)] Oldjuk meg az előbbi feladatot Newton módszerrel: w+ = w – (E[xG’(wTx)] – w )(E[G’’(wTx)] – )-1 Ez tovább egyszerüsíthető: w+ = E[xG’(wTx)] – E[G’’(wTx)]w w+  w+ / ||w+||

More Related