1 Független Komponens Analízis Póczos Barnabás NIPG ELTE-IK.

Slides:



Advertisements
Hasonló előadás
Lineáris regressziós MODELLEK
Advertisements

Összetett kísérleti tervek és kiértékelésük:
I. előadás.
Kvantitatív Módszerek
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Számítógépes algebrai problémák a geodéziában
Sűrűségfüggvény Parzen becslés Mintapontszám, szigma.
Operációkutatás szeptember 18 –október 2.
Bayes hálók október 20. Farkas Richárd
Mozgó Objektumok Detektálása és Követése Robotkamera Segítségével
Lineáris és nemlineáris regressziók, logisztikus regresszió
Dimenziócsökkentés, valamint jellemzőszelekciós eljárások
Gépi tanulási módszerek febr. 20.
Főkomponensanalízis Többváltozós elemzések esetében gyakran jelent problémát a vizsgált változók korreláltsága. A főkomponenselemzés segítségével a változók.
Mérési pontosság (hőmérő)
Becsléselméleti ismétlés
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
Bayes becslések Boha Roland november 21. PPKE-ITK.
III. előadás.
Regresszióanalízis 10. gyakorlat.
Főkomponens és faktor analízis
KÉT FÜGGETLEN, ILL. KÉT ÖSSZETARTOZÓ CSOPORT ÖSZEHASONLÍTÁSA
Nem-paraméteres eljárások, több csoport összehasonlítása
Kovarianciaanalízis Tételezzük fel, hogy a kvalitatív tényező(k) hatásának azonosítása után megmaradó szóródás egy részének eredete ismert, és nem lehet,
Dr. Szalka Éva, Ph.D.1 Statisztika II. VI.. Dr. Szalka Éva, Ph.D.2 Regresszióanalízis.
1 TARTALOM: 0. Kombinatorika elemei (segédeszközök) 1. Eseményalgebra 2. A valószínűség: a) axiómák és következményeik b) klasszikus (=kombinatorikus)
Készítette: Kosztyán Zsolt Tibor
Az Alakfelismerés és gépi tanulás ELEMEI
Véletlenszám generátorok
Egytényezős variancia-analízis
Gyengén nemlineáris rendszerek modellezése és mérése Készítette: Kis Gergely Konzulens: Dobrowieczki Tadeusz (MIT)
Kvantitatív Módszerek
Idősor elemzés Idősor : időben ekvidisztáns elemekből álló sorozat
Gazdaságstatisztika 13. előadás.
Hipotézis vizsgálat (2)
Többváltozós adatelemzés
Többváltozós adatelemzés
Többváltozós adatelemzés
Következtető statisztika 9.
A sztochasztikus kapcsolatok (Folyt). Korreláció, regresszió
Alapsokaság (populáció)
Alapfogalmak.
Lineáris regresszió.
Folytonos eloszlások.
Két kvantitatív változó kapcsolatának vizsgálata
Paleobiológiai módszerek és modellek 7. Hét TÖBBVÁLTOZÓS ADATELEMZÉS
I. előadás.
A szóráselemzés gondolatmenete
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19)
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Spike Sorting Solutions Csercsa Richárd Magony Andor.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Rekord statisztikák Készítette: Komjáti Bálint IV. évf. fizikus hallgató (ELTE-2006) Györgyi Géza: Extrém érték statisztikák előadásán tartott szemináriumára.
Mesterséges Neurális Hálózatok 3. előadás
Összetett kísérleti tervek és kiértékelésük Többszempontos varianciaanalízis-modellek (keresztosztályozások, blokkelrendezések)
Félévközi követelmények HMV hőigények meghatározása Rendszerkialakítások Vízellátás, csatornázás, gázellátás Épületgépészeti és Gépészeti Eljárástechnika.
Lineáris regressziós modellek
Dr. Varga Beatrix egyetemi docens
Gépi tanulási módszerek febr. 18.
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
Valószínűségi változók együttes eloszlása
Valószínűségi törvények
Többdimenziós normális eloszlás
2. Regresszióanalízis Korreláció analízis: milyen irányú, milyen erős összefüggés van két változó között. Regresszióanalízis: kvantitatív kapcsolat meghatározása.
Előadás másolata:

1 Független Komponens Analízis Póczos Barnabás NIPG ELTE-IK

2 Tartalom ICA alkalmazások ICA információ elmélet Nemlineáris korreláció ICA ML ICA Fast ICA Nemlineáris keresztkorreláció minimalizáció

3 A Független Komponens Analízis (ICA) Vak Forrás Szeparáció (BSS) más néven Független Komponens Analízis (ICA) független forrásokból kevert jelek újra szétválasztására szolgál. Amíg PCA olyan irányokat keres, melyre  |x 0 - x| 2 minimális, addig ICA olyan irányokat választ, melyben az adatok a lehető legfüggetlenebbek.

4 ICA alkalmazási lehetőségek Blind source separation (Bell&Sejnowski, Te won Lee, Girolami, Hyvarinen, etc.) Image denoising (Hyvarinen) Medical signal processing – fMRI, ECG, EEG (Mackeig) Modelling of the hippocampus and visual cortex (Lorincz, Hyvarinen) Feature extraction (feature extraction), arcfelismerés (Marni Bartlett) Compression, redundancy reduction clustering (Girolami, Kolenda) Time series analysis (Back, Valpola) Pénzügyi alkalmazások

5 A “Koktél Parti” probléma Források Megfigyelések x = As Becslések s A y=Wx

6 Független Komponens Analízis Két független jel A két jel keveréke a IJ... Jelentése a mikrofonoktól való távolság A becslés ICA alkalmazása után

7 Független komponens analízis természetből vett képeken

8 Főkomponens Analízis bázisok természetből vett képeken

9 ICA bázisok természetből vett képeken

10 ICA mozgó képeken

11 PCA vs ICA, Mixture of Probabilistic PCA PCA ICA MPPCA

12 ICA-PCA bázisok öröm arckifejezésekből

13 ICA-PCA bázisok megelpetés arckifejezésekből

14 ICA-PCA bázisok undor arckifejezésekből

ICA activity for classification, novelty detection Activity distributions of within-category test movies are much narrower Supervised data Test data

16 ICA elméleti kérdések

17 Alapfogalmak Entrópia Együttes entrópia Negentrópia Kölcsönös Információ Kullback-Leibler távolság

18 Higher order moment and cumulants [Comon 94, Hyvarinen 97] Nonlinear PCA [Karhunen 94; Oja 97] Maximalization of information transfer [Bell & Sejnowski 95; Amari 96; Lee 97-98] Maximum likelihood [MacKay 96; Pearlmutter & Parra 96; Cardoso 97] Negentropy maximalization [Girolami & Fyfe 97] Nemlineáris kersztkorreláció minimalizáció [Jutten-Herault, Cardoso] Különböző ICA megközelítések

19 ICA alapprobléma x 1, x 2, … x n, s 1, s 2, … s n, x=As x =  i a i s i ICA = generatív modell: leírja, hogyan generálódik az input ICA feladat: s=Wx  ?eredeti jelek?

20 Bizonytalanságok Nem tudjuk megmondani –a változók szórását –a változók sorrendjét WP is jó, ha P permutáló mátrix

21 Feltételek a legegyszerűbb esetben Ugyanannyi mikrofon van, mint hangszóró. A keverő mátrix teljes rangú. A források minden időpontban statisztikailag függetlenek. A források idősora stacionárius. Legfeljebb egy forrás lehet normális eloszlású.  Ekkor a források permutációtól, skálázástól és előjeltől eltekintve visszaállíthatóak.

22 Statisztikai függetlenség Def y 1,y 2 val. változók függetlnek, ha p(y 1,y 2 ) = p 1 (y 1 ) p 2 (y 2 ) Állítás: Ekkor bármely h függvényre: E[h 1 (y 1 )h 2 (y 2 )] = E[h 1 (y 1 )) E(h 2 (y 2 )] Biz: E[h 1 (y 1 )h 2 (y 2 )] =   p(y 1,y 2 ) h 1 (y 1 )h 2 (y 2 ) dy 1 dy 2 = =  h 1 (y 1 ) p 1 (y 1 ) dy 1  p 2 (y 2 ) h 2 (y 2 ) dy 2 = = E[h 1 (y 1 )] E[h 2 (y 2 )]

23 Korrelálatlanság, fehér adatok Def y 1,y 2 val. változók korrelálatlanok (fehérek), ha E[y 1 y 2 ] = E[y 1 ] E [y 2 ] Speciálisan, ha y 1,y 2 függetlenek, akkor korrelálatlanok. Ha y 1,y 2 korrelálatlanok, abból nem következik,hogy függetlenek.

24 korrelálatlanság  függetlenség y1y1 y2y2 1/4 Ezekre E[y 1 y 2 ] = E[y 1 ] E [y 2 ]=0 De E[y 1 2 y 2 2 ] =0  1=E[y 1 2 ] E [y 2 2 ]

25

26 Gauss eloszlás nem jó A standard többdimenziós eloszlás minden ortogonális transzformáltja ugyanúgy néz ki p(x,y) ~ exp(-0.5*(x 2 +y 2 ))

27 ICA algoritmusok Távolodjunk a normális eloszlástól megközelítés: –Kurtózis alapján –Negentrópia alapján Kölcsönös információ minimalizálás Maximum likelihood becslés Nemlineáris keresztkorreláció minimalizálás FastICA algoritmus

28 Maximum Likelihood ICA becslés

29 Zajmentes Maximum Likelihood ICA x(t) = As(t), t=1,2,..., s(t)  R n, t=1,2..., eredeti, ismeretlen források x(t)  R m, t=1,2.. a megfigyelt keverékek A  R n x m, az ismeretlen keverő mátrix Feltesszük, hogy a források f i sűrűség függvénye ismert pl Cauchy eloszlású

30 ML derivation of squared ICA David J.C. MacKay (97)

31 Távolodjunk a normális eloszlástól megközelítés

32 Távolodjunk a normális eloszlástól megközelítés Az ML módszernél kellett a sűrűség függvények ismerete, pedig az gyakran ismeretlen. Centrális Határeloszlás Tétel : A független források keveréke közelebb kerül a normális eloszláshoz. ICA célja: Úgy keverjük az adatokat, hogy a normális eloszlástól minél távolabb kerüljünk. –Kell egy normális eloszlástól való távolság mérték: Negentrópia maximalizálás Kurtózis abszolút értékének maximalizálása

33 Cél: Normális eloszlástól minél távolabb kerülni Kétféle módon lehet –Gauss-nál élesebben tart nullához ‘sub-gaussian’ –Gauss-nál lassabban tart nullához (nagy eltérések valószínűsége viszonylag nagy) ‘super-gaussian’

34 Normális eloszlástól való távolság mérése Kurtózis Független x,y változókra: kurt(x+y)=kurt(x)+kurt(y) kurt(  x) =  4 kurt(x)

35

36 Negentrópia Entrópia: H(y) = -  f(y) log f(y) dy Negentrópia: J(y) = H(y Gauss ) – H(y)  0 azonos varianciájú eloszlásokra A feladat tehát: Állítás: J(y) invariáns lineáris transzformációkra nézve J(y) = J(Ay)

37 Negentrópia közelítései J(y) ≈ (E[y 3 ]) 2 /12 + (kurt(y)) 2 /48 Kurtózis problémája az „outlier” (kiugró kivétel) Általánosabb közelítés: J(y) ≈  i k i ( E[G i (y)] – E[G i ( Gauss )] ) 2 ahol k i >0 konstans G i (y) függvények Gauss standard normális

38 Speciálisan 1 db k-ra J(y) ≈ ( E[G (y)] – E[G(y Gauss )] ) 2 Állítás: G(y)= y 4 választással J(y) ≈ E[y 3 ] 2 /12 + kurt(y) 2 /48 mert a várható érték számításakor integrálni kell a sűrűségfüggvényt.

39 Egyéb gyakran alkalmazott nemlinearitások G(y) = a -1 log cosh (ay)1  a  2 G(y) = exp(-y 2 ) Azért, hogy a becsléseink robosztusak legyenek fontos, hogy G ne nőjön túl gyorsan.

40 A Kölcsönös Információ minimalizálásán alapuló ICA algoritmusok

41 Kölcsönös Információ Minimalizációja I(y 1,…,y m ) =  i H(y i ) – H(y 1,…,y m )  0 Áll I(y 1,…,y m ) = 0  y 1,…,y m függetlenek A feladat: min W I(y 1,…,y m ) Ha y=Wx, akkor I(y 1,…,y m ) =  i H(y i ) – H(x 1,…,x m ) + +log |detW|

42 Kölcsönös Információ Minimalizációja Ha y k -k közül csak a korrelálatlan és az egységnyi varianciájúak érdekelnek, akkor 1 = E[yy T ] = E[ Wxx T W T ] = detW E[xx T ] detW T Tehát, detW konstans

43 Kölcsönös Információ Minimalizációja A feladat: min W I(y 1,…,y m ) y=Wx I(y 1,…,y m ) =  i H(y i ) – H(x 1,…,x m ) + log |detW| detW, H(x 1,…,x m ) konstans  A feladat: min W  i H(y i ) Az outputok egyenkénti entrópia összege legyen minél kisebb.

44 Kölcsönös Információ Minimalizációja Tehát detW konstans. No de rögzített variancia esetén az entrópia és negentrópia csak konstansban különböznek: H(y i )=C’-J(y i ) I(y 1,…,y m ) =  i H(y i ) – H(y 1,…,y m ) = =  i H(y i ) – H(x 1,…,x m ) + log |detW| = C -  i J(y i ) Tehát a feladat: max W  i J(y i )

45 KIM I(y 1,…,y m ) = C -  i J(y i )  0  KIM-en alapuló ICA eljárás ekvivalens az egyes komponensek összegzett nem-Gauss jellegének maximalizációjával úgy, hogy az egyes komponensek dekorreláltak.

46 Független Komponens Analízis Kölcsönös Információ minimalizálása

47 Fast ICA algoritmus

48 Fast ICA algoritmus Állítás: Az ICA feladat megoldása megkapható bizonyos G függvényekre a min vagy max w E[G(w T x)] feladat megoldásaként az E[(w T x) 2 ] = ||w|| 2 kényszer mellett 0 = E[xG’(w T x)] –  w = F(w)  w F(w) = E[xx T G’’(w T x)] –  I

49 Fast ICA algoritmus Közelítés: E[xx T G’’(w T x)] ≈ E[xx T ]E[G’’(w T x)] =E[G’’(w T x)] Oldjuk meg az előbbi feladatot Newton módszerrel: w + = w – ( E[xG’(w T x)] –  w )( E[G’’(w T x)] –  ) -1 Ez tovább egyszerüsíthető: w + = E[xG’(w T x)] – E[G’’(w T x)]w w +  w + / ||w + ||