Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.

Slides:



Advertisements
Hasonló előadás
Készítette: Kosztyán Zsolt Tibor
Advertisements

Lineáris regressziós MODELLEK
Események formális leírása, műveletek
Nukleáris Képalkotás 2 Rekonstrukció
“Hogyan oldunk meg gyorsan egy csomó számítást?”
Programozási tételek, és „négyzetes” rendezések
Függvények Egyenlőre csak valós-valós függvényekkel foglalkozunk.
Determinisztikus programok. Szintaxis: X : Pvalt program változók E : Kifkifejezések B : Lkiflogikai kifejezések C : Utsutasítások.
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
Rekurzió (Horváth Gyula és Szlávi Péter előadásai felhasználásával)
A konformációs entrópia becslése Gauss-keverék függvények segítségével
Euklidészi gyűrűk Definíció.
Operációkutatás szeptember 18 –október 2.
DIFFERENCIÁLSZÁMÍTÁS ALKALMAZÁSA
Bernoulli Egyenlőtlenség
Mozgó Objektumok Detektálása és Követése Robotkamera Segítségével
Távolság alapú eljárások Hierarchikus eljárások
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
Mesterséges neuronhálózatok
Lineáris programozás Modellalkotás Grafikus megoldás Feladattípusok
Operációkutatás Kalmár János, Hiperbolikus és kvadratikus programozás.
PTE PMMK Matematika Tanszék dr. Klincsik Mihály Matematika III. előadások MINB083, MILB083 Gépész és Villamosmérnök szak BSc képzés 2007/2008. őszi félév.
Matematika III. előadások MINB083, MILB083
Függvények III Logikai függvények. Hamis A HAMIS logikai értéket adja eredményül. HAMIS( ) A függvény alkalmazása helyett egyszerűen beírhatjuk a HAMIS.
Lineáris programozás Definíció: Olyan matematikai programozási feladatot nevezünk lineáris programozási feladatnak, amelyekben az L halmazt meghatározó.
Az Alakfelismerés és gépi tanulás ELEMEI
Lénárt Szabolcs Páll Boglárka
A leggyakrabban használt függvények
Problémás függvények : lokális optimalizáció nem használható Globális optimalizáció.
Optimalizáció modell kalibrációja Adott az M modell, és p a paraméter vektora. Hogyan állítsuk be p -t hogy a modell kimenete az x bemenő adatokon a legjobban.
Hipotézis vizsgálat (2)
A differenciálszámtás alapjai Készítette : Scharle Miklósné
Alapsokaság (populáció)
Két kvantitatív változó kapcsolatának vizsgálata
Költség-minimalizálás az ellenőrző kártyák alkalmazásánál Feladatmegoldás, kiegészítés.
Diszkrét elem módszerek BME TTK, By Krisztián Rónaszegi.
Rendszerek stabilitása
Algoritmizálás, adatmodellezés tanítása 8. előadás.
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
A folytonosság Digitális tananyag.
Az eredő szakasz GE(s) átmeneti függvénye alapján
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Diszjunkt halmazok adatszerkezete A diszjunkt halmaz adatszerkezet diszjunkt dinamikus halmazok S={S 1,…,S n } halmaza. Egy halmazt egy képviselője azonosít.
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Struktúra predikció Struktúra lehet Felügyelt tanulási probléma
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Rekord statisztikák Készítette: Komjáti Bálint IV. évf. fizikus hallgató (ELTE-2006) Györgyi Géza: Extrém érték statisztikák előadásán tartott szemináriumára.
Adatszerkezetek és algoritmusok 2008/ Algoritmus Az algoritmus szó eredete a középkori arab matematikáig nyúlik vissza, egy a i.sz. IX. században.
1 Megerősítéses tanulás 4. előadás Szita István, Lőrincz András.
HÁLÓZAT Maximális folyam, minimális vágás
2. előadás Gyakorisági sorok
A Catalan-összefüggésről
HÁLÓZAT Maximális folyam, minimális vágás
Technológiai folyamatok optimalizálása
Technológiai folyamatok optimalizálása
Kockázat és megbízhatóság
Algebrai geometriai számítások
Gépi tanulási módszerek febr. 18.
Bevezetés Láttuk, hogyan lehet Gauss-görbét illeszteni adatpontokra
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John.
Valószínűségi változók együttes eloszlása
Gazdaságinformatikus MSc
A mesterséges neuronhálók alapjai
Többdimenziós normális eloszlás
A perceptron neurális modell és tanítása
Előadás másolata:

Gauss-keverékmodell és tanítása az Expectation Maximization algoritmussal

Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket a derivált segítségével számoltuk ki

A Gauss-keverékmodell A gyakorlatban általában nyilván nem Gauss-eloszlásból származnak az adatok Új modell: Gauss-eloszlások súlyozott összege Sokkal rugalmasabb, a komponensek számának növelésével tetszőleges alakot fölvehet

Szemléltetés 2D-ben

A modell és a célfüggvény Az általános keverékmodell (λ paraméterekkel): Konkrétan a Gauss-os esetben (N a normális eloszlás): ahol a cj pozitív súlyok összege 1 A λ paramétereket (cj, μj és Σj minden j-re) ismét a Maximum Likelihood célfüggvénnyel szeretnénk optimalizálni!

A Log-likelihood célfüggvény és az Expectation segédfüggvény A ML-célfüggvény (helyett a logaritmusa): egyetlen Gauss esetén zárt képlettel tudtuk maximalizálni (a derivált zérushelyét nézve) Több Gauss esetén ez nem megy, ezért az alábbi segédfüggvényt fogjuk maximalizálni: Miért? Mert általában ezt könnyebb kezelni (pl. deriválni)

Az Expectation Maximization általános tulajdonságai Iteratív: egy iterációban az aktuális λ’ paraméterek mellett olyan új λ paramétereket keres, amelyekre az expectation célfüggvény nagyobb (nem kisebb) Lokális optimum megtalálását garantálja Bármely olyan modell esetén alkalmazható, amely a keverékmodell-sémára épül: A következőkben azt az általános elvet bizonyítjuk, hogy az expectation érték növelése a log-likelihood értéket is növeli; hogy az expectation hogyan növelhető, azt minden modellre külön le kell vezetni!

Az EM működési elve Azt akarjuk garantálni, hogy az aktuális iteráció előtti λ’ és utáni λ paraméterekre teljesüljön, hogy Megmutatjuk, hogy Azaz ha λ maximizálja az expectation függvényt az aktuális λ’ paraméterek esetén, akkor a ML likelihood célfüggvényre értéke is nő

Az EM-elv bizonyítása =1 ≤0 (Jensen-egyenlőtlenség)

A Jensen-egyenlőtlenség Felhasználtuk: Ez általában, tetszőleges p és q eloszlásra is igaz:

Miért hívják „expectation” maximization”-nek? Az expectation célfüggvény feltételes várható értéke (expectation!) az adott xn példák és λ’ modell mellett The EM-algoritmus egy iterációja két lépésből fog állni: „Expectation” (vagy estimation): kiszámoljuk az expectation számításához szükséges értékeket „Maximization”: az adott értékek mellett maximalizáljuk a célfüggvényt λ -ra

Alkalmazás a Gauss-keverékmodell esetén Az expectation függvény a derivált vizsgálatával zárt képlet formájában maximalizálható Az egész iteratív folyamat inicializálása, azaz a kezdőértékek beállítása: k-közepű klaszterezéssel