Naïve Bayes, HMM.

Slides:



Advertisements
Hasonló előadás
Készítette: Kosztyán Zsolt Tibor
Advertisements

I. előadás.
Valószínűségszámítás
Korpusz-alapú szövegfelolvasó rendszer fejlesztése
Takács György 15. előadás Készítette Feldhoffer Gergely
Rendszerfejlesztés.
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
Kalman-féle rendszer definíció
Sűrűségfüggvény Parzen becslés Mintapontszám, szigma.
Digitális képanalízis
PhD beszámoló 2002/2003 II. félév Készítette: Iváncsy Renáta Konzulens: Dr. Vajk István.
Címkézett hálózatok modellezése
Bayes hálók október 20. Farkas Richárd
Szintaktikai elemzés február 23..
Dokumentum klasszifikáció október 12.. Dokumentum klasszifikáció Feladat: Dokumentumok automatikus előre definiált osztályokba sorolása. Dokumentum:
Mozgó Objektumok Detektálása és Követése Robotkamera Segítségével
Bevezetés a gépi tanulásba február 16.. Mesterséges Intelligencia „A számítógépes tudományok egy ága, amely az intelligens viselkedés automatizálásával.
Generatív (Bayesi) modellezés ápr Slides by (credit to): David M. Blei Andrew Y. Ng, Michael I. Jordan, Ido Abramovich, L. Fei-Fei, P. Perona,
3(+1) osztályozó a Bayes világból
Távolságok, hasonlósági mértékek, dinamikus idővetemítés.
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
Rangsorolás tanulása ápr. 24..
Szintaktikai elemzés március 1.. Gépi tanulás Osztályozási feladat: Adott egyedek egy halmaza és azok osztályba tartozási függvénye (tanító halmaz),
MEMM (Maximum Entrópia Markov Modell). A label-bias probléma Tanító adatbázis gold standard címkéin tanulunk, kiértékelni a generálton. Túl tökéletes,
Dr. Szalka Éva, Ph.D.1 Statisztika II. VII.. Dr. Szalka Éva, Ph.D.2 Mintavétel Mintavétel célja: következtetést levonni a –sokaságra vonatkozóan Mintavétel.
T.Gy. Beszedfelism es szint Beszédfelismerés és beszédszintézis Beszédfelismerés neurális hálózatokkal Takács György 13. előadás 2012.
A digitális számítás elmélete
AVL fák.
Vámossy Zoltán 2006 Gonzales-Woods, SzTE (Kató Zoltán) anyagok alapján
A jelátvivő tag Az irányítástechnika jelátvivő tagként vizsgál minden olyan alkatrészt (pl.: tranzisztor, szelep, stb.), elemet vagy szervet (pl.: jelillesztő,
{ Közösségi spammelés felismerése és eliminálása Kivonat – Pletser József.
Miskolci Egyetem Informatikai Intézet Általános Informatikai Tanszé k Pance Miklós Adatstruktúrák, algoritmusok előadásvázlat Miskolc, 2004 Technikai közreműködő:
1 TARTALOM: 0. Kombinatorika elemei (segédeszközök) 1. Eseményalgebra 2. A valószínűség: a) axiómák és következményeik b) klasszikus (=kombinatorikus)
Az Alakfelismerés és gépi tanulás ELEMEI
Szemantikus keresők.
Készítette: Terdik Sándor PTM IV. Ismeretszerzés természetes nyelvű dokumentumokból.
Optimalizáció modell kalibrációja Adott az M modell, és p a paraméter vektora. Hogyan állítsuk be p -t hogy a modell kimenete az x bemenő adatokon a legjobban.
Matematikai eszközök a környezeti modellezésben
Valószínűségszámítás
Gazdaságstatisztika 11. előadás.
Többváltozós adatelemzés
Alapfogalmak.
Folytonos eloszlások.
I. előadás.
MI 2003/ Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási.
Nicsak, ki beszél – már a számítógépek is... Szita István Eötvös Collegium.
Keresés a weben Kulcsszavas keresés: Google (
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Nyelvi interfészek. IBM Watson 8:20 ill. 3:00.
Gráfok ábrázolása teljesen láncoltan
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Csoportkeresési eljárások Vassy Zsolt. Tematika Girvan Newman klaszterezés Diszkrét Markov lánc: CpG szigetek Rejtett Markov lánc ADIOS.
Kiterjesztések szemantikája: Szemantikai tartomány : Adatoknak, vagy értékeknek egy nem üres halmazát szemantikai tartománynak nevezzük. Jelölése: D. Egy.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Struktúra predikció Struktúra lehet Felügyelt tanulási probléma
PPKE ITK 2004/05 tanév IV. évfolyam Őszi félév Távközlő rendszerek forgalmi elemzése Tájékoztatás GY. - 7.
PPKE ITK 2005/06 tanév 7. szemeszter Őszi félév Távközlő rendszerek forgalmi elemzése Tájékoztatás GY. - 8.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Adatbázisszintű adatmodellek
I. Előadás bgk. uni-obuda
Mesterséges intelligencia
Gépi tanulási módszerek febr. 18.
Bevezetés Tematika Számonkérés Irodalom
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John.
A mesterséges neuronhálók alapjai
A Bayes-döntéselmélet alapjai
Algoritmusok és Adatszerkezetek I.
Előadás másolata:

Naïve Bayes, HMM

Bevezető fogalmak Bayes-szabály: Elnevezések: Más terminológia: ha h egy osztályhoz tartozást jelent, akkor P(d|h) angol neve “class-conditional probability”

Hipotézis választás Maximum a posteriori: Maximum likelihood: A kettő közötti összefüggést adja meg a Bayes szabály. A kettő közötti eltérés jól láthatóan: Az ML nem veszi figyelembe a hipotézis előzetes valószínűségét.

Naïve Bayes osztályozó Az input adatok többváltozós vektorok feltesszük az egyes attribútumok teljes függetlenségét (feltéve h-t), ekkor: ez a függetlenségi feltevés általában nem teljesül a gyakorlatban mégis meglepően jól használható az egyes attribútumok külön modellezése, majd a valószínűségek szorzata alapján történő osztályozás. Jóval kevesebb paramétert kell becsülni tanításkor Jó eredmények: szövegklasszifikációban, orvosi diagnosztikában Tehát, döntés a Naïve Bayes-szel:

Példa: SPAM szűrés (szövegkategorizálás) attribútumok: szóelőfordulás szógyakoriság szó-pozíció gyakoriság tf-idf (term frequency* inverse document frequency): szógyakoriság az adott dokumentumon belül*log(1/(szóelőfordulás-gyakoriság a különböző dokumentumokban) URL, e-mail cím stb… A tanító és teszt adatok feldolgozásához mi szükséges: stammer: szótöveket képez POS (part of speech) tagger: --> megadja a szófajokat, ezek alapján szűrjük a levélben levő szavakat esetleg lexikális v. szemantikus elemző, stb. (pontosítják a szófajt) “stop words”: nem informatív, de gyakori szavak listája, pl. az, én, lesz, … Attribútumszelekciós eljárások Naive Bayes: az attribútumok egyenkénti valószínűségi modellezése, pl. egyszerű gyakoriság hisztogrammal, vagy pl. Poisson eloszlással.

HMM Hidden Markov Model (Rejtett Markov Modell) Változó hosszú (elemszámú) jellemzővektor-sorozat felismerésére (osztályozására, rangsorolására, ...) Alkalmazás pl. beszédfelismerés, kézírásfelismerés, protein (fehérje) klasszifikáció

Előzmény: dinamikus idővetemítés (DTW), átmenet-költséggel:

Egy ún. balról-jobbra típusú HMM ettől a következőkben tér el: minimális költség helyett: maximális valószínűség referenciavektorok helyett statisztikai, eloszlás alapú pontozás átmenet-költség helyett átmeneti valószínűséget határoz meg a tanítás során

HMM: állapotok (a gráfban csomópontok) az állapotokhoz valószínűségi eloszlások vannak rendelve állapotokból másik állapotokba léphetünk (elnevezés: állapot-átmenet valószínűség), megadása: állapot átmenet mátrix nem 0 elemei topológia tetszőleges lehet 2 segéd állapot: kezdő és végállapot (ebből ill. ebbe csak átmeneti valószínűség van megadva) Balról-jobbra modell

a HMM alaptulajdonsága: markovi: Jelölések Állapotok: 1,2,...,n t. időponthoz tartozó állapot: qt ({1,2,...,n}) felismerendő jellemzővektor a t. időpontban: yt a HMM alaptulajdonsága: markovi: annak a valószínűsége, hogy a rendszer mit csinál egy adott állapotában (az ún. kibocsátási és átmeneti valószínűség), csak az aktuális állapottól függ, az előzményeknek nincs szerepe. P(yt |{q1,...,qt},{y1,...,yt-1})=P(yt |qt) P(qt+1 |{q1,...,qt},{y1,...,yt-1})=P(qt+1 |qt)

A tanítandó paraméterek: Egy jellemzővektor-sorozat egy állapotsorozathoz tartozó valószínűsége: P({q1,...,qt},{y1,...,yt})=P(q1)(P(qt+1|qt)) (P(yt|qt)) Összegezve a lehetséges állapotsorozatokra: P({y1,...,yt})=( P(q1)(P(qt+1|qt)) (P(yt|qt)) ) A tanítandó paraméterek: ai,j=P(qt+1=j|qt=i) (t=1,2,...) bi(y)=P(yt=y|qt=i) (t=1,2,...) i=P(q1=i) Ezekkel a jelölésekkel: P({y1,...,yt})=(i1 bi1(y1)ai1,i2bi2(y2) ai2,i3...)

Tanítás Minden modellezendő osztályhoz egy-egy HMM-et tanítunk (jelöljük az aktuális modellt Θ-val) a tanítószekvenciákat jelöljük {Y1,…,YM}-mel Maximum-likelihood (Baum-Welch): az eljárást nem részletezzük MAP (Viterbi): a modell paramétereit úgy becsüljük újra iteratívan, hogy a modell a megfigyelésekre a lehető legjobban illeszkedjen. Egyfajta egyszerű besorolás-újrabecslés eljárás a tanítás Ezt sem részletezzük...

Tesztelés Pontozás a teljes valószínűséggel: összegezve minden lehetséges állapotsorozatra: P({y1,...,yN})=(i1 bi1(y1)ai1,i2bi2(y2) ai2,i3...) Pontozás a maximális valószínűségű állapotsorozat alapján (Viterbi): az előbbi összegzés helyett maximum. Általában jó közelítése a teljes valószínűségnek, gyors, és kevés memóriát igényel, valamint a maximális valószínűséghez tartozó állapotsorozatot is szolgáltatja.

Felhasználások pl. Beszédfelismerés, beszélőazonosítás, indexelés, stb. Rokon terület: kézírásfelismerés Fehérje besorolás

HMM a beszédfelismerésben: kevés szó esetén, izolált szavas felismerési feladatnál minden szót egy-egy HMM-mel modellezhetünk sokszavas, ill. folyamatos beszédfelismerésnél fonetikai egységeket modellezünk HMM-mel pl. a hang, b hang, stb., de lehet trifón (hangkapcsolat) modellezés, pl. „a”, ami előtt „b” volt ejtve, és „t” következik utána. A fonéma szintű HMM-ekből a nyelvi modell támogatásával magasabb szintű HMM láncok épülnek fel A keresési teret N-legjobb, illetve Viterbi vágás (valószínűségre adott küszöbérték) (stb.) segítségével szűkítjük.

Beszédfelismerésben használatos HMM-ek: balról-jobbra modellek a „kibocsátási valószínűségi” (tehát az állapotokhoz rendelt) eloszlások GMM-ek használatosak az ún. hibrid modellek: pl. hibrid, mert: a valószínűségi eloszlások itt diszkriminatív modellekre lettek cserélve (pl. MLP)

Alkalmazás a bioinformatikában: pl. fehérje hasonlóságra, ún. Profile HMM Balról-jobbra HMM. Állapot típusok: illeszkedés (match): egy hisztogramm írja le az eloszlást törlés (del.) és beszúrás (ins.): az átmeneti valószínűség adja meg a „büntetését” ezeknek a műveleteknek

POS Tagging (Part of Speech Tagging, szófaj címkézés) általában teljes HMM-et használnak (minden állapot minden állapottal oda-vissza összekötve) Az állapotokhoz egy szó-statisztika van még kiszámítva.

Ide kapcsolódó témák Általános elmélet, ami a HMM-et, és még sok más modellt is magában foglal, az ún. „Graphical Models” (Gráf Modellek). Tartalmazza pl.: Bayes hálók, Markov Hálók (Markov Random Field, Conditional Random Field), de a PCA-t is, stb. Michael I. Jordan: Graphical Models