3(+1) osztályozó a Bayes világból

Slides:



Advertisements
Hasonló előadás
Hipotézis-ellenőrzés (Statisztikai próbák)
Advertisements

2006. február 17. Valószínűségszámítás és statisztika II. Telefonos feladat Egy kalapban van két korong, az egyiknek mindkét oldala piros, a másiknak.
Rangszám statisztikák
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Tartalékmodellezés R-ben Sághy Balázs Altenburger Gyula szimpózium Balatonvilágos május 22.
Programozási alapismeretek 5. előadás. ELTE Szlávi - Zsakó: Programozási alapismeretek 5.2/  Programozási tételek.
Közbevetve: témakörök eddig 1-3. Közbevetve: a témakörök eddig 1. Sztohasztikus folyamatok: főként a fogalmak definiciója (sztoh. foly.; val. sűrűségek-eloszlások,
Bayes hálók október 20. Farkas Richárd
Bevezetés a gépi tanulásba február 16.. Mesterséges Intelligencia „A számítógépes tudományok egy ága, amely az intelligens viselkedés automatizálásával.
Naïve Bayes, HMM.
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
Rangsorolás tanulása ápr. 24..
Becsléselméleti ismétlés
STATISZTIKA II. 5. Előadás Dr. Balogh Péter egyetemi adjunktus Gazdaságelemzési és Statisztikai Tanszék.
Statisztika II. IV. Dr. Szalka Éva, Ph.D..
Halálozási adatok elemzése Direkt standardizálás gyakorlat
Bayes becslések Boha Roland november 21. PPKE-ITK.
III. előadás.
Adatbányászat: Rendellenesség keresés
Civil Biztonság- és Védelemtudományi Tanszék A BIZTONSÁG ÉS VÉDELEM KULTÚRÁJA SGTVT001BC Dr. Szilágyi Tivadar
1 A REPÜLÉSBIZTONSÁGI HELYZET NEMZETKÖZI ÉS HAZAI ÁTTEKINTÉSE KBSZ SZAKMAI NAPOK- REPÜLÉS Budapest, november 29. Bíró Ottó Balesetvizsgáló.
Kvantitatív módszerek
Kvantitatív módszerek 7. Becslés Dr. Kövesi János.
Kvantitatív módszerek
Nem-paraméteres eljárások, több csoport összehasonlítása
Az Alakfelismerés és gépi tanulás ELEMEI
Nemparaméteres próbák Statisztika II., 5. alkalom.
Véletlenszám generátorok
STATISZTIKA II. 3. Előadás Dr. Balogh Péter egyetemi adjunktus Gazdaságelemzési és Statisztikai Tanszék.
$ Információ Következmény Döntés Statisztikai X.  Gyakorlati problémák megoldásának alapja  Elemzéseink célja és eredménye  Központi szerep az egyén.
Gazdaságstatisztika 18. előadás Hipotézisvizsgálatok
Gazdaságstatisztika 16. előadás Hipotézisvizsgálatok Alapfogalamak
Hipotézis vizsgálat (2)
Ipari katasztrófák nyomában 4. előadás1 A szervezettség.
Ipari katasztrófák nyomában 4. előadás1 Kezdeti események Feladat: egy valószínűségi modell felállítása, amelyből megbecsülhető a kezdeti esemény valószínűsége;
Portálrendszerek és biztonság Bártházi András Első Magyarországi PHP Konferencia március 29. Copyright PHP Konferencia, 2003,
Többváltozós adatelemzés
Költség-minimalizálás az ellenőrző kártyák alkalmazásánál Feladatmegoldás, kiegészítés.
Paleobiológiai módszerek és modellek 4. hét
Minőségbiztosítás II_5. előadás
Sütő János Statisztikai spamszűrők Hatékony védelem a spam ellen.
A szóráselemzés gondolatmenete
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19)
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Gépi tanulási módszerek
Paraméteres próbák- gyakorlat
Megbízhatóság alapú menedzsment Jónás Tamás szeptember 3.
Kiváltott agyi jelek informatikai feldolgozása 2016
Kockázat és megbízhatóság
Kvantitatív módszerek MBA és Számvitel mesterszak
Kvantitatív módszerek
Sztochasztikus kapcsolatok I. Asszociáció
Kockázat és megbízhatóság
Gépi tanulási módszerek febr. 18.
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John.
Valószínűségi változók együttes eloszlása
3(+1) osztályozó a Bayes világból
Valószínűségi törvények
Gazdaságinformatikus MSc
A mesterséges neuronhálók alapjai
Többdimenziós normális eloszlás
A Bayes-döntéselmélet alapjai
A normális eloszlásból származó eloszlások
Előadás másolata:

3(+1) osztályozó a Bayes világból febr. 27.

Előző előadás Bayes döntéselmélet Bayes osztályozó P(j | x) = P(x | j ) · P (j ) / P(x) Ha feltesszük, hogy a posterior ismert normális eloszlást követ Paraméterbecslési módszerek ha paraméteres eloszlást feltételezünk és tanító adatbázis rendelkezésre áll

Példa adatbázis ? kor hitelkeret havi bev. elhagy? <21 nincs igen 21-50 van 50K-200K 50< nem 200K< ?

Naϊve Bayes osztályozó

Naϊve Bayes osztályozó Bayes osztályozó ahol feltesszük, hogy a jellemzők egymástól feltételesen függetlenek egy adott osztály mellett Legyen két osztály, valamint x = [x1, x2, …, xd ]t ahol minden xi bináris, az alábbi valószínűségekkel: pi = P(xi = 1 | 1) qi = P(xi = 1 | 2)

Diszkriminancia-függvény (modell):

Naive Bayes tanítása - MLE pi = P(xi = 1 | 1 ) és qi = P(xi = 1 | 2 ) becslése N darab tanító példából tfh. p és q binomiális eloszlást követ (visszatevéses mintavétel modellezése) Maximum-likelihood módszerrel:

Naive Bayes tanítása – Bayes becslés tfh. a becslési prior Beta eloszlásból jön X ~ Beta(a,b) E [X]=1/(1+b/a)

Naive Bayes tanítása – Bayes becslés az eredeti pi likelihood binomiális eloszlást követ a becslésre egy Beta(a,b)-t használunk … a Bayes becslés 2 lépése …

Naive Bayes tanítása – Bayes becslés (m-becslés) Ugyanez átjelöléssel: (így egyszerűbb a gyakorlatban) 0 likelihood/posteriori elkerülése m és p konstansok (paraméterek) p a priori becslés pi-re m az „ekvivalens mintaszám”

Naϊve Bayes osztályozó a gyakorlatban nem is olyan naív  nagyon gyors, párhuzamosítható kis memóriaigény irreleváns jellemzők „kiátlagolódnak” jó megoldás ha nagyon sok, egyenlően fontos jellemzőnk van

Példa ? P() kor hitelkeret havi bev. elhagy <21 nincs < 50K igen 21-50 van 50K-200K 50< nem 200K< ? P(kor>50|  =igen) = (0+mp) / 2+m P(nincs|  =igen) P(200K<|  =igen)

Generatív vs. Diszkriminatív osztályozók Egy rejtett állapota a rendszernek generálja a megfigyeléseinket Likelihood P(x | j ) és apriori P(j ) becslése Diszkriminatív: Cél az egyes osztályok elkülönítése Közvetlenül az a posteriori P(j | x) valószínűségek becslése  x1 x2 x3  x1 x2 x3

Logisztikus Regresszió (Maximum Entrópia Osztályozó) Két osztály esetén:

Nem paraméteres osztályozások

Nem paraméteres eljárások 16 Nem paraméteres eljárások Nem paraméteres eljárások alkalmazhatók tetszőleges eloszlásnál, anélkül, hogy bármit feltételeznénk a sűrűségfgvek alakjáról Likelihood P(x | j ) becslése vagy közvetlenül az a posteriori P(j | x) valószínűségek becslése

Sűrűség becslése 17 Legye p(x) a becsülni kívánt sűrűségfüggvény Annak valószínűsége, hogy egy pont az R-be esik: Ha n elemű mintánk van, akkor az R–be eső pontok számának várható értéke k E(k) = nP Pattern Classification, Chapter 2 (Part 1)

Sűrűség becslése Maximum likelihood becsléssel: 18 Sűrűség becslése Maximum likelihood becsléssel: p(x) folytonos, és ha R elég kicsi, akkor p nem változik lényegesen R-en: Ahol x R –beli pont, és V az R térfogata.

Iteratív becslési folyamat 19 Iteratív becslési folyamat A V-nek mindenképpen nullához kell tartania, ha ezt a becslést használni akarjuk a pontszerű x-hez tartozó p(x)-re V a gyakorlatban nem lehet nagyon kicsi, mert a minták száma korlátozott A k/n hányadosoknál el kell fogadni egy kis bizonytalanságot…

Sűrűség becslés aszimptotikus tulajdonságai 20 Sűrűség becslés aszimptotikus tulajdonságai Három szükséges feltétele van, hogy

21

Parzen ablakok fix méretű és alakú R régiókkal dolgozunk V állandó p(x)-et egy kérdéses x pontban az R-be eső pontok száma alapján becsüljük (azaz leszámoljuk k-t)

Parzen ablakok - hiperkocka 23 Parzen ablakok - hiperkocka R egy d-dimenziós hiperkocka ( (x-xi)/hn ) akkor 1, ha xi az x középpontú V hiperkockába esik, 0 különben. (-t kernelnek nevezzük)

Parzen ablakok - hiperkocka 24 Parzen ablakok - hiperkocka minták száma ebben a hiperkockában: behelyettesítve:

Általános eset pn(x) úgy becsüli p(x)-et, mint az átlaga valamilyen távolságnak az x pont és az (xi) (i = 1,… ,n) minták közt  tetszőleges fgv-e lehet két pont távolságának

Parzen ablakok - példa p(x) ~ N(0,1) esete 26 Parzen ablakok - példa p(x) ~ N(0,1) esete Legyen (u) = (1/(2) exp(-u2/2) és hn = h1/n (n>1) olyan normális sűrűségek átlaga, melyek középpontjai xi-kben vannak.

27

28

Analóg eredmények kaphatók két dimenzióban is: 29 Analóg eredmények kaphatók két dimenzióban is:

30

31 p(x) ?

32 p(x) = 1U(a,b) + 2T(c,d) (egyenletes és háromszög eloszlás keveréke)

Osztályozás a Parzen ablakok módszerével 33 Minden osztálynál becsüljük a likelihood sűrűségeket (aprioiri egyszerűen közelítendő), aztán a maximális a posteriori valószínűségnek megfelelően osztályozunk A Parzen-ablakokhoz tartozó döntési tartományok az ablak-függvény választásától függenek

34

k legközelbbi szomszéd becslés 35 k legközelbbi szomszéd becslés Az ismeretlen “legjobb” ablak függvény problémájának megoldása: Legyen V a mintaelemek számának függvénye Az x legyen középpontja egy cellának, növeljük addig, amíg k mintát (k = f(n)) tartalmaz Az így kapott mintákat nevezzük az x k legközelebbi szomszédjának 2 lehetőség van: Nagy a sűrűség x közelében; ekkor a cella kicsi lesz, és így a felbontás jó lesz Sűrűség kicsi; ekkor a cella nagyra fog nőni, és akkor áll le, amikor nagy sűrűségű tartományt ér el A becslések egy családját kaphatjuk a kn=k1/n választással, a k1 különböző választásai mellett

36 © Ethem Alpaydin: Introduction to Machine Learning. 2nd edition (2010)

k legközelbbi szomszéd osztályozó 37 k legközelbbi szomszéd osztályozó k nearest neighbour (knn) P(i | x) közvetlen becslése n címkézett minta segítségével Vegyünk egy cellát x körül ami k elemet tartalmaz Ha ki db minta (a k közül) tartozik i –hez: pn(x, i) = ki /(nV)

k legközelbbi szomszéd osztályozó 38 k legközelbbi szomszéd osztályozó Itt ki/k azon minták aránya, amelyek címkéje i A minimális hibaarány eléréséhez a cellában kiválasztjuk a leggyakrabban reprezentált kategóriát (osztályt) Ha k nagy akkor a hatékonyság közelíti a lehető legjobbat

39

Példa ? kor hitelkeret havi bev. elhagy <21 nincs < 50K igen 21-50 van 50K-200K 50< nem 200K< ? k=3 Távolság metrika = diszkrét érték egyezik

Nem paraméteres osztályozók van paraméterük! Bayes osztályozóból vannak levezetve úgy hogy a valószínűségi becslésekre nem paraméteres eloszlásokat használnak Parzen-ablak osztályozó kernel és h ablakméret likelihood becslésére K-legközelebbi szomszéd osztályozó távolság metrika és k szomszédszám Posteriori becslésére

Távolság metrikák érzékenysége

Bayes osztályozó megvalósítások a gyakorlatban Összefoglalás Bayes osztályozó megvalósítások a gyakorlatban Paraméteres Nem paraméteres Likelihood becslése (generatív) Naive Bayes Parzen ablak osztályozó Posteriori becslése (diszkriminatív) Logisztikus Regresszió k legközelebbi szomszéd osztályozó