Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.

Hasonló előadás


Az előadások a következő témára: "MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen."— Előadás másolata:

1 MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen ismérvek, jelentés szerint - be kell sorolnunk az osztályokba. Példa: szkennerrel beolvasott (nyomtatott vagy kézírásos) szövegek átalakítása szövegfájlokká. Másik: betegségek diagnosztizálása.

2 MI 2003/8 - 2 Leggyakoribb eljárások: szintaktikus, statisztikus módszerek. Először statisztikus.

3 MI 2003/8 - 3 Kiindulás: tulajdonságvektor (feature) - ez általában véletlentől függő értékekből épül fel. Valószínűségszámítási alapfogalmak: eseménytér, valószínűségi változó. Példák: hamis- valódi pénz feldobása, nyomtatott szöveg átalakítása szövegfájlba, kézzel írott irányítószámok felismerése. Megoldás-javaslat pénzeknél, nyomtatott szövegnél (betű-minták - betűtípus???)

4 MI 2003/8 - 4 Mérőszámok (tulajdonságok (valószínűségi változók)) keresése - különböző feladatoknál eltérők lehetnek: nyomtatott betűk, írott számok. Tulajdonság-tér felosztása, döntési (diszkriminancia) függvény. Egyszerű példa: egy- illetve kétváltozós eset, lineáris elválasztási lehetőséggel.

5 MI 2003/8 - 5 Első-, másodfajú hiba fogalma döntések esetében: illusztráció Gauss féle (normális) eloszlás esetében. Két, illetve több osztály esete. Példa: a 0 és az 1 elkülönítése - szélesség mérése (egyváltozós eset). Hogyan vehető az eltérő osztály-valószínűség figyelembe?

6 MI 2003/8 - 6 Amit megfigyelünk, nem tudjuk, honnan (melyik osztályból) származik: keverék- eloszlás. Példa (számokkal): kétféle hamis pénz, A és B (ugyanaz, mint egy beteg-egészséges pár és egy tünet), ismertek: P(A), P(B), P(I|A), P(F|A), P(I|B), P(F|B). Kiszámítható: P(I), P(F) (ezt mérjük), kellene: P(A|F).

7 MI 2003/8 - 7 A priori és a posteriori valószínűségek. Feltételes valószínűség: P(A|B) = P(A,B)/P(B) Teljes valószínűség: P(A) = P(A|B) P(B) + P(A|  B) P(  B)

8 MI 2003/8 - 8 Bayes szabály: P(A|B) = P(B | A) P(A) /P(B) Bayes tétel: a Bayes szabályban a nevezőt a teljes valószínűség tételével adjuk meg Alkalmazás a korábbi példára

9 MI 2003/8 - 9 Hipotézisvizsgálat. Két osztály esete. Egyszerű döntési szabály: ha q 1 (X)  q 2 (X) akkor az  2 osztályhoz soroljuk az X-el definiált objektumot, különben az  1 -hez, ahol a q 1, q 2 az a posteriori valószínűségeket jelölik (vagyis P(A|B)-t és P(A|  B)-t).

10 MI 2003/ Eredmény: hiba minimalizálása. Példa: egyváltozós Gauss-eloszlások Általánosítás: kockázat minimalizálása - kockázat-mátrix bevezetése. Diszkriminancia -függvény bevezetése: határfelületek meghatározása.

11 MI 2003/ Tanuló (becslési) eljárások: az osztályok sűrűségfüggvényeinek típusa(i) ismertek, de bizonyos paraméterei nem (pl. maximum likelihood becslések) - “felügyelt” módszerek (supervised learning).

12 MI 2003/ Általános, pontosabb tárgyalás Tulajdonságvektor: d dimenziós folytonos (valós, R d ) Osztályok száma: c (  1,  2, …,  c ) Veszteségfüggvény: a lehetséges választás (  1,  2, …,  a ). Veszteség(függvény): (  i  j ) (az i-dik választást tettük, a tényleges osztály j volt)

13 MI 2003/ Jelölje a j-dik osztályhoz tartozó sűrűségfüggvényt p(x  j ). Az osztályok a priori valószínűségeit jelölje P(  j ). Ekkor az a posteriori P(  j  x)-t a Bayes tétel adja: ahol

14 MI 2003/ Tegyük fel, hogy valamilyen x vektort figyeltünk meg, az  i választást tettük, és a tényleges osztály  j. Ekkor a veszteségünk: A veszteség várható értékét kockázatnak nevezzük (Bayes kockázat), az előző kifejezést feltételes veszteségnek. Ezt akarjuk minimalizálni.

15 MI 2003/ Két osztály esete. Két választás:  1 jelentse az  1 választását,  2 pedig az  2 -t. Legyen Ekkor az előző egyenletből: továbbá

16 MI 2003/ A legjobbnak tűnő választás a kockázat minimalizálása, vagyis  1 választása, ha Ez az előző egyenletekből: A Bayes tétel alkalmazásával azt kapjuk, hogy akkor kell  1 -et választanunk, ha

17 MI 2003/ amit feltételezésével az alábbi alakba írhatunk: ahol a baloldalt likelihood (valószínűségi) hányadosnak hívják.

18 MI 2003/ A minimális hibaarányt adó osztályozás: a kockázatfüggvényt válasszuk úgy, hogy 0 legyen, ha jó az osztályozás ( 11 = 22 =0), illetve egy, ha hibás ( 12 = 21 =1). Ekkor a feltételes veszteség általánosan:

19 MI 2003/ Vagyis ebben az esetben a döntési szabály a már korábbiakból ismert: válasszuk az  i -t, ha minden j  i -re. Neyman-Pearson kritérium

20 MI 2003/ Diszkrimincia-függvények, határoló felületek. Az előzőek mellett sok másfajta eljárás: nagyon hasznos lenne például olyan g i (x) (i=1,2,…,c) függvények (diszkriminancia- függvények) ismerete, amelyek segítségével az  i döntést hoznánk, ha g i (x)> g j (x) minden j  i-re.

21 MI 2003/ Valójában az előzőekben már definiáltunk diszkriminancia-függvényeket: például a minimális hibaarány esetében a g i (x)=P(  i  x) diszkriminancia függvényt definiál. Feltételes veszteség segítségével?

22 MI 2003/ Még egyszerűbb, ha csak a számlálókat illetve azok logaritmusát vesszük: g i (x) = p(x  i )P(  i ), g i (x) = ln p(x  i ) + ln P(  i ). Segítségükkel döntési tartományok definiálhatók (  1,  2, …,  c ), közöttük döntési felületek.

23 MI 2003/ Két osztály esete. Ekkor a határfelületet a g(x) = g 1 (x) - g 2 (x) függvény definiálja; ha g(x) > 0, akkor az első osztályt választjuk, különben a másodikat. Ez több más alakba is átírható, például:

24 MI 2003/ Emlékeztető: normális eloszlások Egyváltozós: d-változós:

25 MI 2003/ Diszkriminancia függvények normális eloszlásoknál. Láttuk, hogy általában: g i (x) = ln p(x  i ) + ln P(  i ) A többváltozós normális eloszlás sűrűségfüggvényéből: g i (x) =

26 MI 2003/ Speciális esetek 1. eset:  i =  2 I (független változók, azonos szórással). Ekkor: vagyis:

27 MI 2003/ Ez viszont lineáris függvény, vagyis: g i (x) = ahol és

28 MI 2003/ eset:  i = , vagyis a kovarianciamátrixok azonosak. Ekkor a diszkriminanciafüggvények alakba írhatók, ami ismét egy lineáris formához vezet (házi feladat).

29 MI 2003/ eset:  i tetszőleges. Ekkor a diszkriminanciafüggvények kvadratikusak. A kétdimenziós esetben ezek tetszőleges hiperfelületek lehetnek (példák ábrákon)

30 MI 2003/8 - 30

31

32 MI 2003/8 - 32

33 MI 2003/8 - 33

34 MI 2003/8 - 34

35 MI 2003/8 - 35


Letölteni ppt "MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen."

Hasonló előadás


Google Hirdetések