MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.

Slides:



Advertisements
Hasonló előadás
Lineáris regressziós MODELLEK
Advertisements

Összetett kísérleti tervek és kiértékelésük:
Események formális leírása, műveletek
„Esélyteremtés és értékalakulás” Konferencia Megyeháza Kaposvár, 2009
Programozási tételek, és „négyzetes” rendezések
Valószínűségszámítás
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
Műveletek logaritmussal
Kalman-féle rendszer definíció
Algebrai struktúrák 1.
Gyűrűk Definíció. Az (R, +, ·) algebrai struktúra gyűrű, ha + és · R-en binér műveletek, valamint I. (R, +) Abel-csoport, II. (R, ·) félcsoport, és III.
4. VÉGES HALMAZOK 4.1 Alaptulajdonságok
Programozási alapismeretek 8. előadás. ELTE 2/  További programozási tételek További programozási tételek 
Alhálózat számítás Osztályok Kezdő Kezdete Vége Alapértelmezett CIDR bitek alhálózati maszk megfelelője A /8 B
Lineáris és nemlineáris regressziók, logisztikus regresszió
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
MI 2003/ Alakfelismerés - még egy megközelítés: még kevesebbet tudunk. Csak a mintánk adott, de címkék nélkül. Csoportosítás (klaszterezés, clustering).
A diákat jészítette: Matthew Will
Gazdaságelemzési és Statisztikai Tanszék
STATISZTIKA II. 5. Előadás Dr. Balogh Péter egyetemi adjunktus Gazdaságelemzési és Statisztikai Tanszék.
Dr. Szalka Éva, Ph.D.1 Statisztika II. VII.. Dr. Szalka Éva, Ph.D.2 Mintavétel Mintavétel célja: következtetést levonni a –sokaságra vonatkozóan Mintavétel.
Tűrések, illesztések Áll: 34 diából.
Lineáris programozás Modellalkotás Grafikus megoldás Feladattípusok
III. előadás.
Differenciál számítás
MATEMATIKA ÉS INFORMATIKA I.
Játékelméleti alapfogalmak előadás
Kvantitatív módszerek
Lineáris egyenletrendszerek (Az evolúciótól a megoldáshalmaz szerkezetéig) dr. Szalkai István Pannon Egyetem, Veszprém /' /
Készítette: Kosztyán Zsolt Tibor
dr. Szalkai István Pannon Egyetem, Veszprém
Az Alakfelismerés és gépi tanulás ELEMEI
szakmérnök hallgatók számára
Exponenciális egyenletek
Befektetési döntések Bevezetés
Idősor elemzés Idősor : időben ekvidisztáns elemekből álló sorozat
Statisztikai döntésfüggvények elméletének elemei
$ Információ Következmény Döntés Statisztikai X.  Gyakorlati problémák megoldásának alapja  Elemzéseink célja és eredménye  Központi szerep az egyén.
Gazdaságstatisztika 11. előadás.
Hipotézis vizsgálat (2)
Alapsokaság (populáció)
Folytonos eloszlások.
Két kvantitatív változó kapcsolatának vizsgálata
Lagrange-interpoláció
Határozatlan integrál
MI 2003/ Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási.
és a Venn-Euler diagrammok
Valószínűségszámítás
Mikroökonómia gyakorlat
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
előadások, konzultációk
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
Programozási alapismeretek 8. előadás. ELTE Szlávi-Zsakó: Programozási alapismeretek 8.2/  További programozási.
előadások, konzultációk
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19)
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Gépi tanulási módszerek
Gépi tanulási módszerek febr. 18.
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
Valószínűségi változók együttes eloszlása
Gazdaságinformatikus MSc
A mesterséges neuronhálók alapjai
Előadás másolata:

MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen ismérvek, jelentés szerint - be kell sorolnunk az osztályokba. Példa: szkennerrel beolvasott (nyomtatott vagy kézírásos) szövegek átalakítása szövegfájlokká. Másik: betegségek diagnosztizálása.

MI 2003/8 - 2 Leggyakoribb eljárások: szintaktikus, statisztikus módszerek. Először statisztikus.

MI 2003/8 - 3 Kiindulás: tulajdonságvektor (feature) - ez általában véletlentől függő értékekből épül fel. Valószínűségszámítási alapfogalmak: eseménytér, valószínűségi változó. Példák: hamis- valódi pénz feldobása, nyomtatott szöveg átalakítása szövegfájlba, kézzel írott irányítószámok felismerése. Megoldás-javaslat pénzeknél, nyomtatott szövegnél (betű-minták - betűtípus???)

MI 2003/8 - 4 Mérőszámok (tulajdonságok (valószínűségi változók)) keresése - különböző feladatoknál eltérők lehetnek: nyomtatott betűk, írott számok. Tulajdonság-tér felosztása, döntési (diszkriminancia) függvény. Egyszerű példa: egy- illetve kétváltozós eset, lineáris elválasztási lehetőséggel.

MI 2003/8 - 5 Első-, másodfajú hiba fogalma döntések esetében: illusztráció Gauss féle (normális) eloszlás esetében. Két, illetve több osztály esete. Példa: a 0 és az 1 elkülönítése - szélesség mérése (egyváltozós eset). Hogyan vehető az eltérő osztály-valószínűség figyelembe?

MI 2003/8 - 6 Amit megfigyelünk, nem tudjuk, honnan (melyik osztályból) származik: keverék- eloszlás. Példa (számokkal): kétféle hamis pénz, A és B (ugyanaz, mint egy beteg-egészséges pár és egy tünet), ismertek: P(A), P(B), P(I|A), P(F|A), P(I|B), P(F|B). Kiszámítható: P(I), P(F) (ezt mérjük), kellene: P(A|F).

MI 2003/8 - 7 A priori és a posteriori valószínűségek. Feltételes valószínűség: P(A|B) = P(A,B)/P(B) Teljes valószínűség: P(A) = P(A|B) P(B) + P(A|  B) P(  B)

MI 2003/8 - 8 Bayes szabály: P(A|B) = P(B | A) P(A) /P(B) Bayes tétel: a Bayes szabályban a nevezőt a teljes valószínűség tételével adjuk meg Alkalmazás a korábbi példára

MI 2003/8 - 9 Hipotézisvizsgálat. Két osztály esete. Egyszerű döntési szabály: ha q 1 (X)  q 2 (X) akkor az  2 osztályhoz soroljuk az X-el definiált objektumot, különben az  1 -hez, ahol a q 1, q 2 az a posteriori valószínűségeket jelölik (vagyis P(A|B)-t és P(A|  B)-t).

MI 2003/ Eredmény: hiba minimalizálása. Példa: egyváltozós Gauss-eloszlások Általánosítás: kockázat minimalizálása - kockázat-mátrix bevezetése. Diszkriminancia -függvény bevezetése: határfelületek meghatározása.

MI 2003/ Tanuló (becslési) eljárások: az osztályok sűrűségfüggvényeinek típusa(i) ismertek, de bizonyos paraméterei nem (pl. maximum likelihood becslések) - “felügyelt” módszerek (supervised learning).

MI 2003/ Általános, pontosabb tárgyalás Tulajdonságvektor: d dimenziós folytonos (valós, R d ) Osztályok száma: c (  1,  2, …,  c ) Veszteségfüggvény: a lehetséges választás (  1,  2, …,  a ). Veszteség(függvény): (  i  j ) (az i-dik választást tettük, a tényleges osztály j volt)

MI 2003/ Jelölje a j-dik osztályhoz tartozó sűrűségfüggvényt p(x  j ). Az osztályok a priori valószínűségeit jelölje P(  j ). Ekkor az a posteriori P(  j  x)-t a Bayes tétel adja: ahol

MI 2003/ Tegyük fel, hogy valamilyen x vektort figyeltünk meg, az  i választást tettük, és a tényleges osztály  j. Ekkor a veszteségünk: A veszteség várható értékét kockázatnak nevezzük (Bayes kockázat), az előző kifejezést feltételes veszteségnek. Ezt akarjuk minimalizálni.

MI 2003/ Két osztály esete. Két választás:  1 jelentse az  1 választását,  2 pedig az  2 -t. Legyen Ekkor az előző egyenletből: továbbá

MI 2003/ A legjobbnak tűnő választás a kockázat minimalizálása, vagyis  1 választása, ha Ez az előző egyenletekből: A Bayes tétel alkalmazásával azt kapjuk, hogy akkor kell  1 -et választanunk, ha

MI 2003/ amit feltételezésével az alábbi alakba írhatunk: ahol a baloldalt likelihood (valószínűségi) hányadosnak hívják.

MI 2003/ A minimális hibaarányt adó osztályozás: a kockázatfüggvényt válasszuk úgy, hogy 0 legyen, ha jó az osztályozás ( 11 = 22 =0), illetve egy, ha hibás ( 12 = 21 =1). Ekkor a feltételes veszteség általánosan:

MI 2003/ Vagyis ebben az esetben a döntési szabály a már korábbiakból ismert: válasszuk az  i -t, ha minden j  i -re. Neyman-Pearson kritérium

MI 2003/ Diszkrimincia-függvények, határoló felületek. Az előzőek mellett sok másfajta eljárás: nagyon hasznos lenne például olyan g i (x) (i=1,2,…,c) függvények (diszkriminancia- függvények) ismerete, amelyek segítségével az  i döntést hoznánk, ha g i (x)> g j (x) minden j  i-re.

MI 2003/ Valójában az előzőekben már definiáltunk diszkriminancia-függvényeket: például a minimális hibaarány esetében a g i (x)=P(  i  x) diszkriminancia függvényt definiál. Feltételes veszteség segítségével?

MI 2003/ Még egyszerűbb, ha csak a számlálókat illetve azok logaritmusát vesszük: g i (x) = p(x  i )P(  i ), g i (x) = ln p(x  i ) + ln P(  i ). Segítségükkel döntési tartományok definiálhatók (  1,  2, …,  c ), közöttük döntési felületek.

MI 2003/ Két osztály esete. Ekkor a határfelületet a g(x) = g 1 (x) - g 2 (x) függvény definiálja; ha g(x) > 0, akkor az első osztályt választjuk, különben a másodikat. Ez több más alakba is átírható, például:

MI 2003/ Emlékeztető: normális eloszlások Egyváltozós: d-változós:

MI 2003/ Diszkriminancia függvények normális eloszlásoknál. Láttuk, hogy általában: g i (x) = ln p(x  i ) + ln P(  i ) A többváltozós normális eloszlás sűrűségfüggvényéből: g i (x) =

MI 2003/ Speciális esetek 1. eset:  i =  2 I (független változók, azonos szórással). Ekkor: vagyis:

MI 2003/ Ez viszont lineáris függvény, vagyis: g i (x) = ahol és

MI 2003/ eset:  i = , vagyis a kovarianciamátrixok azonosak. Ekkor a diszkriminanciafüggvények alakba írhatók, ami ismét egy lineáris formához vezet (házi feladat).

MI 2003/ eset:  i tetszőleges. Ekkor a diszkriminanciafüggvények kvadratikusak. A kétdimenziós esetben ezek tetszőleges hiperfelületek lehetnek (példák ábrákon)

MI 2003/8 - 30

MI 2003/8 - 32

MI 2003/8 - 33

MI 2003/8 - 34

MI 2003/8 - 35