MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.

Slides:



Advertisements
Hasonló előadás
Lineáris regressziós MODELLEK
Advertisements

Összetett kísérleti tervek és kiértékelésük:
Események formális leírása, műveletek
A bizonytalanság és a kockázat
Készítette: Nagy Mihály tanár Perecsen, 2006.
Lineáris egyenletrendszerek megoldása Gauss elimináció, Cramer-szabály Dr. Kovács Sándor DE GVK Gazdaságelemzési és Statiszikai Tanszék.
Készítette: Kosztyán Zsolt Tibor
Valószínűségszámítás
Összetett kísérleti tervek és kiértékelésük
Függvények Egyenlőre csak valós-valós függvényekkel foglalkozunk.
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
Műveletek logaritmussal
Kalman-féle rendszer definíció
Vektormező szinguláris pontjainak indexe
Euklidészi gyűrűk Definíció.
Algebrai struktúrák 1.
Lineáris és nemlineáris regressziók, logisztikus regresszió
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
MI 2003/ Alakfelismerés - még egy megközelítés: még kevesebbet tudunk. Csak a mintánk adott, de címkék nélkül. Csoportosítás (klaszterezés, clustering).
Összefüggés vizsgálatok
Gazdaságelemzési és Statisztikai Tanszék
Dr. Szalka Éva, Ph.D.1 Statisztika II. VII.. Dr. Szalka Éva, Ph.D.2 Mintavétel Mintavétel célja: következtetést levonni a –sokaságra vonatkozóan Mintavétel.
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
Lineáris programozás Modellalkotás Grafikus megoldás Feladattípusok
A TERMÉSZETTUDOMÁNYOK ALAPJAI 1. Matematika
III. előadás.
Differenciál számítás
1.3 Relációk Def. (rendezett pár) (a1 , a2 ) := {{a1} , {a1 , a2 }} .
Reprezentációs függvény. Adva egy adattípus absztrakt és konkrét specifikációja: d a = ( A, F, E a ); d c = ( C, G, E c ); A = {A 0,..., A n };C = {C 0,...,
PTE PMMK Matematika Tanszék dr. Klincsik Mihály Matematika III. előadások MINB083, MILB083 Gépész és Villamosmérnök szak BSc képzés 2007/2008. őszi félév.
Matematika III. előadások MINB083, MILB083
Lineáris függvények.
Regresszióanalízis 10. gyakorlat.
MATEMATIKA ÉS INFORMATIKA I.
Játékelméleti alapfogalmak előadás
Kvantitatív módszerek
Dr. Szalka Éva, Ph.D.1 Statisztika II. VI.. Dr. Szalka Éva, Ph.D.2 Regresszióanalízis.
1 TARTALOM: 0. Kombinatorika elemei (segédeszközök) 1. Eseményalgebra 2. A valószínűség: a) axiómák és következményeik b) klasszikus (=kombinatorikus)
Az Alakfelismerés és gépi tanulás ELEMEI
Befektetési döntések Bevezetés
Idősor elemzés Idősor : időben ekvidisztáns elemekből álló sorozat
Statisztikai döntésfüggvények elméletének elemei
$ Információ Következmény Döntés Statisztikai X.  Gyakorlati problémák megoldásának alapja  Elemzéseink célja és eredménye  Központi szerep az egyén.
Gazdaságstatisztika 11. előadás.
Gazdaságstatisztika 10. előadás.
Hipotézis vizsgálat (2)
Alapsokaság (populáció)
Alapfogalmak.
Vektorterek Definíció. Legyen V Abel-csoport, F test, továbbá
MI 2003/ Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási.
Mikroökonómia gyakorlat
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
előadások, konzultációk
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
Nagy Szilvia 7. Lineáris blokk-kódok
előadások, konzultációk
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
Gépi tanulási módszerek
Kockázat és megbízhatóság
Kockázat és megbízhatóság
Gépi tanulási módszerek febr. 18.
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
A mesterséges neuronhálók alapjai
A Bayes-döntéselmélet alapjai
Előadás másolata:

MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen ismérvek, jelentés szerint - be kell sorolnunk az osztályokba. Először statisztikus módszerek.

MI 2003/9 - 2 Kiindulás: tulajdonságvektor (feature) - ez általában véletlentől függő értékekből épül fel. Valószínűségszámítási alapfogalmak: eseménytér, valószínűségi változó. Tulajdonság-tér felosztása, döntési (diszkriminancia) függvény. Egyszerű példa: egy- illetve kétváltozós eset, lineáris elválasztási lehetőséggel.

MI 2003/9 - 3 Első-, másodfajú hiba fogalma döntések esetében: illusztráció Gauss féle (normális) eloszlás esetében. Két, illetve több osztály esete. Példa: a 0 és az 1 elkülönítése - szélesség mérése (egyváltozós eset). Hogyan vehető az eltérő osztály-valószínűség figyelembe?

MI 2003/9 - 4 Amit megfigyelünk, nem tudjuk, honnan (melyik osztályból) származik: keverék- eloszlás. A prior és a posteriori valószínűségek.

MI 2003/9 - 5 Bayes szabály: P(A|B) = P(B | A) P(A) /P(B) Bayes tétel: a Bayes szabályban a nevezőt a teljes valószínűség tételével adjuk meg

MI 2003/9 - 6 Jelölések Tulajdonságvektor: d dimenziós folytonos (valós, R d ) Osztályok száma: c (  1,  2, …,  c ) Veszteségfüggvény: a lehetséges választás (  1,  2, …,  a ). Veszteség(függvény): (  i  j ) (az i-dik választást tettük, a tényleges osztály j volt)

MI 2003/9 - 7 Jelölje a j-dik osztályhoz tartozó sűrűségfüggvényt p(x  j ). Az osztályok a priori valószínűségeit jelölje P(  j ). Ekkor az a posteriori P(  j  x)-t a Bayes tétel adja: ahol

MI 2003/9 - 8 Tegyük fel, hogy valamilyen x vektort figyeltünk meg, az  i választást tettük, és a tényleges osztály  j. Ekkor a veszteségünk: A veszteség várható értékét kockázatnak nevezzük (Bayes kockázat), az előző kifejezést feltételes veszteségnek. Ezt akarjuk minimalizálni.

MI 2003/9 - 9 Két osztály esete. Két választás:  1 jelentse az  1 választását,  2 pedig az  2 -t. Legyen Ekkor az előző egyenletből: továbbá

MI 2003/ A legjobbnak tűnő választás a kockázat minimalizálása, vagyis  1 választása, ha Ez az előző egyenletekből: A Bayes tétel alkalmazásával azt kapjuk, hogy akkor kell  1 -et választanunk, ha

MI 2003/ amit feltételezésével az alábbi alakba írhatunk: ahol a baloldalt likelihood (valószínűségi) hányadosnak hívják.

MI 2003/ A minimális hibaarányt adó osztályozás: a kockázatfüggvényt válasszuk úgy, hogy 0 legyen, ha jó az osztályozás ( 11 = 22 =0), illetve egy, ha hibás ( 12 = 21 =1). Ekkor a feltételes veszteség általánosan:

MI 2003/ Vagyis ebben az esetben a döntési szabály a már korábbiakból ismert: válasszuk az  i -t, ha minden j  i -re.

MI 2003/ Diszkrimincia-függvények, határoló felületek: olyan g i (x) (i=1,2,…,c) függvények (diszkriminancia-függvények), amelyek segítségével az  i döntést hozzuk, ha g i (x)> g j (x) minden j  i-re.

MI 2003/ Valójában az előzőekben már definiáltunk diszkriminancia-függvényeket: például a minimális hibaarány esetében a g i (x)=P(  i  x) diszkriminancia függvényt definiál. Normális eloszlások vizsgálata.

MI 2003/ Még egy, szokásos és fontos átfogalmazás: lényegében távolságfüggvényeket kell számolnunk. Az első esetnél ez lényegében az euklideszi távolság:

MI 2003/ A második esetnél pedig a Mahalanobis távolság: Mindkét esetben az osztály középpontoktól számított távolságok minimuma határozza meg a döntést.

MI 2003/ Példa. Két osztály, mindkettőnek 4-4 pontja ismert: (2,6), (3,4), (3,8), (4,6) (1,-2), (3,-4), (3,0), (5,-2) Ekkor  1,  1,  2,  2, továbbá a mátrixinverzek kiszámíthatók, azonos a priori valószínűségek mellett a döntési felület: x = 3, ,125y + 0,1825y 2

MI 2003/ Hibavalószínűségek. Két osztály, egydimenziós eset: az egyenest két osztályra bontjuk,  1 -re és  2 -re. P(hiba) = P(x  2,  1 ) + P(x  1,  2 ) = P(x  2 |  1 )P(  1 ) + P(x  1 |  2 ) P(  2 ) =

MI 2003/ Minimalizálásra példa: 2.17 ábra

MI 2003/ Alkalmazás: jelérzékelés (ROC -receiver operating charasteristic- görbék). Zajos körülmények között (Gauss eloszlás) mérünk jeleket. Ha van jel,  2 a várható érték, ha nincs,  1 (vagyis p(x|  i )=N(  i,  2 )). Megkülönböztethetőség:

MI 2003/ Szemléltetés: 2.19 ábra

MI 2003/ Lehetséges kimenetek valószínűségei: P(x>x*|x  2 ): találat P(x>x*|x  1 ): hamis riasztás (másodfajú hiba, téves pozitív lelet) P(x<x*|x  1 ): hibázás (elsőfajú hiba, pozitív tünet fel nem ismerése) P(x<x*|x  2 ): helyes elvetés

MI 2003/ Sok kisérlet esetén a valószínűségek x* függvényében becsülhetők: ROC görbék (receiver operating characteristic). Szokásos független változók: találat (y tengely) hamis riasztás (x tengely) Vissza: 2.19 ábra ROC görbe: 2.20 ábra

MI 2003/ ábra: különböző d értékekhez tartozó ROC görbék

MI 2003/ Bayes döntések nehézsége: nagyon sok becslésre lehet szükség. Segíthet: Valószínűségi háló (belief network) - egy gráf - csúcsai valószínűségi változók halmazai, - irányított (közvetlen befolyás), körmentes - minden csúcshoz egy feltételes valószínűségi tábla (“szülők hatása”)

MI 2003/ Példa: riasztó beszerelése (jelzi a földrengést is), két szomszéd, Mária és János, akik telefonálnak, ha szól a riasztó (a riasztó nem tökéletes, János nem mindig tudja a riasztót a telefontól megkülönböztetni, Mária fülhallgatóval hallgat zenét …). Mindezeket valószínűségi táblákkal adjuk meg - számok a táblán.

MI 2003/ Az alapegyenlet: Ennek segítségével számoljuk a valószínűségeket - csak a tényleges függőségben levők számítanak.

MI 2003/ Hálók építése: - változók meghatározása, - sorrend kijelölése, - amíg van érintetlen változó, a. vegyünk egy ilyet, adjuk a csúcsokhoz, b. határozzuk meg a szüleit, c. adjuk meg a feltételes val.-ek tábláját.

MI 2003/ Általános eljárás: adatgyűjtés tulajdonságok kiválasztása (tudás!) modell választása (tudás!) osztályozó tanítása osztályozó értékelése