MI 2003/10 - 1 A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:

Slides:



Advertisements
Hasonló előadás
Készítette: Kosztyán Zsolt Tibor
Advertisements

Lineáris regressziós MODELLEK
Lineáris egyenletrendszerek megoldása Gauss elimináció, Cramer-szabály Dr. Kovács Sándor DE GVK Gazdaságelemzési és Statiszikai Tanszék.
Készítette: Kosztyán Zsolt Tibor
I. előadás.
Programozási tételek, és „négyzetes” rendezések
Kvantitatív Módszerek
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Műveletek logaritmussal
Kalman-féle rendszer definíció
Elemi bázistranszformáció
Műveletek mátrixokkal
Illeszkedési mátrix Villamosságtani szempontból legfontosabb mátrixreprezentáció. Legyen G egy irányított gráf, n ponton e éllel. Az n x e –es B(G) mátrixot.
Illés Tibor – Hálózati folyamok
Regresszió számítás Mérnöki létesítmények ellenőrzése, terveknek megfelelése Geodéziai mérések – pontok helyzete, pontszerű információ Lineáris regresszió.
Euklidészi gyűrűk Definíció.
Csoport részcsoport invariáns faktorcsoport részcsoport
Gyűrűk Definíció. Az (R, +, ·) algebrai struktúra gyűrű, ha + és · R-en binér műveletek, valamint I. (R, +) Abel-csoport, II. (R, ·) félcsoport, és III.
4. VÉGES HALMAZOK 4.1 Alaptulajdonságok
Térbeli infinitezimális izometriák
Lineáris és nemlineáris regressziók, logisztikus regresszió
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
MI 2003/ Alakfelismerés - még egy megközelítés: még kevesebbet tudunk. Csak a mintánk adott, de címkék nélkül. Csoportosítás (klaszterezés, clustering).
Dr. Szalka Éva, Ph.D.1 Statisztika II. VII.. Dr. Szalka Éva, Ph.D.2 Mintavétel Mintavétel célja: következtetést levonni a –sokaságra vonatkozóan Mintavétel.
Papp Róbert, Blaskovics Viktor, Hantos Norbert
OPERÁCIÓKUTATÁS Kalmár János, 2011 Tartalom Több lineáris célfüggvényes LP Tiszta egészértékű LP.
OPERÁCIÓKUTATÁS Kalmár János, 2012 Tartalom A nulla-egy LP megoldása Hátizsák feladat.
Előadó: Prof. Dr. Besenyei Lajos
Optimalizálási módszerek 2. Konvex halmazok
Vámossy Zoltán 2006 Gonzales-Woods, SzTE (Kató Zoltán) anyagok alapján
Év eleji információk Előadó: Hosszú Ferenc II. em Konzultáció: Szerda 9:50 – 10:35 II. em
Lineáris algebra Mátrixok, determinánsok, lineáris egyenletrendszerek
Valós számok Def. Egy algebrai struktúra rendezett test, ha test és rendezett integritási tartomány. Def. Egy (T; +,  ;  ) rendezett test felső határ.
1.3 Relációk Def. (rendezett pár) (a1 , a2 ) := {{a1} , {a1 , a2 }} .
Matematika III. előadások MINB083, MILB083
Lineáris egyenletrendszerek megoldása
MATEMATIKA ÉS INFORMATIKA I.
Miskolci Egyetem Informatikai Intézet Általános Informatikai Tanszé k Pance Miklós Adatstruktúrák, algoritmusok előadásvázlat Miskolc, 2004 Technikai közreműködő:
Lineáris programozás Definíció: Olyan matematikai programozási feladatot nevezünk lineáris programozási feladatnak, amelyekben az L halmazt meghatározó.
Lineáris egyenletrendszerek (Az evolúciótól a megoldáshalmaz szerkezetéig) dr. Szalkai István Pannon Egyetem, Veszprém /' /
Az Alakfelismerés és gépi tanulás ELEMEI
Fejmozgás alapú gesztusok felismerése Bertók Kornél, Fazekas Attila Debreceni Egyetem, Informatikai Kar Debreceni Képfeldolgozó Csoport KÉPAF 2013, Bakonybél.
Lineáris programozás.
Lineáris programozás Elemi példa Alapfogalmak Általános vizsg.
VÉGES AUTOMATA ALAPÚ TERVEZÉSI MODELL
Alapsokaság (populáció)
Vektorterek Definíció. Legyen V Abel-csoport, F test, továbbá
MI 2003/ Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási.
Lineáris algebra.
Módosított normál feladat
Mikroökonómia gyakorlat
előadások, konzultációk
A mozgás egy E irányú egyenletesen gyorsuló mozgás és a B-re merőleges síkban lezajló ciklois mozgás szuperpoziciója. Ennek igazolására először a nagyobb.
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
Nagy Szilvia 7. Lineáris blokk-kódok
T.5. tétel (minimálpolinom egyértelmű létezése)
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Készítette: Mátyás István agrár mérnöktanár szakos hallgató,
OPERÁCIÓKUTATÁS TÖBBCÉLÚ PROGRAMOZÁS. Operáció kutatás Több célú programozás A * x  b C T * x = max, ahol x  0. Alap összefüggés: C T 1 * x = max C.
Gépi tanulási módszerek
Adalékok egy véges összegzési feladathoz
Programozás III ÖTLETEK A FELADATMEGOLDÁSHOZ. A HF-EK APROPÓJÁN Néhány javaslat: 1. Jó lenne, ha a feladatmegoldás előtt átnéznék az előadás-anyagokat.
Kockázat és megbízhatóság
III. előadás.
Gépi tanulási módszerek febr. 18.
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
Valószínűségi változók együttes eloszlása
Előadás másolata:

MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb: lineáris függvények: g(x) = w t x + w 0

MI 2003/ Két osztály esete: az előző lineáris diszkriminancia függvény segítségével dönthetünk - az első osztályt választjuk (  1 ), ha g(x) > 0, különben a másodikat. A g(x) = 0 egy felületet definiál (döntési felület), ami itt egy hipersík. Két, a hipersíkon levő x 1 illetve x 2 pontra:

MI 2003/ w t x 1 + w 0 = w t x 2 + w 0 vagyis w t (x 1 - x 2 ) = 0, tehát w merőleges a hipersíkban levő vektorokra. Itt valójában a teret ezzel a hipersíkkal két fél-térre bontjuk, az egyikhez tartozás az  1 osztályhoz tartozást jelenti, a másikhoz való az  2 -höz valót.

MI 2003/ Több osztály esete. Itt mind a c osztályhoz definiáltunk egy g i (x) = w i t x + w i0 diszkriminancia függvényt, és azt az osztályt választjuk, amelyikre g i (x) maximális. A teljes teret itt c osztályra bontjuk a g i (x) = g j (x) -ből meghatározható hipersíkokkal.

MI 2003/ A három- illetve öt osztály esete

MI 2003/ Bonyolultabb eset: másod- illetve magasabb fokú diszkriminancia függvények, hasonlóan bonyolultabb határfelületekkel. Vissza a két osztály esetéhez, ott is egy egyszerűbb esethez: a tanítópontok szeparálhatók

MI 2003/ Tegyük fel, hogy egy n elemű mintánk van, y 1, y 2, …, y n, ezek egy része  1 -gyel, másik része  2 -vel van címkézve. Tegyük fel, hogy a diszkriminancia függvényünket homogén alakba írtuk fel, azaz

MI 2003/ Vagyis a g(x) = a t x együtthatóit szeretnénk a mintának megfelelően meghatározni. Két osztály esetében egyszerűsítés: ha a második mintához tartozó pontok negatívját vesszük, akkor valamennyi pontra az a t x > 0 feltételnek kell teljesülnie. Az ennek meg- felelő a vektorokat megoldásvektoroknak (szeparáló vektoroknak) hívjuk.

MI 2003/ Olyan hipersíko(ka)t keresünk, hogy valamennyi mintaelem azonos oldalukon legyen. Általában nem gyertelműen meghatározott - további feltételt tehetünk: - maximalizáljuk a minimális, hipersíktól való távolságot, - legyen a t y i  b > 0 minden pontra.

MI 2003/ Gradiens módszer: az a t y i > 0 egyenlőtlenségrendszer megoldásához definiáljunk egy J(a) kritériumfüggvényt, amely minimális, ha a megoldás. Alapmódszer: legyen a(1) tetszőleges, és legyen a gradiens  J(a(1)), akkor: a(k+1) = a(k) -  (k)  J(a(k)), k = 1, 2,.... Itt  pozitív (skálázási faktor vagy tanulási arány - túl kicsi, túl nagy).

MI 2003/ Ha a kritériumfüggvény jól közelíthető a másodrendű sorfejtésével, akkor  (k) =  J  2 / (  J t H  J) jó megoldást ad (H a Hess mátrixot jelenti). Egy ismert módszer: Newton eljárás. Ennél: a(k+1) = a(k) - H -1  J.

MI 2003/ Térjünk vissza a két osztály esetére. Itt egy természetes kritériumfüggvény lehetne a rosszul osztályozott minták száma - ez lépcsős függvény, helyette: J P (a) =  y  (-a t y), ahol  a rosszul osztályozott pontok halmazát jelöli. Ezt nevezik PERCEPTRON kritériumfüggvénynek.

MI 2003/ A rosszul osztályozottakra a t y  0, így J P (a) soha nem negatív (egyébként arányos a rosszul osztályzott elemeknek a hipersíktól vett távolságösszegével). A J P gradiensének j-dik komponense  J P /  a j, vagyis  J P =  y  (-y), ahonnan a(k+1) = a(k) +  (k)  y  y

MI 2003/ Példa

MI 2003/ Alaptétel. Ha a minta lineárisan szeparálható, akkor a perceptron eljárás megoldásvektorhoz konvergál. Bizonyítást nem adunk (egyszerűsítés: soros eljárás, lépésenkénti alkalmazással). Több általánosítás - ezeket sem nézzük.

MI 2003/ Relaxációs eljárások - további kritériumfüggvények: J q (a) =  y  (-a t y) 2, ennek vannak rosszabb tulajdonságai is, ezért inkább:

MI 2003/ ahol most az Y halmaz azon pontokat jelöli, amelyekre a t y  b teljesül. Ekkor a gradiens és az iteráció:

MI 2003/ Ez is konvergens, ezt sem bizonyítjuk. Nem-szeparálható minták esete: ha a mintaszám kicsi, várhatóan szeparálhatóak (betanítás - tesztelés), amennyiben nagy, majdnem biztosan nem azok. Módosítás:  (k)-t változónak (csökkenőnek) választjuk.

MI 2003/ Legkisebb négyzetek módszere (már nem egy elválasztó hipersíkot keresünk, mert ilyen nincs - nemszeparálható esetnél vagyunk). Itt az Ya = b egyenlet megoldását keressük (továbbra is inhomogén koordináták) - általában Y sorainak száma >> oszlopok száma

MI 2003/ Olyan megoldást keresünk, amelyik az e = Ya - b hibát minimálizálja. Megfelelő kritérium: J s (a) =  n i=1 (a t y i -b i ) 2 Ennek gradiense:  J s =  n i=1 2(a t y i -b i ) y i = 2Y t (Ya-b) Megoldás szükséges feltétele: Y t Ya = Y t b - itt jobb az esély.

MI 2003/ Ha Y t Y nemszinguláris, akkor egyértelmű megoldás: a = (Y t Y) -1 Y t b = Y † b ahol Y † = (Y t Y) -1 Y t. Természetesen függ a b választásától! Példa