Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

MI 2003/11 - 1 Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási.

Hasonló előadás


Az előadások a következő témára: "MI 2003/11 - 1 Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási."— Előadás másolata:

1 MI 2003/ Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási lehetőséget - ha b-t jól választjuk, ezt itt is megkaphatjuk. A levezetése elég hosszadalmas, nem adjuk meg. A Bayes döntéshez tart növekvő mintánál!

2 MI 2003/ A perceptron modell igazából csak az szétválasztható esetre működik jól, a legkisebb négyzetes pedig a nem szétválaszthatóra. Ha a b-t is változónak tekintjük, eljutunk a Ho-Kashyap eljáráshoz, amelyik mindkét esetre alkalmazható.

3 MI 2003/ A kritérium-függvényünk: J s (a,b) =  Ya - b  2 Az a szerinti gradienst már kiszámoltuk:  a J s = 2Y t (Ya-b) a b szerinti pedig:  b J s = -2(Ya-b)

4 MI 2003/ Elindulhatunk az a szerinti gradiensekből (a=Y † b) és a b > 0 feltételt megőrző megoldáshoz juthatunk. Ehhez a  b J s pozitív kompenenseit nullának vesszük, és ezzel a b(k+1) = b(k) -  (k)[  b J s - |  b J s |]/2 összefüggéshez jutunk, ahonnan a gradienseket felhasználva kapjuk:

5 MI 2003/ b(1) > 0, b(k+1) = a(k) + 2  (k)e + (k), ahol e(k) = Ya (k) - b (k) a hibafüggvény, e + (k) = (e(k) + |e(k)| )/2 pedig ennek pozitív része, továbbá a(k) =Y † b (k). Ez a Ho-Kashyap eljárás

6 MI 2003/ Több osztály esete: itt is lineáris diszkriminancia függvényeket keresünk, és csak a szeparálható esettel foglalkozunk. Homogén koordinátákkal ez g i (x) = a i t y, i = 1, 2, …, c alakú függvényeket jelent, és azt az  i osztályt választjuk, amelyre g i (x) > g j (x), minden j  i -re.

7 MI 2003/ Kessler módszere: kétosztályos esetre vezet vissza mindent (ezzel a dimenziókat c- szeresre növeli, de már ismert módszert fog tovább használni). Pontosabban: először az első osztályhoz tartozó pontokat választjuk el a többiektől a a 1 t y k - a j t y k > 0, j = 2, 3, …, c segítségével.

8 MI 2003/ Ez tulajdonképpen c-1 egyenlőtlenséget jelent, amelyeket a korábbi eljárásokkal oldhatunk meg. Vissza: agy működése (neuronhálók) Példák logikai függvényekre Többszintű hálók

9 MI 2003/ Szintaktikus módszerek Nem-numerikus adatok: például gyümölcsök osztályozásánál színek, méret, …. Attributumok listája. Mit és hogyan lehet tanulni? Döntési fa: minden csúcsban két- vagy többértékű döntés. Levelek: osztályok. Példa.

10 MI 2003/ Hogyan építsünk fel egy döntési fát? Itt is adott egy minta (osztályzott példák halmaza). Ezt szeretnénk kérdésekkel felosztani. Ideális (tiszta) eset: egy kialakult részhalmazban minden elemnek azonos a címkéje. Addig: döntés, leálljunk-e (kevert osztály), vagy további kérdést fogalmazzunk meg (növeljük a fát).

11 MI 2003/ Faépítés általános kérdései - elágazási szám: bináris vagy többértékű? - melyik csúcsnál milyen tulajdonság ellenőrzése? - mi legyen levél? - ha túl nagy a fa, hogyan csökkenthetjük? - ha egy levélnél több címke, melyiket válasszuk? - mi legyen hiányzó adatoknál?

12 MI 2003/ Bináris eset. Mikor melyik kérdés? Tisztaságra törekvés. Mérték? Tisztátlanság (i: impurity). Entrópia az N csúcsnál: i(N) = -  j P(  j )log 2 P(  j ), ez akkor nulla, ha minden elem egy osztályba tartozik. Másik (két osztályra): i(N) = P(  1 ) P(  2 ).

13 MI 2003/ Gini tisztátlanság (több osztályra): i(N) =  i  j P(  i )P(  j ) = 1 -  j P 2 (  j ), Hibás osztályozás tisztátlanság: i(N) = 1 - max j P(  j ) Alapkérdés: egy adott csúcspontban melyik tulajdonság szerint döntsünk?

14 MI 2003/ Válasz: amelyik a tisztátlanságot a legjobban csökkenti:  i(N) = i(N) - P L i(N L ) - (1 - P L )i(N R ), valamelyik tisztátlanság-definícióval (vagy annak monoton függvényével). Elég sok számolással járhat.

15 MI 2003/ Többlépcsős eljárás - mohó módszer. Szükség esetén szuper-osztályok létrehozása. Nagyobb elágazási faktor: a cél itt  i(N) = i(N) -  B k=1 P k i(N k ) minimalizálása. Könnyen hoz létre túl sok osztályt. Még több számolás.

16 MI 2003/ Mikor álljunk le a további kérdésekkel? - tanítás -tesztelés eredménye elég jó, - a következő kérdésnél a tisztátlanság csökkenése elég kicsi, - kevés pont marad a leveleknél, - statisztikai módszerek.

17 MI 2003/ Vágás (nyesés): gyakran érdemes nagyon nagy fát felépíteni, és utána összevonni ágakat (több információnk van, mintha korábban leállnánk). Címkék hozzárendelése a levelekhez: “tiszta” osztályoknál triviális, egyébként a legtöbb elemet tartalmazó osztály. Példa

18 MI 2003/ Példa

19 MI 2003/ Számítási bonyolultság: jó esetben O(dn(log n) 2 ), rossz esetben: O(dn 2 log n). Tulajdonságok kiválasztása: gyakran sokat segíthet egy jó előfeldolgozás.

20 MI 2003/ Példa.

21 MI 2003/ Leggyakoribb módszer: ID3. Nominális adatok (ha numerikus is van, először rész- intervallumokba osztjuk azokat), entrópia használata. Példa Továbbfejlesztett (és leggyakrabban használt) változata: C4.5

22 MI 2003/ Minták (sztringek) illesztése. Adott egy véges abc, fölötte szavak. Minta, szöveg, faktor, részsorozat definíciója. Alkalmazási lehetőségek: - keresés szövegekben, - keresés DNS láncokban, - számítógépes grafika.

23 MI 2003/ Alapproblémák: - minta keresése (faktora egy szövegnek?) - szerkesztési távolság: a lehető legkevesebb elemi művelettel (törlés, beszúrás, csere) való átvitel - minta keresése hibával - minta keresése “akármi” szimbólummal

24 MI 2003/ Szerkesztési távolság: dinamikus programozás. Alapképlet: C(i,j) = min {C(i-1,j)+1, C(i,j-1)+1, C(i-1,j-1)+1-  (x[i], y[j])} Példa


Letölteni ppt "MI 2003/11 - 1 Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási."

Hasonló előadás


Google Hirdetések