Előadást letölteni
Az előadás letöltése folymat van. Kérjük, várjon
KiadtaArtúr Fehér Megváltozta több, mint 10 éve
1
MI 2003/11 - 1 Mi lenne a b legjobb választása? Statisztikai eljárásoknál az un. Fisher féle lineáris diszkriminancia függvény adja a legjobb szétválasztási lehetőséget - ha b-t jól választjuk, ezt itt is megkaphatjuk. A levezetése elég hosszadalmas, nem adjuk meg. A Bayes döntéshez tart növekvő mintánál!
2
MI 2003/11 - 2 A perceptron modell igazából csak az szétválasztható esetre működik jól, a legkisebb négyzetes pedig a nem szétválaszthatóra. Ha a b-t is változónak tekintjük, eljutunk a Ho-Kashyap eljáráshoz, amelyik mindkét esetre alkalmazható.
3
MI 2003/11 - 3 A kritérium-függvényünk: J s (a,b) = Ya - b 2 Az a szerinti gradienst már kiszámoltuk: a J s = 2Y t (Ya-b) a b szerinti pedig: b J s = -2(Ya-b)
4
MI 2003/11 - 4 Elindulhatunk az a szerinti gradiensekből (a=Y † b) és a b > 0 feltételt megőrző megoldáshoz juthatunk. Ehhez a b J s pozitív kompenenseit nullának vesszük, és ezzel a b(k+1) = b(k) - (k)[ b J s - | b J s |]/2 összefüggéshez jutunk, ahonnan a gradienseket felhasználva kapjuk:
5
MI 2003/11 - 5 b(1) > 0, b(k+1) = a(k) + 2 (k)e + (k), ahol e(k) = Ya (k) - b (k) a hibafüggvény, e + (k) = (e(k) + |e(k)| )/2 pedig ennek pozitív része, továbbá a(k) =Y † b (k). Ez a Ho-Kashyap eljárás
6
MI 2003/11 - 6 Több osztály esete: itt is lineáris diszkriminancia függvényeket keresünk, és csak a szeparálható esettel foglalkozunk. Homogén koordinátákkal ez g i (x) = a i t y, i = 1, 2, …, c alakú függvényeket jelent, és azt az i osztályt választjuk, amelyre g i (x) > g j (x), minden j i -re.
7
MI 2003/11 - 7 Kessler módszere: kétosztályos esetre vezet vissza mindent (ezzel a dimenziókat c- szeresre növeli, de már ismert módszert fog tovább használni). Pontosabban: először az első osztályhoz tartozó pontokat választjuk el a többiektől a a 1 t y k - a j t y k > 0, j = 2, 3, …, c segítségével.
8
MI 2003/11 - 8 Ez tulajdonképpen c-1 egyenlőtlenséget jelent, amelyeket a korábbi eljárásokkal oldhatunk meg. Vissza: agy működése (neuronhálók) Példák logikai függvényekre Többszintű hálók
9
MI 2003/11 - 9 Szintaktikus módszerek Nem-numerikus adatok: például gyümölcsök osztályozásánál színek, méret, …. Attributumok listája. Mit és hogyan lehet tanulni? Döntési fa: minden csúcsban két- vagy többértékű döntés. Levelek: osztályok. Példa.
10
MI 2003/11 - 10 Hogyan építsünk fel egy döntési fát? Itt is adott egy minta (osztályzott példák halmaza). Ezt szeretnénk kérdésekkel felosztani. Ideális (tiszta) eset: egy kialakult részhalmazban minden elemnek azonos a címkéje. Addig: döntés, leálljunk-e (kevert osztály), vagy további kérdést fogalmazzunk meg (növeljük a fát).
11
MI 2003/11 - 11 Faépítés általános kérdései - elágazási szám: bináris vagy többértékű? - melyik csúcsnál milyen tulajdonság ellenőrzése? - mi legyen levél? - ha túl nagy a fa, hogyan csökkenthetjük? - ha egy levélnél több címke, melyiket válasszuk? - mi legyen hiányzó adatoknál?
12
MI 2003/11 - 12 Bináris eset. Mikor melyik kérdés? Tisztaságra törekvés. Mérték? Tisztátlanság (i: impurity). Entrópia az N csúcsnál: i(N) = - j P( j )log 2 P( j ), ez akkor nulla, ha minden elem egy osztályba tartozik. Másik (két osztályra): i(N) = P( 1 ) P( 2 ).
13
MI 2003/11 - 13 Gini tisztátlanság (több osztályra): i(N) = i j P( i )P( j ) = 1 - j P 2 ( j ), Hibás osztályozás tisztátlanság: i(N) = 1 - max j P( j ) Alapkérdés: egy adott csúcspontban melyik tulajdonság szerint döntsünk?
14
MI 2003/11 - 14 Válasz: amelyik a tisztátlanságot a legjobban csökkenti: i(N) = i(N) - P L i(N L ) - (1 - P L )i(N R ), valamelyik tisztátlanság-definícióval (vagy annak monoton függvényével). Elég sok számolással járhat.
15
MI 2003/11 - 15 Többlépcsős eljárás - mohó módszer. Szükség esetén szuper-osztályok létrehozása. Nagyobb elágazási faktor: a cél itt i(N) = i(N) - B k=1 P k i(N k ) minimalizálása. Könnyen hoz létre túl sok osztályt. Még több számolás.
16
MI 2003/11 - 16 Mikor álljunk le a további kérdésekkel? - tanítás -tesztelés eredménye elég jó, - a következő kérdésnél a tisztátlanság csökkenése elég kicsi, - kevés pont marad a leveleknél, - statisztikai módszerek.
17
MI 2003/11 - 17 Vágás (nyesés): gyakran érdemes nagyon nagy fát felépíteni, és utána összevonni ágakat (több információnk van, mintha korábban leállnánk). Címkék hozzárendelése a levelekhez: “tiszta” osztályoknál triviális, egyébként a legtöbb elemet tartalmazó osztály. Példa
18
MI 2003/11 - 18 Példa
19
MI 2003/11 - 19 Számítási bonyolultság: jó esetben O(dn(log n) 2 ), rossz esetben: O(dn 2 log n). Tulajdonságok kiválasztása: gyakran sokat segíthet egy jó előfeldolgozás.
20
MI 2003/11 - 20 Példa.
21
MI 2003/11 - 21 Leggyakoribb módszer: ID3. Nominális adatok (ha numerikus is van, először rész- intervallumokba osztjuk azokat), entrópia használata. Példa Továbbfejlesztett (és leggyakrabban használt) változata: C4.5
22
MI 2003/11 - 22 Minták (sztringek) illesztése. Adott egy véges abc, fölötte szavak. Minta, szöveg, faktor, részsorozat definíciója. Alkalmazási lehetőségek: - keresés szövegekben, - keresés DNS láncokban, - számítógépes grafika.
23
MI 2003/11 - 23 Alapproblémák: - minta keresése (faktora egy szövegnek?) - szerkesztési távolság: a lehető legkevesebb elemi művelettel (törlés, beszúrás, csere) való átvitel - minta keresése hibával - minta keresése “akármi” szimbólummal
24
MI 2003/11 - 24 Szerkesztési távolság: dinamikus programozás. Alapképlet: C(i,j) = min {C(i-1,j)+1, C(i,j-1)+1, C(i-1,j-1)+1- (x[i], y[j])} Példa
Hasonló előadás
© 2024 SlidePlayer.hu Inc.
All rights reserved.