Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

NEURONHÁLÓK.   szummázó küszöb fv. w1w1 wiwi wnwn A1A1 AiAi AnAn Kimenet Bemeneti aktiválások Súlytényezők Egy neuron modellje.

Hasonló előadás


Az előadások a következő témára: "NEURONHÁLÓK.   szummázó küszöb fv. w1w1 wiwi wnwn A1A1 AiAi AnAn Kimenet Bemeneti aktiválások Súlytényezők Egy neuron modellje."— Előadás másolata:

1 NEURONHÁLÓK

2   szummázó küszöb fv. w1w1 wiwi wnwn A1A1 AiAi AnAn Kimenet Bemeneti aktiválások Súlytényezők Egy neuron modellje

3 Küszöbfüggvények •lépésfüggvény •szigmoid függvények Lépésfüggvény 1, ha x > 0 f(x) = f’(x), azaz f(x) előző értéke ha x = 0 -1, ha x < 0 ahol x =  A i *w i

4 Szigmoid függvények f(x) = 1 / (1+e -x ) f(x) = tanh(x)

5 Y1Y1 YjYj YnYn X1X1 XiXi XmXm W 11 W ij W 1j W 1n W i1 W in W m1 W mj W mn Kétrétegű neurális hálózat

6 Tanulás Donald Hebb: Organization of Behaviour  w ij =  a i a j ahol  a tanulási sebesség, a i és a j az i-edik és j-edik neuron aktivitási szintje (két különböző réteg!) Ez az ú.n. korrelációs tanulás. Egy változata  w ij = - w ij + S(a i ) S(a j ) ahol S egy szigmoid függvény

7 Tanulás tanító nélkül A fenti két módszer egyáltalán nem vizsgálta a kimenetet a súlytényezők változtatásához. Ezért ezt „tanító nélküli” tanulásnak (néha önszerveződésnek) nevezzük. Tanulás tanítóval Minden bemenethez megadjuk a kívánt kimeneti értéket. Az ettől való eltérés a hiba, ennek alapján korrigáljuk a súlytényezőket. A hibakorrekciós tanulás egy formája:  w ij =  a i [c j – b j ] ahol  a tanulási sebesség, a i az i-edik neuron b j a j- edik neuron aktivitási szintje és c j a kivánt szint.

8 Többrétegű neurális hálózatok Visszafelé terjedéses hálók: tanítóval tanulnak, bemeneti és kimeneti rétegük között egy v. több rejtett réteg található. A hibát először a kimenetre határozzuk meg, onnan transzformáljuk vissza a rejtett rétegekre, innen a „visszafelé terjedés” név.

9 o1o1 okok oqoq i1i1 i inin w1 11 w1 ij w1 1j w1 1p w1 i1 w1 ip w1 n1 w1 nj w1 np kimeneti réteg h1h1 hjhj hphp rejtett réteg bemeneti réteg w2 11 w2 1k w2 1q W1 súlymátrix W2 súlymátrix

10 A működés Előre menet 1. A rejtett réteg neuronjainak aktivitása: h = F(iW1), ahol h a rejtett réteg neuronjainak vektora, i a bemeneti réteg neuronjainak vektora és W1 a súlymátrix a két réteg között. 2. A kimeneti réteg neuronjainak aktivitása: o = F(hW2), ahol o a kimeneti réteg neuronjainak vektora, h a rejtett réteg neuronjainak aktivitása és W2 a súlymátrix a két réteg között. F az 1/(1+e -x ) alakú szigmoid függvény. Visszafelé menet 3. A kimeneti hiba meghatározása: d=o(1-o)(o-t), ahol d a hibavektor, o a kimeneti réteg neuronjainak aktivitása, t a helyes kimeneti értékek vektora.

11 4. A rejtett réteg hibája: e = h(1-h)W2d, ahol e a hibavektor a rejtett réteg neuronjaira. 5. A súlytényezők módosítása a második kapcsolati rétegben: W2 = W2 +  W2, ahol  W2 =  hd +  W2 t-1 6. A súlytényezők módosítása az első kapcsolati rétegben: W1 = W1 + W1 t, ahol W1 t =  i e +  W1 t-1

12 A tanultak visszahívása 1.h = F(W1i) 2.o = F(W2h), ahol o a visszahívott mintázat


Letölteni ppt "NEURONHÁLÓK.   szummázó küszöb fv. w1w1 wiwi wnwn A1A1 AiAi AnAn Kimenet Bemeneti aktiválások Súlytényezők Egy neuron modellje."

Hasonló előadás


Google Hirdetések