NEURONHÁLÓK.

Slides:



Advertisements
Hasonló előadás
Koordináta transzformációk 2
Advertisements

Maximum Likelihood módszerek alkalmazása a rendszeridentifikációban
A MÉRŐESZKÖZÖK CSOPORTOSÍTÁSA
Sorrendi (szekvenciális)hálózatok tervezése
Az előadásokon oldandók meg. (Szimulációs modell is tartozik hozzájuk)
IRE 7 /31/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 7.
IRE 8 /38/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 8.
Kötelező alapkérdések
Kalman-féle rendszer definíció
Diszkrét idejű bemenet kimenet modellek
Készítette: Zaletnyik Piroska
Módszerek sebességi állandók becslésére Kovács Benedek, Budapesti Műszaki és Gazdaségtudományi Egyetem.
Kommunikációs hálózatok idősorainak analízise neuronhálózatokkal Máté György Diplomamunka Témavezető: Csabai István.
Programozási alapismeretek 13. előadás. ELTE Érdekességek - kombinatorika  Az iskola bejáratánál N lépcsőfok van. Egyszerre maximum K fokot tudunk lépni,
Egy kis lineáris algebra
Bevezetés a Java programozásba
Csoportosítás megadása: Δx – csoport szélesség
Modellezés és szimuláció
Ember László Hálózatok (Networks) ISO-OSI TCP/IP.
Dr. Kovács Emőd VISZ Díjátadó Ünnepség computer graphics Számítógépi grafika Grafikai irányok, kutatások és egyebek.
Neurális hálók néhány alkalmazása a komputergrafikában
Mesterséges neuronhálózatok
TECHNOLÓGIA & KONSTRUKCIÓ
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
EMC © Farkas György.
Optimalizálási módszerek 3. Lineáris programozás
T.Gy. Beszedfelism es szint Beszédfelismerés és beszédszintézis Beszédfelismerés neurális hálózatokkal Takács György 13. előadás 2012.
Az egyhurkos szabályozási kör statikus jellemzői
Funkciópont elemzés: elmélet és gyakorlat
a feladat megfogalmazása megoldási módszerek
Mesterséges intelligenciák
FPAD alapú neuron modellek Ormos László Miskolci Egyetem Villamosmérnöki Intézet Automatizálási Tanszék.
Lineáris transzformáció sajátértékei és sajátvektorai
MATEMATIKA ÉS INFORMATIKA I.
Dr. Szalka Éva, Ph.D.1 Statisztika II. VI.. Dr. Szalka Éva, Ph.D.2 Regresszióanalízis.
Hálózati és Internet ismeretek
3. előadás Heterogén sokaságok Szórásnégyzet-felbontás
SZÁMÍTÓGÉP ARCHITEKTÚRÁK - 15 Németh Gábor. 2001Németh Gábor: Számítógép architektúrák 2 NEURÁLIS HÁLÓZATOK Három fő hajtóerő: 1.Az információ-technológia.
Lasztovicza László Neurális hálózatok Lasztovicza László
Textúra elemzés szupport vektor géppel
Gráfelmélet: Fák.
Optimalizáció modell kalibrációja Adott az M modell, és p a paraméter vektora. Hogyan állítsuk be p -t hogy a modell kimenete az x bemenő adatokon a legjobban.
Felnőttképzési bázisközpontok és hálózat fejlesztése projekt K o d o l á n y i János Főiskola.
Méréstechnika.
Dr. Kovács Emőd VISZ Díjátadó Ünnepség computer graphics Számítógépi grafika Grafikai irányok, kutatások és egyebek.
Orvosbiológiai képkereső rendszer teljesítményének képek osztályozásán alapuló javítása Június 23, 2008 Budapest Altrichter Márta Konzulens: dr. Horváth.
Differenciálszámítás
Neurális hálók.
Szabadkai Műszaki Szakfőiskola 1. A neuron modellje a következő 3 elemből áll: 1. A szinapszisok halmaza amelyekkel a neuronok egymáshoz vannak kapcsolva.
Kutatási beszámoló 2002/2003 I. félév Iváncsy Renáta.
A projekt az Európai Unió társfinanszírozásával, az Európa terv keretében valósul meg. Számítógép- architektúrák dr. Kovács György DE AVK GAIT.
Neurális hálók.
SZÁMÍTÓGÉP-ARCHITEKTÚRÁK – 15 NEURÁLIS HÁLÓZATOK Németh Gábor.
Mesterséges Neurális Hálózatok 3. előadás
1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény.
Tanulás az idegrendszerben Structure – Dynamics – Implementation – Algorithm – Computation - Function.
Gazdaságstatisztika Gazdaságstatisztika Korreláció- és regressziószámítás II.
Szabadkai Műszaki Szakfőiskola
Gazdaságstatisztika Konzultáció a korreláció- és regressziószámítás, idősorok elemzése témakörökből.
Regresszió, Mesterséges neuronhálók márc. 2.
A neuronhálók tanítása A backpropagation algoritmus
Neurális hálózatok Horváth Gábor I S R G
Konvolúciós neuronhálók
Mesterséges neuronhálók (Artificial neural networks, ANNs)
A mesterséges neuronhálók alapjai
Szűcs Imre - Dr. Pitlik László (OTKA T049013)
Bevezetés a mély tanulásba
Bevezetés a mély tanulásba
Visszacsatolt (rekurrens) neuronhálók
A perceptron neurális modell és tanítása
Előadás másolata:

NEURONHÁLÓK

 Egy neuron modellje Súlytényezők A1 w1 Kimenet wi szummázó küszöb fv. Kimenet wi Bemeneti aktiválások Ai wn An

Küszöbfüggvények Lépésfüggvény lépésfüggvény szigmoid függvények 1, ha x > 0 f(x) = f’(x), azaz f(x) előző értéke ha x = 0 -1, ha x < 0 ahol x =  Ai*wi

Szigmoid függvények f(x) = 1 / (1+e-x) f(x) = tanh(x)

Kétrétegű neurális hálózat Y1 Yj Yn W11 Wmj W1j Wij Wmn Win Wi1 W1n Wm1 X1 Xi Xm

Tanulás Donald Hebb: Organization of Behaviour wij =  ai aj ahol  a tanulási sebesség, ai és aj az i-edik és j-edik neuron aktivitási szintje (két különböző réteg!) Ez az ú.n. korrelációs tanulás. Egy változata wij = - wij + S(ai) S(aj) ahol S egy szigmoid függvény

Tanulás tanító nélkül Tanulás tanítóval A fenti két módszer egyáltalán nem vizsgálta a kimenetet a súlytényezők változtatásához. Ezért ezt „tanító nélküli” tanulásnak (néha önszerveződésnek) nevezzük. Tanulás tanítóval Minden bemenethez megadjuk a kívánt kimeneti értéket. Az ettől való eltérés a hiba, ennek alapján korrigáljuk a súlytényezőket. A hibakorrekciós tanulás egy formája: wij =  ai[cj – bj] ahol  a tanulási sebesség, ai az i-edik neuron bj a j-edik neuron aktivitási szintje és cj a kivánt szint.

Többrétegű neurális hálózatok Visszafelé terjedéses hálók: tanítóval tanulnak, bemeneti és kimeneti rétegük között egy v. több rejtett réteg található. A hibát először a kimenetre határozzuk meg, onnan transzformáljuk vissza a rejtett rétegekre, innen a „visszafelé terjedés” név.

o1 ok oq kimeneti réteg w21k W2 súlymátrix w211 w21q h1 hj hp rejtett réteg W1 súlymátrix w1nj w11j w1np w111 w1ij w11p w1ip w1n1 w1i1 i1 ii in bemeneti réteg

A működés Előre menet 1. A rejtett réteg neuronjainak aktivitása: h = F(iW1), ahol h a rejtett réteg neuronjainak vektora, i a bemeneti réteg neuronjainak vektora és W1 a súlymátrix a két réteg között. 2. A kimeneti réteg neuronjainak aktivitása: o = F(hW2), ahol o a kimeneti réteg neuronjainak vektora, h a rejtett réteg neuronjainak aktivitása és W2 a súlymátrix a két réteg között. F az 1/(1+e-x) alakú szigmoid függvény. Visszafelé menet 3. A kimeneti hiba meghatározása: d=o(1-o)(o-t), ahol d a hibavektor, o a kimeneti réteg neuronjainak aktivitása, t a helyes kimeneti értékek vektora.

4. A rejtett réteg hibája: e = h(1-h)W2d, ahol e a hibavektor a rejtett réteg neuronjaira. 5. A súlytényezők módosítása a második kapcsolati rétegben: W2 = W2 + W2, ahol W2 =  hd + W2t-1 6. A súlytényezők módosítása az első kapcsolati rétegben: W1 = W1 + W1t, ahol W1t =  i e + W1t-1

A tanultak visszahívása h = F(W1i) o = F(W2h), ahol o a visszahívott mintázat