Mesterséges Neurális Hálózatok 3. előadás

Slides:



Advertisements
Hasonló előadás
NEURONHÁLÓK.
Advertisements

Készítette: Kosztyán Zsolt Tibor
Függvények Egyenlőre csak valós-valós függvényekkel foglalkozunk.
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
IRE 8 /38/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 8.
Kötelező alapkérdések
Kalman-féle rendszer definíció
Készítette: Zaletnyik Piroska
Módszerek sebességi állandók becslésére Kovács Benedek, Budapesti Műszaki és Gazdaségtudományi Egyetem.
SAS Enterprise Miner 2. gyakorlat
4. VÉGES HALMAZOK 4.1 Alaptulajdonságok
Programozási alapismeretek 8. előadás. ELTE 2/  További programozási tételek További programozási tételek 
DIFFERENCIÁLSZÁMÍTÁS
Bayes hálók október 20. Farkas Richárd
Lineáris és nemlineáris regressziók, logisztikus regresszió
Dr. Kovács Emőd VISZ Díjátadó Ünnepség computer graphics Számítógépi grafika Grafikai irányok, kutatások és egyebek.
Mesterséges neuronhálózatok
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
SZÁMÍTÓGÉP ARCHITEKTÚRÁK
A digitális számítás elmélete
A jelátvivő tag Az irányítástechnika jelátvivő tagként vizsgál minden olyan alkatrészt (pl.: tranzisztor, szelep, stb.), elemet vagy szervet (pl.: jelillesztő,
Év eleji információk Előadó: Hosszú Ferenc II. em Konzultáció: Szerda 9:50 – 10:35 II. em
III. előadás.
Differenciál számítás
Lineáris korreláció és lineáris regresszió. A probléma felvetése y = 1,138x + 80,778r = 0,8962.
Integrálszámítás Mire fogjuk használni az integrálszámítást a matematikában, hova szeretnénk eljutni? Hol használható és mire az integrálszámítás? (már.
PTE PMMK Matematika Tanszék dr. Klincsik Mihály Matematika III. előadások MINB083, MILB083 Gépész és Villamosmérnök szak BSc képzés 2007/2008. őszi félév.
Evapotranspiráció elõrejelzése mesterséges neuronális halózatok segitségével Wójcicki Andrzej, GTK V. konzulens: Dr. Pitlik László Gazdasági Informatika.
Rendszerek sajátfüggvényei és azok tulajdonságai Folytonos (FT) rendszerekkel foglalkozunk,de az eredmények átvihetők diszkrét rendszerekre is. kt)kt)
Diplomamunka Geometriai invariánsokat interpoláló rekurzívan finomítható felületek Valasek Gábor ELTE IK, 2008.
SZÁMÍTÓGÉP ARCHITEKTÚRÁK - 15 Németh Gábor. 2001Németh Gábor: Számítógép architektúrák 2 NEURÁLIS HÁLÓZATOK Három fő hajtóerő: 1.Az információ-technológia.
Lasztovicza László Neurális hálózatok Lasztovicza László
Gyengén nemlineáris rendszerek modellezése és mérése Készítette: Kis Gergely Konzulens: Dobrowieczki Tadeusz (MIT)
Textúra elemzés szupport vektor géppel
Gazdaságstatisztika 11. előadás.
Többváltozós adatelemzés
Ismeretlen terhelésű szakaszok adaptív szabályozása József K. Tar, Katalin Lőrinc, László Nádai Budapesti Műszaki Főiskola H-1034 Budapest, Bécsi út 96/B.
Vektorterek Definíció. Legyen V Abel-csoport, F test, továbbá
Lagrange-interpoláció
Rendszerek stabilitása
Orvosbiológiai képkereső rendszer teljesítményének képek osztályozásán alapuló javítása Június 23, 2008 Budapest Altrichter Márta Konzulens: dr. Horváth.
Lineáris algebra.
Szabályozási Rendszerek 2014/2015 őszi szemeszter Előadás Automatizálási tanszék.
Neurális hálók.
előadások, konzultációk
A folytonosság Digitális tananyag.
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
Szabadkai Műszaki Szakfőiskola 1. A neuron modellje a következő 3 elemből áll: 1. A szinapszisok halmaza amelyekkel a neuronok egymáshoz vannak kapcsolva.
Programozási alapismeretek 8. előadás. ELTE Szlávi-Zsakó: Programozási alapismeretek 8.2/  További programozási.
előadások, konzultációk
T.5. tétel (minimálpolinom egyértelmű létezése)
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
A projekt az Európai Unió társfinanszírozásával, az Európa terv keretében valósul meg. Számítógép- architektúrák dr. Kovács György DE AVK GAIT.
PÁRHUZAMOS ARCHITEKTÚRÁK – 13 INFORMÁCIÓFELDOLGOZÓ HÁLÓZATOK TUDÁS ALAPÚ MODELLEZÉSE Németh Gábor.
SZÁMÍTÓGÉP-ARCHITEKTÚRÁK – 15 NEURÁLIS HÁLÓZATOK Németh Gábor.
1 Megerősítéses tanulás 4. előadás Szita István, Lőrincz András.
Ismétlés. "Man - a being in search of meaning." Plato Searching in an Unsorted Database.
Tanulás az idegrendszerben Structure – Dynamics – Implementation – Algorithm – Computation - Function.
TÁMOP /1-2F Informatikai gyakorlatok 11. évfolyam Alapvető programozási tételek megvalósítása Czigléczky Gábor 2009.
Operációkutatás I. 1. előadás
Integrálszámítás.
Mesterséges intelligencia
II. konzultáció Analízis Sorozatok Egyváltozós valós függvények I.
III. előadás.
Neurális hálózatok Horváth Gábor I S R G
Informatikai gyakorlatok 11. évfolyam
A mesterséges neuronhálók alapjai
Szűcs Imre - Dr. Pitlik László (OTKA T049013)
Visszacsatolt (rekurrens) neuronhálók
Előadás másolata:

Mesterséges Neurális Hálózatok 3. előadás Póczos Barnabás NIPG ELTE-IK

Reprezentációs és approximációs kérdések

Tartalom Reprezentációs, és approximációs kérdések A tanulás (mindig valamilyen optimalizálás) Optimalizálási módszerek Perceptron Többrétegű perceptron Alkalmazások

Reprezentációs kérdések Hilbert 13. sejtése (1900) Legyen f olyan 3 változós függvény, melyre f(a,b,c)=x, ahol x^7+ax^3+bx^2+cx+1=0 Bizonyítsuk be, hogy f nem írható fel véges sok kétváltozós folytonos függvény segítségével. Átfogalamazva: Igazoljuk, hogy van olyan 3 bemenetű nermlineáris rendszer, mely nem írható fel véges számú kétváltozós folytonos függvény segítségével. Azaz van olyan többváltozós rendszer, amit nem tudunk dekomponálni egyszerűbbekkel :-((

Dekomponálás, példa Legyenek Φ1(.,.) , Φ2 (.,.) kétváltozós függvények ψ1(.), ψ2(.), ψ3(.) egyváltozós függvények c1, c1 konstansok Ekkor f egy dekomponálása a következő: f(x,y,z)=Φ1(ψ1(x), ψ2(y)) + Φ2(c1ψ3(y)+c2ψ4(z),x)

Dekomponálás példa f(x,y,z)=Φ1(ψ1(x), ψ2(y)) + Φ2(c1ψ3(y)+c2ψ4(z),x) Σ y ψ3 c1 Φ2 Σ z ψ4 c2

Reprezentációs kérdések Arnold megcáfolja a Hilbert sejtést (1957) Nemkonstruktív reprezentációs tételek: Kolmogorov (1957) Sprecher (1965)

Reprezentáció, Kolmogorov 1957 f: [0,1]N  R tetszőleges, folytonos, N ¸ 2 Létezik N(2N+1) db folytonos, egyváltozós, f-től független (csak N-től függ) monoton növekedő függvény, hogy p,q(¢): [0,1]  R p=1..N, 0=1..2N továbbá létezik N db f-től függő egyváltozós, függvény ,q=1..N, hogy

Reprezentáció, Kolmogorov 1957 A tétel azonban nem konstruktív Adott N-hez, nem ismerjük Adott N-hez és f-hez nem ismerjük

Reprezentáció, Sprecher (1965) A Kolmogorov féle függvényrendszer helyett elég egy Φ és ψ. Azaz létezik λ, és ε, hogy Ez a tétel sem konstruktív.

Approximáló rendszer, univerzális approximátorok Hornik, Stichambe, White (1989) Def ΣN(g) 1 rétegű neurális hálózat Állítás: Ha δ>0 tetszőleges, g tetszőleges de telítődő, f folytonos A kompakt halamazon érelmezett →

Approximáló rendszer, univerzális approximátorok Tehát approximáció szempontjából elég: 1 rejtett réteg Telítődő nemlinearitás Tanító algoritmus még nincs, ezek csak egzisztencia tételek.

Approximáló rendszer, univerzális approximátorok Blum, Li (1991) SgnNet^2(x,w) két rétegű neurális hálózat egyenletesen sűrű L^2-ben. Bizonyítás: Integrál közelítő összegek

Feedforward neurális háló Speciálisan egy két rétegű neurális hálózat:

Blum, Li (1991) Egyenletesen sűrű L2-ben, más szóval, ha tetszőleges akkor

Bizonyítás (Lenvendowszky János jegyzete) Integrálközelítés 1 dimenzióban: A továbbiakban csak a 2 dimenziós esettel foglalkozunk Partícionáljuk az állapotteret:

Egy ilyen partícionálást meg tud tanulni az alábbi neurális hálózat: 1 ha X eleme Xi -1 egyébként

Az AND függvény reprezentálása 1 neuronnal

Az OR függvény reprezentálása 1 neuronnal

Neuron típusok

Neuron típusok Perceptron, Adaline y=f(s)=f(wTx) f(.) W0 W1 W2 WN Σ x0=1 x1 x2 xN y s

Neuron típusok Fukoshima (1988) x1 W1 s1 x2 W2 u f1(.,.) f2(.) Σ xN WN s2 xg Wg

Neuron típusok Radiális Bázis Függvény (RBF) Minden bemenet közvetlenül a nemlinearitásra jut, mely N bemenetű Nicsenek lineáris paraméterek Nincs lineáris összegzés Itt a nemlinearitás a PARAMÉTEREZETT x1 f(x1,…, xn) x2 xn

Adaptáció, tanulás, költség függvények

Adaptáció, tanulás Nincsenek rögzített képességek, a képességek a tanulás során fejlődnek, adaptálódnak a (változó) környezethez. Tanítóval adott bemenet-kimenet párok  tanulás  approximáció, leképzés megtanulása. Tanító nélkül csak bemenet  tanulás mintákban szabályosság, hasonlóság, különbözőség megtanulása

Tanítóval történő tanítás (supervised learning) adott bemenet-kimenet párok  tanulás  approximáció, leképzés megtanulása mindig kiszámítható a hiba a tanítás során (tényleges és kívánt válasz különbsége) a hiba a tanítás alapja feladat: modell illesztés, identifikáció, függvény approximáció, ezek valójában szélsőérték keresési feladatok hiba  min

Megerősítéses tanulás Speciális tanítóval történő tanítás A feladat végén kapunk kritikát a működésről. (jutalom, vagy büntetés)

Tanító nélküli tanulás (unsupervised learning) Csak bemeneti minták állnak rendelkezésre, kívánt válaszok nem Cél szabályosság, hasonlóság, különbözőség megtanulása Valójában ezek is szélsőérték keresési eljárások

Tanítóval történő tanítás n zaj Ismeretlen rendszer g(u,n) fekete doboz a modellezendő feladat u input d output C(d,y) költség függvény hibaszámítás pl C(d,y)=|d-y|2 Neural Net modell g^(w,u) y w Paraméter módosító algoritmus

Neural net modell A Neural Net = modell lehet speciális eset statikus (memória neélküli) dinamikus (memóriával rendelkező) g^(w,ut-k,…, ut-1, ut)=yt g^(w,ut-k,…, ut-1, ut, yt-k,…, yt-1)=yt speciális eset g^(w,u)=wTu g^(w1,w2,w3,ut-1,ut,yt-1)=w1Tyt-1+ w2Tut-1+ w3Tut

Költség függvények Cél d output, és y approximált output, minél közelebb legyen egymáshoz. Speciális esetek Pillanatnyi hiba alapján C(d,y)=c(w)=(d-y)T(d-y)= =(g^(w,u)-y)T(g^(w,u)-y) min_w