Mesterséges neuronhálózatok

Slides:



Advertisements
Hasonló előadás
NEURONHÁLÓK.
Advertisements

Kvantitatív módszerek
Az előadásokon oldandók meg. (Szimulációs modell is tartozik hozzájuk)
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
WI-FI hálózat használata fizikai cím megadásával
IRE 7 /31/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 7.
IRE 8 /38/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 8.
Kötelező alapkérdések
Készítette: Zaletnyik Piroska
Digitális képanalízis
Kommunikációs hálózatok idősorainak analízise neuronhálózatokkal Máté György Diplomamunka Témavezető: Csabai István.
Bevezetés a gépi tanulásba február 16.. Mesterséges Intelligencia „A számítógépes tudományok egy ága, amely az intelligens viselkedés automatizálásával.
Gépi tanulási módszerek
Modellezés és szimuláció
MI 2003/ Alakfelismerés - még egy megközelítés: még kevesebbet tudunk. Csak a mintánk adott, de címkék nélkül. Csoportosítás (klaszterezés, clustering).
Dr. Kovács Emőd VISZ Díjátadó Ünnepség computer graphics Számítógépi grafika Grafikai irányok, kutatások és egyebek.
Neurális hálók néhány alkalmazása a komputergrafikában
European Computer Driver Licence
Szűrés és konvolúció Vámossy Zoltán 2004
ELTE Szlávi - Zsakó: Programozási alapismeretek 5.1/ Sorozatszámítás Specifikáció (a végleges) :  Bemenet:
Adatbányászati modellek aggregálása
Mesterséges intelligenciák
Mesterséges Intelligencia Alapjai II. beadandó Orosz György – Vörös Gyula – Zsiák Gergő Pál.
A problémamegoldás lépései
Adatbázisrendszerek jövője
SZÁMÍTÓGÉP ARCHITEKTÚRÁK - 15 Németh Gábor. 2001Németh Gábor: Számítógép architektúrák 2 NEURÁLIS HÁLÓZATOK Három fő hajtóerő: 1.Az információ-technológia.
Lasztovicza László Neurális hálózatok Lasztovicza László
Textúra elemzés szupport vektor géppel
Gépi tanulás Tanuló ágens, döntési fák, általános logikai leirások tanulása.
Dr. Kovács Emőd VISZ Díjátadó Ünnepség computer graphics Számítógépi grafika Grafikai irányok, kutatások és egyebek.
Többváltozós adatelemzés
BEVEZETŐ Dr. Turóczi Antal
Orvosbiológiai képkereső rendszer teljesítményének képek osztályozásán alapuló javítása Június 23, 2008 Budapest Altrichter Márta Konzulens: dr. Horváth.
Funkciós blokkok A funkciós blokkok áttekintése Az alkalmazás előnyei.
Mesterséges Intelligencia
Neurális hálók.
Megerősítéses tanulás 8. előadás
Szabadkai Műszaki Szakfőiskola 1. A neuron modellje a következő 3 elemből áll: 1. A szinapszisok halmaza amelyekkel a neuronok egymáshoz vannak kapcsolva.
Korreláció-számítás.
Kutatási beszámoló 2002/2003 I. félév Iváncsy Renáta.
A projekt az Európai Unió társfinanszírozásával, az Európa terv keretében valósul meg. Számítógép- architektúrák dr. Kovács György DE AVK GAIT.
Struktúra predikció Struktúra lehet Felügyelt tanulási probléma
Neurális hálók.
SZÁMÍTÓGÉP-ARCHITEKTÚRÁK – 15 NEURÁLIS HÁLÓZATOK Németh Gábor.
Mesterséges Neurális Hálózatok 3. előadás
1 Megerősítéses tanulás 9. előadás Szita István, Lőrincz András.
1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény.
Tanulás az idegrendszerben Structure – Dynamics – Implementation – Algorithm – Computation - Function.
2004 május 27. GÉPÉSZET Komplex rendszerek szimulációja LabVIEW-ban Lipovszki György Budapesti Műszaki Egyetem Mechatronika, Optika és Gépészeti.
M e s t e r s é g e s i n t e l i g e n c i a 9/. dr.Dudás László n Kognitív pszichológiai alapok A kognitív pszichológia a megismerés folyamatát kutatja.
Mesterséges intelligencia
Mediánok és rendezett minták
Szekvenciális hálózatok
Numerikus differenciálás és integrálás
Mesterséges intelligencia
Regresszió, Mesterséges neuronhálók márc. 2.
A neuronhálók tanítása A backpropagation algoritmus
Neurális hálózatok Horváth Gábor I S R G
Mesterséges neuronhálók (Artificial neural networks, ANNs)
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
Regularizáció.
A mesterséges neuronhálók alapjai
3. osztályban.
Szűcs Imre - Dr. Pitlik László (OTKA T049013)
Bevezetés a mély tanulásba
Bevezetés a mély tanulásba
Neuronhálók és tanításuk a backpropagation algoritmussal
KONVOLÚCIÓS NEURONHÁLÓK
Visszacsatolt (rekurrens) neuronhálók
A perceptron neurális modell és tanítása
Előadás másolata:

Mesterséges neuronhálózatok

Neurális hálózat Gépi tanulás egyik módja Mesterséges neuronokból áll McCulloch-Pitts neuron több súlyozott bemenet küszöbfüggvény 1 kimenet, amely lehet végső kimenet elágazhat lehet újabb neuron(ok) bemenete Használat: minták megtanulása után olyan mintákat is tud kategorizálni, amit még nem „látott”

Hálózat használata Neuronháló megtervezése Hálózat elkészítése rétegek száma neuronok száma tanulási algoritmus Hálózat elkészítése Hálózat tanítása Hálózat használata kategorizálási feladatokra

Mesterséges neuron Tanulás: súlyok módosításával Súlyok: a bemenet/kapcsolat erősségét jelzik Kimeneti jel: aktivációs szint Aktivációs szint: a súlyokból, a bemeneti jelekből és a küszöb segítségével számítja ki Bemenetek: a külvilágtól vagy más neuronoktól érkező jelek Kimenet: végső eredmény vagy bemenet más neuronoknak Aktivációs függvény: eldönti, hogy a neuron tüzel-e

Aktivációs függvények szignum (előjel) függvény (1/-1) egységugrás/lépés függvény (0/1) lineáris függvény (y=x) szigmoid függvény

Perceptron legegyszerűbb neuronháló = 1 neuron 1958. Frank Rosenblatt cél: bemeneteket osztályokba sorolni (jó/nem jó) n db bemenet n dimenziós teret oszt fel hipersíkok segítségével 2 területre 2 bemenet: 1 vonal mentén 2 terület 3 bemenet: 3D test

Perceptron n db bemenet: x1,x2, …, xn n db súly: w1,w2, …, wn küszöb: Θ kimenet: Y aktivációs függvény: egységugrás

Tanulás Súlyok módosítása p-edik iterációkor az aktuális és kívánt kimenet közti különbség alapján (felügyelt tanulás) kezdeti súlyok és a küszöb: véletlenszerűen p-edik iterációkor Y(p): aktuális kimenet Yd(p): kívánt kimenet hiba: e(p)=Yd(p)-Y(p) Bemenetek súlyozott összege: X(p)

Tanulás Tanulási szabály – új súly meghatározása: α: pozitív konstans (tanulási tényező)

Tanulási algoritmus 1. Inicializálás 2. Aktiválás súlyok kezdeti értékeinek beállítása, α, θ megállapítása 2. Aktiválás 3. Súlyok meghatározása 4. Ismétlés a 2. lépéstől

Neurális szakértői rendszerek Neurális háló és szabályok kombinációja Szabályok automatikus létrehozása Tudás: a hálóban 3 rétegű háló Minden tulajdonság egy neuron