Előadást letölteni
Az előadás letöltése folymat van. Kérjük, várjon
KiadtaZsigmond Soós Megváltozta több, mint 8 éve
1
1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény (1p) 5.Megoldási mód (1p) 2.Neuron részei (max 3p) 1.Egyenlet (0.5p) 2.Ábra (0.5p) 3.Minden további elem megadása (0.5p) 3.MLP / Multi Layer Perceptron (5p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 3.Költségfüggvény (2p) 4.Kohonen háló (3p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 5.Mik a gradiens-módszer előnyei és hátrányai az explicit megoldásokkal szemben? (3p) Összesen (40p)
2
1.SVM / Support Vector Machine (5p) 1.Költségfüggvény (2p) 2.Magyarázat (1p) 3.Gradiens (1p) 4.Megoldási módszer egyenletei (1p) 2.PCA / Főkomponens analízis (3p) 1.Mit old meg? (1p) 2.Megoldási módszer leírása (1p) 3.Egy lehetséges alkalmazás (1p) 3.Mik a kölcsönös információ előnyei a korrelációval szemben? (3p) 1.Kölcsönös információ definíciója magyarázattal (1p) 2.Korreláció definíciója magyarázattal (1p) 3.Függetlenség és korrelálatlanság kapcsolata (1p) 4.Részlegesen megfigyelhető OSDL / Online Strukturált Szótártanulási probléma (10p) 1.Költségfüggvény (2p) 2.Magyarázat (2p) 3.Gradiensek (2p) 4.Megoldási módszer egyenletei (2p) 5.Egy lehetséges alkalmazás (2p) Összesen (40p)
3
1. Kanonikus felügyelt tanulási feladat Lőrincz András | Neuronháló előadás3
4
4 2. Neuron (perceptron) … …
5
3. MLP Lőrincz András | Neuronháló előadás5
6
Multi Layer Perceptron (MLP) Lőrincz András | Neuronháló előadás6 ij 1 1
7
MLP tudnivalók Lőrincz András | Neuronháló előadás7
8
4. Kohonen háló Kohonen háló (Self-Organizing Map - SOM): felügyeletlen, diszkrét értékű leképezést tanul, topológia: közeli inputokhoz közeli output tartozzon -> vizualizációra jó (sok dimenziót kis dimenzióban tud bemutatni) Minden neuronhoz saját súlyvektor + képtérbeli pozíció. Nyer a k -adik neuron, ha || x - w k || 2 a legkisebb az összes neuron közül (azaz ha ő a legközelebbi neuron a képtérben). A k-adik neuronnak vannak szomszédai (rács). Szomszédainak száma függ a „szomszédsági tér” dimenziójától. Tipikusan 2D és 4 szomszéd Hangolás: a nyertest és a közeli neuronokat (szomszédok szomszédai max k távolságra) hangoljuk az inputra ahol d(j,k,t) a j-edik és a k-adik neuron z j és z k pozícióinak távolsága a „szomszédsági térben” és a szorzó függ az időtől. Pl. Lőrincz András | Neuronháló előadás8
9
Kohonen háló (Self-Organizing Map - SOM) Lőrincz András | Neuronháló előadás9 A rács kezdetben nem illeszkedik a bemenetek halmazára (kék felhő). A fehér pont jelzi az aktuális mintát, a sárga karika pedig a legközelebbi rácspontot és a szomszédságát. A pontot ráhúzzuk a mintára (a szomszédságát is, csak kisebb mértékben), majd ezt ismételjük. Végül a rács illeszkedni fog a kék felhőre, és megmarad a rácsszerkezet által definiált szomszédság.
10
5. Miért választottuk a gradiens- módszert?
11
6. SVM
12
7. PCA
13
PCA kiszámolási módjai, tulajdonságai
14
8. Kölcsönös információ vs korreláció
15
9. OSDL
Hasonló előadás
© 2024 SlidePlayer.hu Inc.
All rights reserved.