1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény (1p) 5.Megoldási mód (1p) 2.Neuron részei (max 3p) 1.Egyenlet (0.5p) 2.Ábra (0.5p) 3.Minden további elem megadása (0.5p) 3.MLP / Multi Layer Perceptron (5p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 3.Költségfüggvény (2p) 4.Kohonen háló (3p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 5.Mik a gradiens-módszer előnyei és hátrányai az explicit megoldásokkal szemben? (3p) Összesen (40p)
1.SVM / Support Vector Machine (5p) 1.Költségfüggvény (2p) 2.Magyarázat (1p) 3.Gradiens (1p) 4.Megoldási módszer egyenletei (1p) 2.PCA / Főkomponens analízis (3p) 1.Mit old meg? (1p) 2.Megoldási módszer leírása (1p) 3.Egy lehetséges alkalmazás (1p) 3.Mik a kölcsönös információ előnyei a korrelációval szemben? (3p) 1.Kölcsönös információ definíciója magyarázattal (1p) 2.Korreláció definíciója magyarázattal (1p) 3.Függetlenség és korrelálatlanság kapcsolata (1p) 4.Részlegesen megfigyelhető OSDL / Online Strukturált Szótártanulási probléma (10p) 1.Költségfüggvény (2p) 2.Magyarázat (2p) 3.Gradiensek (2p) 4.Megoldási módszer egyenletei (2p) 5.Egy lehetséges alkalmazás (2p) Összesen (40p)
1. Kanonikus felügyelt tanulási feladat Lőrincz András | Neuronháló előadás3
4 2. Neuron (perceptron) … …
3. MLP Lőrincz András | Neuronháló előadás5
Multi Layer Perceptron (MLP) Lőrincz András | Neuronháló előadás6 ij 1 1
MLP tudnivalók Lőrincz András | Neuronháló előadás7
4. Kohonen háló Kohonen háló (Self-Organizing Map - SOM): felügyeletlen, diszkrét értékű leképezést tanul, topológia: közeli inputokhoz közeli output tartozzon -> vizualizációra jó (sok dimenziót kis dimenzióban tud bemutatni) Minden neuronhoz saját súlyvektor + képtérbeli pozíció. Nyer a k -adik neuron, ha || x - w k || 2 a legkisebb az összes neuron közül (azaz ha ő a legközelebbi neuron a képtérben). A k-adik neuronnak vannak szomszédai (rács). Szomszédainak száma függ a „szomszédsági tér” dimenziójától. Tipikusan 2D és 4 szomszéd Hangolás: a nyertest és a közeli neuronokat (szomszédok szomszédai max k távolságra) hangoljuk az inputra ahol d(j,k,t) a j-edik és a k-adik neuron z j és z k pozícióinak távolsága a „szomszédsági térben” és a szorzó függ az időtől. Pl. Lőrincz András | Neuronháló előadás8
Kohonen háló (Self-Organizing Map - SOM) Lőrincz András | Neuronháló előadás9 A rács kezdetben nem illeszkedik a bemenetek halmazára (kék felhő). A fehér pont jelzi az aktuális mintát, a sárga karika pedig a legközelebbi rácspontot és a szomszédságát. A pontot ráhúzzuk a mintára (a szomszédságát is, csak kisebb mértékben), majd ezt ismételjük. Végül a rács illeszkedni fog a kék felhőre, és megmarad a rácsszerkezet által definiált szomszédság.
5. Miért választottuk a gradiens- módszert?
6. SVM
7. PCA
PCA kiszámolási módjai, tulajdonságai
8. Kölcsönös információ vs korreláció
9. OSDL