Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény.

Hasonló előadás


Az előadások a következő témára: "1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény."— Előadás másolata:

1 1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény (1p) 5.Megoldási mód (1p) 2.Neuron részei (max 3p) 1.Egyenlet (0.5p) 2.Ábra (0.5p) 3.Minden további elem megadása (0.5p) 3.MLP / Multi Layer Perceptron (5p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 3.Költségfüggvény (2p) 4.Kohonen háló (3p) 1.Alapötlet (1p) 2.Mese ábrával (2p) 5.Mik a gradiens-módszer előnyei és hátrányai az explicit megoldásokkal szemben? (3p) Összesen (40p)

2 1.SVM / Support Vector Machine (5p) 1.Költségfüggvény (2p) 2.Magyarázat (1p) 3.Gradiens (1p) 4.Megoldási módszer egyenletei (1p) 2.PCA / Főkomponens analízis (3p) 1.Mit old meg? (1p) 2.Megoldási módszer leírása (1p) 3.Egy lehetséges alkalmazás (1p) 3.Mik a kölcsönös információ előnyei a korrelációval szemben? (3p) 1.Kölcsönös információ definíciója magyarázattal (1p) 2.Korreláció definíciója magyarázattal (1p) 3.Függetlenség és korrelálatlanság kapcsolata (1p) 4.Részlegesen megfigyelhető OSDL / Online Strukturált Szótártanulási probléma (10p) 1.Költségfüggvény (2p) 2.Magyarázat (2p) 3.Gradiensek (2p) 4.Megoldási módszer egyenletei (2p) 5.Egy lehetséges alkalmazás (2p) Összesen (40p)

3 1. Kanonikus felügyelt tanulási feladat Lőrincz András | Neuronháló előadás3

4 4 2. Neuron (perceptron) … …

5 3. MLP Lőrincz András | Neuronháló előadás5

6 Multi Layer Perceptron (MLP) Lőrincz András | Neuronháló előadás6 ij 1 1

7 MLP tudnivalók Lőrincz András | Neuronháló előadás7

8 4. Kohonen háló Kohonen háló (Self-Organizing Map - SOM): felügyeletlen, diszkrét értékű leképezést tanul, topológia: közeli inputokhoz közeli output tartozzon -> vizualizációra jó (sok dimenziót kis dimenzióban tud bemutatni) Minden neuronhoz saját súlyvektor + képtérbeli pozíció. Nyer a k -adik neuron, ha || x - w k || 2 a legkisebb az összes neuron közül (azaz ha ő a legközelebbi neuron a képtérben). A k-adik neuronnak vannak szomszédai (rács). Szomszédainak száma függ a „szomszédsági tér” dimenziójától. Tipikusan 2D és 4 szomszéd Hangolás: a nyertest és a közeli neuronokat (szomszédok szomszédai max k távolságra) hangoljuk az inputra ahol d(j,k,t) a j-edik és a k-adik neuron z j és z k pozícióinak távolsága a „szomszédsági térben” és a szorzó függ az időtől. Pl. Lőrincz András | Neuronháló előadás8

9 Kohonen háló (Self-Organizing Map - SOM) Lőrincz András | Neuronháló előadás9 A rács kezdetben nem illeszkedik a bemenetek halmazára (kék felhő). A fehér pont jelzi az aktuális mintát, a sárga karika pedig a legközelebbi rácspontot és a szomszédságát. A pontot ráhúzzuk a mintára (a szomszédságát is, csak kisebb mértékben), majd ezt ismételjük. Végül a rács illeszkedni fog a kék felhőre, és megmarad a rácsszerkezet által definiált szomszédság.

10 5. Miért választottuk a gradiens- módszert?

11 6. SVM

12 7. PCA

13 PCA kiszámolási módjai, tulajdonságai

14 8. Kölcsönös információ vs korreláció

15 9. OSDL


Letölteni ppt "1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény."

Hasonló előadás


Google Hirdetések