Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

Mély neuronhálók és alkalmazásaik

Hasonló előadás


Az előadások a következő témára: "Mély neuronhálók és alkalmazásaik"— Előadás másolata:

1 Mély neuronhálók és alkalmazásaik
Grósz Tamás MTA-SZTE Mesterséges Intelligencia Kutatócsoport

2 Hagyományos és „mély” (deep) neuronháló
Hagyományos háló: egy rejtett réteg - betanítása hiba-visszaterjesztéssel (backpropagation): tkp. gradiens-módszer Miért csak egy rejtett réteg? - már így is tetszőleges pontosságra képes (a neuronszám növelésével!!) - már így is viszonylag lassú a tanítás

3 Hagyományos és „mély” (deep) neuronháló
Mély neuronháló: több (2-9) rejtett réteg - adott neuronszám mellett pontosabb, mint egy rejtett réteggel - a nagy műveletigényre megoldás a GPU-k használata (20-40-szeres gyorsulás!) Probléma: sok rétegnél a backpropagation nem hatékony - visszafele haladva egyre kevésbé tudja megmondani, hogy melyik neuronnak mit érdemes reprezentálnia („explaining away”) - „vanishing gradient” effektus

4 Hagyományos és „mély” (deep) neuronháló
Explaining away példa: Mély neuronháló tanítására 2 fő irányzat: - a tanító algoritmus kiegészítése előtanítással - a neuronháló struktúrájának módosítása

5 Előtanításon alapuló módszerek
Az előtanításos módszer röviden: - előtanítási módszer alkalmazása a neuronháló súlyainak inicializálására - inicializálás után „finomhangolni” a háló súlyait (backprop) Az előtanítás hatásai: - az inicializálással optimumhoz közelebbi állapotból tudjuk indítani a tanítást - a mély hálók problémáit „kezeli” az előtanítás

6 Korlátos Boltzmann Gép
A mély neuronhálók építőeleme Korlátos: rétegen belül nincs kapcsolat Szimmetrikus kapcsolat a rétegek neuronjai között Rejtett réteg Látható réteg

7 Kontrasztív Divergencia (CD) algoritmus
A tanítás során a cél: a rejtett réteg segítségével megmagyarázni a látható réteget. A gradienst rekonstrukciók segítségével közelítjük:

8 DBN előtanítás (2006) Deep Belief Network:
korlátos Boltzmann-gépekből mély háló építése betanítás: CD-algoritmus rétegenként Finomhangolás softmax kimeneti réteg hozzáadása után

9 Diszkriminatív előtanítás (2011)
A DBN előtanítás alternatívája Előtanítás algoritmusa:

10 A neuronhálót módosító módszerek
- manapság legnépszerűbb módszerek - nincs szükség idő és erőforrás igényes előtanításra - nagyon könnyen kombinálhatóak a módosítások Lehetséges módosítások: - aktivációs függvény - a hálózat felépítése - neuronok közötti kapcsolatok (connectivity)

11 Rectifier neuronhálók (2012)
Rectifier aktivációs függvény: F(x) = max(0,x) Eltérések a szigmoid neurontól: a kimenetnek nincs felső korlátja negatív bemenet esetén 0 kimenet nem szükséges előtanítani Egyéb javasolt aktivációs függvények: Softplus (sigmoid integráltja) Abs paraméteres aktivációs függvény

12 Dropout módszer (2013) A módszer lényege:
tanítás során a rejtett neuronok egy része (10-50%) véletlenszerűen „kieshet” az azonos rétegben eső neuronok kevésbé támaszkodhatnak egymásra zajos adatra jól működik Alkalmazható bármely másik módszerrel együtt: hagyományos szigmoid hálók rectifier hálók előtanított hálók

13 Konvolúciós neuronhálók
A módszer lényege: az egyes neuronok konvolúciót hajtanak végre a bemeneten Csak egy kis lokális ablakot látnak a neuronok konvolúció után pooling függvénnyel (max, min, avg, …) mintavételezünk

14 Egyéb aktivációs függvények
Sokféle aktivációs függvény alkalmazásra került: Tanh Softplus Avg Maxout Bővebben:

15 Rekurrens hálók A módszer lényege: a hálóban található visszacsatolás
a visszacsatolás miatt más tanítási módszer szükséges rendkívül hatékonyak idősorok feldolgozására a visszacsatolás történhet időben is

16 LSTM (hosszú és rövid távú memória)
A mély rekurrens hálók új építőeleme: a hagyományos neuronok helyett tanítása rendkívül bonyolult működése lassú Felépítése: 3 kapu (gate) + 1 belső állapot (cell) a kimenet minden bemenő kapura vissza van csatolva (időben rekurrens)

17 LSTM (hosszú és rövid távú memória)

18 Ipari szektor Több nagy IT cég is aktívan kutatja a területet Google:
Képfelismerés/gépi látás Beszédfelismerés Megerősítéses tanulás (DeepMind) Microsoft: Hasonlóan mint a Google Facebook: Mély hálókon alapuló ajánlórendszerek

19 ImageNet verseny Képfeldolgozási verseny: Korábbi nyertesek:
Mi látható a képen? Korábbi nyertesek: 2014 Google: 22 rejtett réteg Konvolúció + maxout 2015 Microsoft: Reziduális tanulás 152 rejtett réteg Watson

20 Google Google híres mély hálós projektje: A lényeg röviden:
Building High-level Features Using Large Scale Unsupervised Learning A lényeg röviden: mély neuronháló tanítása 10 millió youtube videóra 1000 PC, CPU mag a tanításhoz saját előtanítási algoritmus (DBN-hez hasonló) + konvolúciós struktúra 3 napig tanult Végeredmény: Amit a média felkapott, hogy a háló megtanulta a macskákat detektálni

21 Google Google újabb híres mély hálós projektje: AlphaGo
A lényeg röviden: Go játékot játszó háló Megerősítéses tanítás Végeredmény: A neuronháló nyert 4-1-re a Go mester ellen

22 Beszédfelismerés

23 Eredmények a híradós adatbázison

24 Tanítási idők Nvidia GeForce GTX 560 Ti kártyán Módszer
Előtanítási idő Finomhangolási idő Hagyományos 0 óra 4.5 óra Dropout 5.5 óra DBN előtanítás 1 óra 4 óra Diszkriminatív előtanítás 2.5 óra 3 óra Rectifier háló Rectifier háló + Dropout

25 Paralingvisztikus alkalmazások
Cél: a beszédből másodlagos információk kinyerése Eddig sikeresen alkalmaztuk a következő feladatokra: Fizikai és kognitív fáradság becslése Részegség becslése Parkinson kór súlyosságának becslése (ezt nyertük meg) Evés közben elhangzott beszédből megmondani mit eszik Nativeness: Angolul beszélő mennyire jól beszéli a nyelvet Nativeness 2: Angolul beszélőnek mi az anyanyelve Öszinteség becslése Hazugság felismerése Megfázás felismerése

26 Némabeszéd-interfész
Cél: a nyelv ultrahangos felvételeiből beszédet szintetizálni (vagy felismerni)

27 Némabeszéd-interfész
Bemenet: ultrahangos felvétel (videó) Kimenet: Felismerés: osztályozás Szintézis: regresszió (spektrális paraméterek becslése) Mindkét esetben mély tanulást alkalmazunk

28 Időskori makuladegeneráció

29 Időskori makuladegeneráció
HRD-k Folyadéktér

30 HRD-k detektálása mély hálóval
Orvos által annotált kép Automatikus detektálás eredménye

31 Köszönöm a figyelmet! Kérdések?


Letölteni ppt "Mély neuronhálók és alkalmazásaik"

Hasonló előadás


Google Hirdetések