Mély neuronhálók és alkalmazásaik

Slides:



Advertisements
Hasonló előadás
Irattári és levéltári funkciók a tanúsított szoftverekben Vágujhelyi Ferenc.
Advertisements

ELTINGA és MTA KRTK KTI Horváth Áron április 7. Lakásárak, támogatások és energiahatékonyság.
1 Az önértékelés mint projekt 6. előadás 1 2 Az előadás tartalmi elemei  A projekt fogalma  A projektek elemei  A projekt szervezete  Projektfázisok.
2. A szoftverek csoportosítása: a. Rendszerszoftverek: A számítógép zavartalan mûködését biztosítják: BIOS (alapvetõ bemeneti/kimeneti rendszer): olyan.
Informatikai rendszerek általános jellemzői 1.Hierarchikus felépítés Rendszer → alrendszer->... → egyedi komponens 2.Az elemi komponensek halmaza absztrakciófüggő.
Projekt módszer óvodai alkalmazásának egy lehetséges változata Encsen „Jó gyakorlat” bemutatása Sárospatak, Léportné Temesvári Ildikó és Zsiros.
EU pályázati programok A szervezet / változások 1.A pályázók adminisztrációs terheinek csökkentése a projektfejlesztési, pályázati szakaszban.
Microsoft Photo Story. Mi is ez?  A Microsoft Photo Story egy alkalmazás, amelyet a Microsoft, a világ egyik legnagyobb szoftvergyártó cége készített.
Internet tudományos használata
A szakiskolák aktuális problémái
ERASMUS+ DISSZEMINÁCIÓS PLATFORM
Számítógépes szimuláció
DIGITÁLIS VÁSÁRLÁSOK, GENERÁCIÓS KÜLÖNBSÉGEK
Tájékoztató a munkahelyteremtő pályázati programról
LEHET JOBB A GYEREKEKNEK!
Kompetenciamérés a Szakiskolai Fejlesztési Program II. keretében 2007
Becslés gyakorlat november 3.
Beck Róbert Fizikus PhD hallgató

videós team Team vezetője: Tariné Péter Judit Tagok:
Észlelés és egyéni döntéshozatal, tanulás
Mesterséges intelligencia
Downstream Power Back Off (DPBO)
Becsléselmélet - Konzultáció
Struktúra predikció ápr. 6.
Az Országos Egészségfejlesztési Intézet fejlesztési projektjei az iskolai egészségfejlesztés területén DR. TÖRÖK KRISZTINA.
Tájékoztató a évi OSAP teljesüléséről
VÁRATLAN MŰSZAKI ESEMÉNYEK
Projektmunka Földrajzolok
Adatbázis-kezelés (PL/SQL)
A PDCA elv alkalmazása az információvédelmi irányítási rendszerekben 1
Innovációs képesség és jólét összefüggései
☺ Programozási környezetek Validátorok Fazekas Judit PTI 2010.
Downstream Power Back Off (DPBO)
Közigazgatási alapvizsga a Probono rendszerben
Business Mathematics
Grosz imre f. doc. Kombinációs hálózatok /43 kép
A VERESEGYHÁZI KATOLIKUS GIMNÁZIUM felvételi tájékoztatója a 2018/2019-as tanévre „Ahol ugyanis ketten vagy hárman összegyűlnek az én nevemben, ott vagyok.
Számítógépes Hálózatok
CONTROLLING ÉS TELJESÍTMÉNYMENEDZSMENT DEBRECENI EGYETEM
Tilk Bence Konzulens: Dr. Horváth Gábor
Tájékoztató az Önkormányzati ASP Projektről
Számítógépes szimulációval segített tervezés
Készítette: Sinkovics Ferenc
Környezeti Kontrolling
Új pályainformációs eszközök - filmek
Általános iskola eredménye, értékelése
Oracle Adatbázisok kezelése c#-ban
Szerzője Konzulens neve
Interaktív Adatmenedzsment Kft.
GPS az építőmérnöki gyakorlatban
A számítógép története
SZAKKÉPZÉSI ÖNÉRTÉKELÉSI MODELL I. HELYZETFELMÉRŐ SZINT FOLYAMATA 8
Neuronhálók tanítási módszerei
A szállítási probléma.
I. HELYZETFELMÉRÉSI SZINT FOLYAMATA 3. FEJLESZTÉSI FÁZIS 10. előadás
9-10.-es bemeneti mérések és a fejlesztő munkánk
Dr. Varga Beatrix egyetemi docens
SQL jogosultság-kezelés
Családi vállalkozások
Mintaillesztés Knuth-Morris-Pratt (KMP) algoritmus
Tájékoztató az EPER pályázati folyamatáról
Mesterséges neuronhálók és alkalmazásaik
További tanítási módszerek
MÉLY NEURONHÁLÓK A tananyag az EFOP
Hagyományos megjelenítés
AZ ORSZÁGOS KOMPETENCIAMÉRÉSEK MEGSZERVEZÉSE A TANODÁBAN
Gyermekekkel a mediáció szemszögéből
A tehetséggondozás kihívásai
Bevezetés a mélytanulásba
Előadás másolata:

Mély neuronhálók és alkalmazásaik Grósz Tamás MTA-SZTE Mesterséges Intelligencia Kutatócsoport

Hagyományos és „mély” (deep) neuronháló Hagyományos háló: egy rejtett réteg - betanítása hiba-visszaterjesztéssel (backpropagation): tkp. gradiens-módszer Miért csak egy rejtett réteg? - már így is tetszőleges pontosságra képes (a neuronszám növelésével!!) - már így is viszonylag lassú a tanítás

Hagyományos és „mély” (deep) neuronháló Mély neuronháló: több (2-9) rejtett réteg - adott neuronszám mellett pontosabb, mint egy rejtett réteggel - a nagy műveletigényre megoldás a GPU-k használata (20-40-szeres gyorsulás!) Probléma: sok rétegnél a backpropagation nem hatékony - visszafele haladva egyre kevésbé tudja megmondani, hogy melyik neuronnak mit érdemes reprezentálnia („explaining away”) - „vanishing gradient” effektus

Hagyományos és „mély” (deep) neuronháló Explaining away példa: Mély neuronháló tanítására 2 fő irányzat: - a tanító algoritmus kiegészítése előtanítással - a neuronháló struktúrájának módosítása

Előtanításon alapuló módszerek Az előtanításos módszer röviden: - előtanítási módszer alkalmazása a neuronháló súlyainak inicializálására - inicializálás után „finomhangolni” a háló súlyait (backprop) Az előtanítás hatásai: - az inicializálással optimumhoz közelebbi állapotból tudjuk indítani a tanítást - a mély hálók problémáit „kezeli” az előtanítás

Korlátos Boltzmann Gép A mély neuronhálók építőeleme Korlátos: rétegen belül nincs kapcsolat Szimmetrikus kapcsolat a rétegek neuronjai között Rejtett réteg Látható réteg

Kontrasztív Divergencia (CD) algoritmus A tanítás során a cél: a rejtett réteg segítségével megmagyarázni a látható réteget. A gradienst rekonstrukciók segítségével közelítjük:

DBN előtanítás (2006) Deep Belief Network: korlátos Boltzmann-gépekből mély háló építése betanítás: CD-algoritmus rétegenként Finomhangolás softmax kimeneti réteg hozzáadása után

Diszkriminatív előtanítás (2011) A DBN előtanítás alternatívája Előtanítás algoritmusa:

A neuronhálót módosító módszerek - manapság legnépszerűbb módszerek - nincs szükség idő és erőforrás igényes előtanításra - nagyon könnyen kombinálhatóak a módosítások Lehetséges módosítások: - aktivációs függvény - a hálózat felépítése - neuronok közötti kapcsolatok (connectivity)

Rectifier neuronhálók (2012) Rectifier aktivációs függvény: F(x) = max(0,x) Eltérések a szigmoid neurontól: a kimenetnek nincs felső korlátja negatív bemenet esetén 0 kimenet nem szükséges előtanítani Egyéb javasolt aktivációs függvények: Softplus (sigmoid integráltja) Abs paraméteres aktivációs függvény

Dropout módszer (2013) A módszer lényege: tanítás során a rejtett neuronok egy része (10-50%) véletlenszerűen „kieshet” az azonos rétegben eső neuronok kevésbé támaszkodhatnak egymásra zajos adatra jól működik Alkalmazható bármely másik módszerrel együtt: hagyományos szigmoid hálók rectifier hálók előtanított hálók

Konvolúciós neuronhálók A módszer lényege: az egyes neuronok konvolúciót hajtanak végre a bemeneten Csak egy kis lokális ablakot látnak a neuronok konvolúció után pooling függvénnyel (max, min, avg, …) mintavételezünk

Egyéb aktivációs függvények Sokféle aktivációs függvény alkalmazásra került: Tanh Softplus Avg Maxout … Bővebben: https://en.wikipedia.org/wiki/Activation_function

Rekurrens hálók A módszer lényege: a hálóban található visszacsatolás a visszacsatolás miatt más tanítási módszer szükséges rendkívül hatékonyak idősorok feldolgozására a visszacsatolás történhet időben is

LSTM (hosszú és rövid távú memória) A mély rekurrens hálók új építőeleme: a hagyományos neuronok helyett tanítása rendkívül bonyolult működése lassú Felépítése: 3 kapu (gate) + 1 belső állapot (cell) a kimenet minden bemenő kapura vissza van csatolva (időben rekurrens)

LSTM (hosszú és rövid távú memória)

Ipari szektor Több nagy IT cég is aktívan kutatja a területet Google: Képfelismerés/gépi látás Beszédfelismerés Megerősítéses tanulás (DeepMind) Microsoft: Hasonlóan mint a Google Facebook: Mély hálókon alapuló ajánlórendszerek

ImageNet verseny Képfeldolgozási verseny: Korábbi nyertesek: Mi látható a képen? Korábbi nyertesek: 2014 Google: 22 rejtett réteg Konvolúció + maxout 2015 Microsoft: Reziduális tanulás 152 rejtett réteg Watson https://visual-recognition-demo.mybluemix.net/

Google Google híres mély hálós projektje: A lényeg röviden: Building High-level Features Using Large Scale Unsupervised Learning A lényeg röviden: mély neuronháló tanítása 10 millió youtube videóra 1000 PC, 16000 CPU mag a tanításhoz saját előtanítási algoritmus (DBN-hez hasonló) + konvolúciós struktúra 3 napig tanult Végeredmény: Amit a média felkapott, hogy a háló megtanulta a macskákat detektálni

Google Google újabb híres mély hálós projektje: AlphaGo A lényeg röviden: Go játékot játszó háló Megerősítéses tanítás Végeredmény: A neuronháló nyert 4-1-re a Go mester ellen

Beszédfelismerés

Eredmények a híradós adatbázison

Tanítási idők Nvidia GeForce GTX 560 Ti kártyán Módszer Előtanítási idő Finomhangolási idő Hagyományos 0 óra 4.5 óra Dropout 5.5 óra DBN előtanítás 1 óra 4 óra Diszkriminatív előtanítás 2.5 óra 3 óra Rectifier háló Rectifier háló + Dropout

Paralingvisztikus alkalmazások Cél: a beszédből másodlagos információk kinyerése Eddig sikeresen alkalmaztuk a következő feladatokra: Fizikai és kognitív fáradság becslése Részegség becslése Parkinson kór súlyosságának becslése (ezt nyertük meg) Evés közben elhangzott beszédből megmondani mit eszik Nativeness: Angolul beszélő mennyire jól beszéli a nyelvet Nativeness 2: Angolul beszélőnek mi az anyanyelve Öszinteség becslése Hazugság felismerése Megfázás felismerése

Némabeszéd-interfész Cél: a nyelv ultrahangos felvételeiből beszédet szintetizálni (vagy felismerni)

Némabeszéd-interfész Bemenet: ultrahangos felvétel (videó) Kimenet: Felismerés: osztályozás Szintézis: regresszió (spektrális paraméterek becslése) Mindkét esetben mély tanulást alkalmazunk

Időskori makuladegeneráció http://www.areds2.org.uk/macular-degeneration

Időskori makuladegeneráció HRD-k Folyadéktér

HRD-k detektálása mély hálóval Orvos által annotált kép Automatikus detektálás eredménye

Köszönöm a figyelmet! Kérdések?