Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

Mesterséges neuronhálók és alkalmazásaik

Hasonló előadás


Az előadások a következő témára: "Mesterséges neuronhálók és alkalmazásaik"— Előadás másolata:

1 Mesterséges neuronhálók és alkalmazásaik

2 Kontakt Grósz Tamás Coospace fórum preferált

3 Menetrend (előadás) Gépi tanulási alapok Mesterséges neuronhálók
Mély hálók Optimalizálók, regularizációs módszerek Aktivációs függvények CNN RNN, GRU, LSTM RBM, DBN háló

4 Menetrend (gyakorlat)
Python alapok (ha lesz rá idő) Tensorflow alapok Mesterséges neuronhálók, Mély hálók Optimalizálók, regularizációs módszerek Aktivációs függvények CNN RNN, GRU, LSTM RBM, DBN háló

5 Követelmények Projektmunka: Vizsga:
Egyszerű feladat: kiválasztott adaton sima és mély neuronháló tanítása Bemutatás: kód és elért eredmények bemutatása vizsgán Vizsga: Szóbeli, kérdéssor alapján

6 Mesterséges Intelligencia
Forrás: Norvig könyv

7 Mesterséges Intelligencia
A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P if its performance at tasks in T, as measured by P, improves with experience E. (Tom M. Mitchell) Forrás: Norvig könyv

8 Mesterséges Intelligencia típusai
Megerősítéses tanulás Az ágens adott környezetben akciókat hajt végre és a visszajelzés alapján tanul Pl: játék MI Felügyelet nélküli tanulás A példákhoz nincs „segítség”, azaz elvárt kimenet Leggyakrabban klaszterezés Felügyelt tanulás A bemeneten kívül ismert az elvárt kimenet is Osztályozás vagy regresszió Forrás: Norvig könyv

9 Osztályozás A feladat a bemeneti vektorokat előre meghatározott kategóriákba sorolni Tanítópéldaként <x,y> párokat használunk X a bemeneti vektor Y a ketegória, amibe x tartozik Példák: Képek osztályozása (mi látható a képen?) Beszédfelismerés Természetes nyelvi feldolgozás Forrás: Norvig könyv

10 Osztályozás Geometriai szemlélet: Döntéselméleti szemlélet:
közvetlenül a határoló felületet modellezzük Döntéselméleti szemlélet: Minden osztályhoz rendelünk egy diszkriminánsfüggvényt Döntés: azt az osztályt választjuk, amihez tartozó függvény a legnagyobb értéket adja Statisztikai alakfelismerés: Minden x vektorhoz azt az yi-t választjuk amire P(yi|x) maximális Célunk a P(yi|x) minél pontosabb becslése a tanítóadat alapján Forrás: Norvig könyv

11 Az alapok

12 Az alapok Mi a helyzet akkor, ha nem szétválasztható az adat?

13 Az alapok Használjunk több jellemzőt! y=ax+b

14 Perceptron/Mesterséges neuron

15 Mesterséges neuron Lehetséges aktivációs függvények: Step: y = x > 0 ? 1 : 0 Szigmoid: 𝑦= 𝑒 −𝑥 Hiperbolikus tangens: 𝑦= 𝑒 𝑥 + 𝑒 −𝑥 𝑒 𝑥 − 𝑒 −𝑥

16 Tanító és teszt halmaz Gépi tanulás esetén célszerű szétválasztani az adatot tanító és teszt halmazra A teszthalmaz segítségével tudjuk mérni a modell pontosságát Gyakran egy harmadik részt is használnak: validációs hallmaz A hiperparaméterek hangolására Illetve a túltanulás elkerülésére Forrás: Norvig könyv

17 Pontosság mérése Tanítás és tesztelés során tudnunk kell mérni a modell pontosságát. Sima pontosság: az eltalált példák %-a F-érték: kicsit bonyolultabb Precision = 𝑇𝑃 𝑇𝑃+𝐹𝑃 Recall = 𝑇𝑃 𝑇𝑃+𝐹𝑁 F1 = 2∗ 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛∗𝑟𝑒𝑐𝑎𝑙𝑙 𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛+𝑟𝑒𝑐𝑎𝑙𝑙

18 Perceptron tanulás Tanítás során a célunk a pontosság maximalizálása
Lényegében a súlyokat (w) és a biast (b) próbáljuk módosítani, hogy minél kevesebbet hibázzon 𝑤 𝑖 = 𝑤 𝑖−1 + ∆ 𝑖−1 , ∆ 𝑖−1 =−𝛼∗𝛻𝐸( 𝑤 𝑖−1 ), ahol 𝛼 a tanulási ráta 𝐸 𝑤 𝑖−1 = ∗ (𝑓 𝑥 −𝑦) 2 , pedig a négyzetes hibafüggvény, amit majd le kell deriválnunk.

19 A valóság

20 Mesteréges neuronháló

21 Mesteréges neuronháló
Próbáljuk ki a gyakorlatban:


Letölteni ppt "Mesterséges neuronhálók és alkalmazásaik"

Hasonló előadás


Google Hirdetések