A mesterséges neuronhálók alapjai

Slides:



Advertisements
Hasonló előadás
NEURONHÁLÓK.
Advertisements

Események formális leírása, műveletek
Készítette: Kosztyán Zsolt Tibor
MI 2003/9 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
MI 2003/ A következőkben más megközelítés: nem közvetlenül az eloszlásokból indulunk ki, hanem a diszkriminancia függvényeket keressük. Legegyszerűbb:
IRE 8 /38/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 8.
Kalman-féle rendszer definíció
Készítette: Zaletnyik Piroska
Kommunikációs hálózatok idősorainak analízise neuronhálózatokkal Máté György Diplomamunka Témavezető: Csabai István.
SAS Enterprise Miner 2. gyakorlat
Bevezetés a gépi tanulásba február 16.. Mesterséges Intelligencia „A számítógépes tudományok egy ága, amely az intelligens viselkedés automatizálásával.
Modern többosztályos tanulók: Döntési fa, Véletlen erdő, Előrecsatolt többrétegű neuronháló, Support Vector Machine (SVM), Kernel „trükk”.
Gépi tanulási módszerek
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Gépi tanulási módszerek febr. 20.
Rangsorolás tanulása ápr. 24..
Mesterséges neuronhálózatok
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
SZÁMÍTÓGÉP ARCHITEKTÚRÁK
Előadó: Prof. Dr. Besenyei Lajos
Szűrés és konvolúció Vámossy Zoltán 2004
Evapotranspiráció elõrejelzése mesterséges neuronális halózatok segitségével Wójcicki Andrzej, GTK V. konzulens: Dr. Pitlik László Gazdasági Informatika.
Dinamikus klaszterközelítés Átlagtér illetve párközelítés kiterjesztése N játékos egy rácson helyezkedik el (periodikus határfeltétel) szimmetriák: transzlációs,
Dr. Szalka Éva, Ph.D.1 Statisztika II. VI.. Dr. Szalka Éva, Ph.D.2 Regresszióanalízis.
Készítette: Kosztyán Zsolt Tibor
Az Alakfelismerés és gépi tanulás ELEMEI
Lasztovicza László Neurális hálózatok Lasztovicza László
Textúra elemzés szupport vektor géppel
Gépi tanulás Tanuló ágens, döntési fák, általános logikai leirások tanulása.
Idősor elemzés Idősor : időben ekvidisztáns elemekből álló sorozat
$ Információ Következmény Döntés Statisztikai X.  Gyakorlati problémák megoldásának alapja  Elemzéseink célja és eredménye  Központi szerep az egyén.
Többváltozós adatelemzés
Kötvényárazási hibák intelligens javítóalgoritmusának tervezése és fejlesztése GELLÉN ÁGNES IUFQ58.
Alapsokaság (populáció)
Belami beszámoló – Doménadaptációs alkalmazások. Problémafelvetés Felügyelt tanulás elvégzéséhez gyakran kevés jelölt adat áll rendelkezésre  doménadaptáció.
Szemcsés rendszerek statikája Tibély Gergely X. 26.
Bevezetés a méréskiértékelésbe (BMETE80ME19) Intervallumbecslések 2014/
Bevezetés a méréskiértékelésbe (BMETE80ME19) 2014/
A HATÁROZOTT INTEGRÁL FOGALMA
Szabadkai Műszaki Szakfőiskola 1. A neuron modellje a következő 3 elemből áll: 1. A szinapszisok halmaza amelyekkel a neuronok egymáshoz vannak kapcsolva.
MI 2003/8 - 1 Alakfelismerés alapproblémája: adott objektumok egy halmaza, továbbá osztályok (kategóriák) egy halmaza. Feladatunk: az objektumokat - valamilyen.
Kutatási beszámoló 2002/2003 I. félév Iváncsy Renáta.
A projekt az Európai Unió társfinanszírozásával, az Európa terv keretében valósul meg. Számítógép- architektúrák dr. Kovács György DE AVK GAIT.
Spike Sorting Solutions Csercsa Richárd Magony Andor.
Síkbarajzolható gráfok, rúdszerkezetek, transzformátorok Recski András Budapesti Műszaki és Gazdaságtudományi Egyetem.
Struktúra predikció Struktúra lehet Felügyelt tanulási probléma
Gépi tanulási módszerek
Mesterséges Neurális Hálózatok 3. előadás
1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény.
Kontinuum modellek 1.  Bevezetés a kontinuum modellekbe  Numerikus számolás alapjai.
Készült a HEFOP P /1.0 projekt keretében
Regresszió, Mesterséges neuronhálók márc. 2.
Gépi tanulási módszerek febr. 18.
A neuronhálók tanítása A backpropagation algoritmus
A gépi tanulás célja Cél: Olyan programok létrehozása, amelyek a működésük során szerzett tapasztalatok segítségével képesek javítani a saját hatékonyságukon.
Konvolúciós neuronhálók
Mesterséges neuronhálók (Artificial neural networks, ANNs)
Mély neuronhálók (Deep neural networks)
Emlékeztető Az előző órán az adatok eloszlását Gauss-eloszlással közelítettük Célfüggvénynek a Maximum Likelihood kritériumot használtuk A paramétereket.
Regularizáció.
Szűcs Imre - Dr. Pitlik László (OTKA T049013)
Bevezetés a mély tanulásba
Bevezetés a mély tanulásba
A Bayes-döntéselmélet alapjai
GÉPI TANULÁSI ALAPFOGALMAK
Neuronhálók és tanításuk a backpropagation algoritmussal
Objektum-detektálás A tananyag az EFOP
KONVOLÚCIÓS NEURONHÁLÓK
Visszacsatolt (rekurrens) neuronhálók
A perceptron neurális modell és tanítása
Előadás másolata:

A mesterséges neuronhálók alapjai

A „perceptron” neuron-modell Többféle neuron-modell ill. neuronháló-típus létezik A legnépszerűbb az ún. perceptron-modell (Rosenblatt, 1957) A biológiai neuronokat próbálja imitálni leegyszerűsített módon A modell paraméterei a wi súlyok (ezeket fogjuk a tanulás során belőni) o output kiszámítása:

Egy neuron kimenete a jellemzőtérben Az egy egyenes (több dimenzióban: hipersík) egyenlete Az aktivációs függvény ennek egyik oldalán -1-et, másik oldalán 1-et ad Azaz a perceptron a teret két résztérre képes osztani egy egyenes mentén Az egyenessel való elválasztás elég szerény reprezentációs erőt (tanulási képességet) jelent A gyakorlatban elég kevés feladat oldható meg ilyen egyszerűen… ÉS ill. VAGY művelet megtanulható, XOR nem: Erre Minsky és Papert mutatott rá 1969-ben Emiatt egész az 1980-as éveig hanyagolták a neuronhálók kutatását („AI winter”)

Neuronhálók Reprezentációs erő növelése: építsünk hálózatot! Klasszikus struktúra: Multilayer feedforward network Minden réteg az alatta lévő rétegtől kapja az inputját A rétegek között „full connection”: minden neuron minden neuronnal Csak előremutató kapcsolatok Viszonylag ritkán szokás, de: Fully connected helyett ritka („sparse”) hálót is lehet csinálni Rétegek kihagyása szintén viszonylag könnyen megoldható Visszacsatolt (rekurrens) struktúra is lehetséges, azt viszont jóval bonyolultabb tanítani (ld. Recurrent neural networks) Ezek főleg időbeli sorozatok modellezésében hasznosak

A neuronháló reprezentációs ereje Konvex térrész körbekerítése: 1 rejtett réteg elég A rejtett réteg egyes neuronjai reprezentálnak 1-1 határoló egyenest A kimeneti neuron ÉS műveletet végez: ott jelez, ahol a rejtett neuronok mindegyike jelez Tetszőleges (akár non-konvex, nem összefüggő) térrész megtanulása: 2 rejtett réteg elég Az első rejtett réteg neuronjai egyeneseket húznak A második réteg neuronjai ÉS művelettel konvex térrészeket jelölnek ki A kimeneti neuron VAGY művelettel ezeket non-konvex, nem összefüggő térrészeké is össze tudja kapcsolni Elvileg 2 rejtett réteggel minden gyakorlati tanulási feladat megoldható A tetszőleges pontossághoz végtelen sok neuron, végtelen sok tanító adat és tökéletes (globális optimumot adó) tanító algoritmus kellene…

Kapcsolat a statisztikai alakfelismeréssel Az előzőekben azt szemléltettük, hogy a neuronháló hogyan képes osztályokat elszeparálni (geometriai szemlélet) Bebizonyítható, hogy a háló a döntéselméleti szemléletnek is meg tud felelni, bizonyos feltételek teljesülése esetén Minden ci osztályhoz egy kimeneti neuron Azt várjuk tőle, hogy közelítse az adott osztály P(ci|x) diszkriminánsfüggvényét A kimenetek alapján osztályozás: A legnagyobb P(ci|x) kimeneti értéket adó ci A legvalószínűbb osztály címkéjének ismerete mellett az osztályhoz tartozó P(ci|x) valószínűség ismerete sok alkalmazásban hasznos Pl. megbízhatóság (konfidencia) vizsgálata A Bayes döntési szabállyal való összekapcsolás bizonyos alkalmazási területeken jelentősen megnövelte a neuronhálók iránti bizalmat

Valószínűség eloszlás tanulása Mi szükséges ahhoz, hogy a háló kimeneteit P(ci|x) valószínűségi becslésként értelmezhessük? Minden ci osztályhoz egy kimeneti neuron Azt várjuk tőle, hogy közelítse az adott osztály P(ci|x) diszkriminánsfüggvényét Módosítani kell az aktivációs függvényt Bináris helyett folytonos értékkészletű aktivációs függvény Kimenő réteg: [0,1] értékkészletű aktivációs függvény, a kimenetek összege 1 Tanító példák címkéje: 1-of-M kódolású vektor M méretű vektor (osztályok száma), benne egyetlen 1-es: Megfelelő tanítási célfüggvény Fontos, hogy gyakorlati esetben itt is csak közelítést kapunk! Pontos értékhez végtelen sok neuron, végtelen sok tanítópélda, tökéletes tanító algoritmus kellene…