Tanulás az idegrendszerben Structure – Dynamics – Implementation – Algorithm – Computation - Function.

Slides:



Advertisements
Hasonló előadás
NEURONHÁLÓK.
Advertisements

Pac-Man játék tanulása Megerősítéses Tanulással Mesterséges Intelligencia algoritmusok tesztelése játékokon Gyenes Viktor Eötvös Loránd Tudományegyetem.
IRE 8 /38/ 1 Óbudai Egyetem, NIK Dr. Kutor László2011. TÁMOP – I ntelligens R endszerek E lmélete 8.
Kötelező alapkérdések
Kalman-féle rendszer definíció
Készítette: Zaletnyik Piroska
Módszerek sebességi állandók becslésére Kovács Benedek, Budapesti Műszaki és Gazdaségtudományi Egyetem.
Digitális képanalízis
Kommunikációs hálózatok idősorainak analízise neuronhálózatokkal Máté György Diplomamunka Témavezető: Csabai István.
Bayes hálók október 20. Farkas Richárd
Bevezetés a gépi tanulásba február 16.. Mesterséges Intelligencia „A számítógépes tudományok egy ága, amely az intelligens viselkedés automatizálásával.
Lineáris és nemlineáris regressziók, logisztikus regresszió
Osztályozás -- KNN Példa alapú tanulás: 1 legközelebbi szomszéd, illetve K-legközelebbi szomszéd alapú osztályozó eljárások.
Szintaktikai elemzés március 1.. Gépi tanulás Osztályozási feladat: Adott egyedek egy halmaza és azok osztályba tartozási függvénye (tanító halmaz),
Neurális hálók néhány alkalmazása a komputergrafikában
Mesterséges neuronhálózatok
Statisztika II. VI. Dr. Szalka Éva, Ph.D..
SZÁMÍTÓGÉP ARCHITEKTÚRÁK
Előadó: Prof. Dr. Besenyei Lajos
Nemdeterminisztikus és determinisztikus automaták didaktikai összehasonlítása Maróti György.
FPAD alapú neuron modellek Ormos László Miskolci Egyetem Villamosmérnöki Intézet Automatizálási Tanszék.
SPSS többváltozós (lineáris) regresszió (4. fejezet)
SPSS többváltozós regresszió
Dr. Szalka Éva, Ph.D.1 Statisztika II. VI.. Dr. Szalka Éva, Ph.D.2 Regresszióanalízis.
Az Alakfelismerés és gépi tanulás ELEMEI
SZÁMÍTÓGÉP ARCHITEKTÚRÁK - 15 Németh Gábor. 2001Németh Gábor: Számítógép architektúrák 2 NEURÁLIS HÁLÓZATOK Három fő hajtóerő: 1.Az információ-technológia.
Lasztovicza László Neurális hálózatok Lasztovicza László
Gyengén nemlineáris rendszerek modellezése és mérése Készítette: Kis Gergely Konzulens: Dobrowieczki Tadeusz (MIT)
Textúra elemzés szupport vektor géppel
Az Alzheimer-kór filozófiája
Gépi tanulás Tanuló ágens, döntési fák, általános logikai leirások tanulása.
Optimalizáció modell kalibrációja Adott az M modell, és p a paraméter vektora. Hogyan állítsuk be p -t hogy a modell kimenete az x bemenő adatokon a legjobban.
Többváltozós adatelemzés
Többváltozós adatelemzés
Kötvényárazási hibák intelligens javítóalgoritmusának tervezése és fejlesztése GELLÉN ÁGNES IUFQ58.
Lineáris regresszió.
A Van der Waals-gáz molekuláris dinamikai modellezése Készítette: Kómár Péter Témavezető: Dr. Tichy Géza TDK konferencia
Kommunikációs Rendszerek
Mesterséges Intelligencia
Neurális hálók.
Megerősítéses tanulás 8. előadás
Szabadkai Műszaki Szakfőiskola 1. A neuron modellje a következő 3 elemből áll: 1. A szinapszisok halmaza amelyekkel a neuronok egymáshoz vannak kapcsolva.
WP-Dyna: tervezés és megerősítéses tanulás jól tervezhető környezetekben Szita István és Takács Bálint ELTE TTK témavezető: dr. Lőrincz András Információs.
1 Megerősítéses tanulás 7. előadás Szita István, Lőrincz András.
A projekt az Európai Unió társfinanszírozásával, az Európa terv keretében valósul meg. Számítógép- architektúrák dr. Kovács György DE AVK GAIT.
Hibaszámítás Gräff József 2014 MechatrSzim.
Struktúra predikció Struktúra lehet Felügyelt tanulási probléma
Neurális hálók.
Gépi tanulási módszerek
SZÁMÍTÓGÉP-ARCHITEKTÚRÁK – 15 NEURÁLIS HÁLÓZATOK Németh Gábor.
1 Megerősítéses tanulás 4. előadás Szita István, Lőrincz András.
Mesterséges Neurális Hálózatok 3. előadás
Megerősítéses tanulás 2. előadás
1 Megerősítéses tanulás 9. előadás Szita István, Lőrincz András.
1.Kanonikus felügyelt tanulási feladat definíciója (5p) 1.Input, output (1p) 2.Paraméterek (1p) 3.Hipotézisfüggvény (1p) 4.Hibafüggvény/költségfüggvény.
Mozgástan, mozgásfejlődés, neurobiológia
Mesterséges intelligencia
Regresszió, Mesterséges neuronhálók márc. 2.
A neuronhálók tanítása A backpropagation algoritmus
Neurális hálózatok Horváth Gábor I S R G
Mesterséges neuronhálók (Artificial neural networks, ANNs)
Szimuláció a mikroelektronikában
A mesterséges neuronhálók alapjai
Szűcs Imre - Dr. Pitlik László (OTKA T049013)
Bevezetés a mély tanulásba
Quine-McCluskey Módszer
Neuronhálók és tanításuk a backpropagation algoritmussal
Visszacsatolt (rekurrens) neuronhálók
A perceptron neurális modell és tanítása
Algoritmusok és Adatszerkezetek I.
Előadás másolata:

Tanulás az idegrendszerben Structure – Dynamics – Implementation – Algorithm – Computation - Function

Tanulás pszichológiai szinten ● Classical conditioning ● Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez, és ismétlõdõen vagy folyamatosan hozzájárul annak tüzeléséhez, akkor valamely, egyik vagy mindkét sejtre jellemzõ növekedési folyamat vagy metabolikus változás következménye az lesz, hogy az A sejt hatékonysága a B sejt tüzeléséhez való hozzájárulás szempontjából megnõ."

A tanulás problémája matematikailag ● Modell paramétereinek hangolása adatok alapján ● Kettős dinamika ● Változók (bemenet-kimenet leképezés) - gyors ● Paraméterek - lassú ● Memória és tanulás különbsége ● Memória használatánál a bemenetre egy konkrét kimenetet szeretnék kapni a reprezentáció megváltoztatása nélkül ● Tanulásnál minden bemenetet felhasználok arra, hogy finomítsam a reprezentációt, miközben kimenetet is generálok ● Alapvető cél: predikciót adni a jövőbeli történésekre a múlt alapján

A tanulás alapvető típusai ● Felügyelt ● Az adat: bemenet-kimenet párok halmaza ● A cél: függvényapproximáció, klasszifikáció ● Megerősítéses ● Az adat: állapotmegfigyelések és jutalmak ● A cél: optimális stratégia a jutalom maximalizálására ● Nem felügyelt, reprezentációs ● Az adat: bemenetek halmaza ● A cél: az adat optimális reprezentációjának megtalálása / magyarázó modell felírása ● Egymásba ágyazások

Problémák tanulórendszerekben ● Bias-variance dilemma ● Strukturális hiba: a modell optimális paraméterekkel is eltérhet a közelítő függvénytől (pl lineáris modellt illesztünk köbös adatra) ● Közelítési hiba: a paraméterek pontos hangolásához végtelen tanítópontra lehet szükség ● Pontosság vs. általánosítás ● A sokparaméteres modellek jól illeszkednek, de rosszul általánosítanak: túlillesztés ● A magyarázó képességük is kisebb (lehet): Ockham borotvája

Idegrendszeri plaszticitás ● A plaszticitás helye: szinapszisok, posztszinaptikus sejtek tüzelési küszöbei (excitabilitás) ● Potenciáció, depresszió ● STP: kalciumdinamika, transzmitterkimerülés tartam < 1 perc ● LTP: génexpresszió (induction, expression, maintenance), NMDA magnézium-blokkja tartam > 1 perc ● ● Korreláció a molekuláris és pszichológiai szint között

Tanulásra alkalmas neurális rendszerek ● Egyetlen sejt ● Előrecsatolt hálózat ● Rekurrens hálózat ● Ezen az órán: rátamodell ● Paraméterek: súlyok, küszöbök ● Különböző kimeneti nemlinearitások – Lépcső – Szigmoid – Lineáris neuron Tanulásra alkalmas neurális rendszerek

A Hebb-szabály ● Timing-dependent plasticity: ● Ha a posztszinaptikus neuron nagy frekvenciával közvetlenül a preszinaptikus után tüzel, akkor erősödik a kapcsolat ● Az alacsony frekvenciájú tüzelés gyengíti a kapcsolatot ● Sok más lehetőség ● A Hebb-szabály formalizációja: ● lineáris ráta-modellben

Stabilizált Hebb-szabályok ● Problémák a Hebb szabállyal: ● csak nőni tudnak a súlyok ● Nincs kompetíció a szinapszisok között – inputszelektivitás nem megvalósítható ● Egyszerű megoldás: felső korlát a súlyokra ● BCM: a posztszinaptikus excitabilitás felhasználása a stabilizásra ● Szinaptikus normalizáció ● Szubsztraktív normalizáció Globális szabály, de generál egyes megfigyelt mintázatokat (Ocular dominance) ● Oja-szabály Lokális szabály, de nem generálja a megfigyelt mintázatokat

Perceptron ● Bináris neuron: lineáris szeparáció ● Két dimenzióban a szeparációs egyenes: ● Logikai függvények

Hebbi tanulás perceptronnal ● Nem felügyelt A bemeneti adatok főkomponensei irányába állítja be a súlyokat ● Felügyelt ● A kimenetet is meghatározzuk ● Nem minden tanítóhalmazra lehet így megkonstruálni a szeparáló súlyokat

Error-correcting tanulási szabályok ● Felhasználjuk azt az információt, hogy milyen messze van a céltól a rendszer ● Rosenblatt-algoritmus – bináris neuron ● Delta-szabály ● Folytonos kimenetű neuron – gradiens-módszer lineáris neuronra, egy pontpárra vonatkozó közelítéssel: ● Minsky-paper 1969: a neurális rendszerek csak lineáris problémákat tudnak megoldani

Multi-Layer Perceptron ● Nemlineáris szeparáció ● regresszió ● egyenletesen sűrű l2- ben egy rejtett réteggel ● A reprezentációs képességet a rejtett réteg növelésével tudjuk növelni ● Idegrendszerben – látórendszer...

Error backpropagation ● A Delta-szabály alkalmazása ● Első lépés: minden neuron kimenetét meghatározzuk a bemenet alapján ● A hibafüggvény parciális deriváltjai: Minden neuronra: Kimeneti rétegben: Rejtett rétegben: ● Mivel gradiens-módszer, a hibafüggvény lokális minimumába fog konvergálni.

Megerősítéses tanulás ● Állapottér: a szenzorikus (vagy egyéb bemeneti) változók lehetséges értékeinek kombinációjából előálló halmaz ● Jutalomszignál: bizonyos állapotokban kapunk információt a cselekvésünk sikerességéről ● Cselekvés: a tanuló megvalósít egy állapotátmenetet (legalábbis megpróbálja) ● Cél: a jutalom hosszú távú maximalizálása ● Értékfüggvény: az egyes állapotokhoz rendelt hasznosság ● Értékfüggvény reprezentációja: ● Táblázattal (machine learningben) ● Általános függvényapproximátorral – pl. előrecsatolt neurális hálózat – Beágyazhatunk egy felügyelt rendszert a megerősítésesbe a háló tanítására

Temporal difference learning ● Prediction error felhasználása a tanuláshoz ● Az állapotérték frissítése neurális reprezentációban: ● A prediction error kiszámítása ● A teljes jövőbeli jutalom kellene hozzá ● Egylépéses lokális közelítést alkalmazunk ● Ha a környezet megfigyelhető, akkor az optimális stratégiához konvergál ● A hibát visszaterjeszthetjük a korábbi állapotokra is (hasonlóan a backpropagation algoritmushoz) ● Akciókiválasztás: exploration vs. exploitation

TD tanulás neurális hálózattal ● Gerald Tesauro: TD-Gammon ● Előrecsatolt hálózat ● Bemenet: a lehetséges lépések nyomán elért állapotok ● Kimenet: állapotérték (nyerési valség) ● Minden lépésben meg kell határozni a hálózat kimeneti hibáját ● Reward signal alapján ● Eredmény: a legjobb emberi játékosokkal összemérhető

The effect of reward in dopaminerg cell of basal ganglia An interpretation: Dopamine cells signals the difference between the expected and received reward.