Előadást letölteni
Az előadás letöltése folymat van. Kérjük, várjon
KiadtaKinga Vörösné Megváltozta több, mint 10 éve
1
Módszerek sebességi állandók becslésére Kovács Benedek, kovacsbe@math.bme.hu 2006.10.16 Budapesti Műszaki és Gazdaségtudományi Egyetem
2
Tartalom A FELADAT NEURÁLIS HÁLÓZATOK MÓDSZERE A becslés folyamata Megoldandó problémák Jelenlegi becslési eredmények INVERZ MÓDSZER BEMUTATÁSA ÖSSZEHASONLÍTÁS EREDMÉNYEK, TOVÁBBI MUNKA Paraméterbecslés és neurális hálózatok „Kiszolgáló” Mathematica csomag
3
A feladat Adott egy rendszer modellje (differenciálegyenlet-rendszer) Valamilyen kémiai/egyéb folyamat modellje Ismeretlen paraméterek, azok eloszlásai Mérések – Felhasználható Valahány állapotváltozó mérhető a rendszerben CÉL: Néhány ismeretlen paraméter becslése ELLENŐRZÉS: AMIT NEM TUDUNK MEGTENNI: a becsült paramétert az igazihoz hasonlítjuk AMIT MEG TUDUNK TENNI: az állapotváltozóink értékének ellenőrzése
4
BECSLÉS NEURÁLIS HÁLÓZATOKKAL A függvény amire kíváncsiak vagyunk I: (Measured) Variables → (Estimated) Parameters Mérésekből becsülni a paramétereket ÖTLET: Ki tudjuk számítani egy „inverzét” I -nek G: (Chosen) Parameters → (Calculated) Variables Analitikusan megoldjuk a modellt
5
BECSLÉS NEURÁLIS HÁLÓZATOKKAL (2) A neurális hálózatot az I függvény interpolációjára TANÍTJUK, választott paraméter-értékekkel INPUT: (Calculated) Variables; OUTPUT: (Chosen) Parameters BECSLÉS: Kiértékeljük a hálózatot a mérési adatainkkal INPUT: (Measured) Variables; OUTPUT:(Estimated) Parameters
6
BECSLÉS NEURÁLIS HÁLÓZATOKKAL (3)
7
MEGOLDANDÓ PROBLÉMÁK Az ismeretlen paraméterek száma exponenciálisan növeli a tanítóhalmazt STRATÉGIÁK A TANÍTÓHALMAZ KIVÁLASZTÁSÁRA TELJES FELOSZTÁS: 2-3 paraméterig FIXÁLT FELOSZTÁS: speciális esetekben működik VÉLETLEN FELOSZTÁS: (Monte Carlo) „csomósodhat” LATIN HIPERKOCKÁK: sok paraméterre eddigi legjobb LATIN HIPERKOCKÁK 2: fejlesztés alatt EREDMÉNYEK (KÍSÉRLETI) AZ ALGORITMUS LEGYEN eloszlás alapú a véletlen használata könnyen bővíthető
8
MEGOLDANDÓ PROBLÉMÁK (2) Sok mérésre pontosabb az interpoláció, de nagyobb a számításigény A HÁLÓZAT BEMENETE Hány állapotváltozót vizsgáljunk (nem mindig mindet) A több változó vizsgálata elbonyolíthatja a problémát, => nagyobb hibájú lesz a becslés Hány mérést nézzünk: FELSŐ HATÁR maximális időpillanatok száma => minimális hálózat komplexitás KIMENET Ellenőrzött tanítási stratégia: Egyetlen paraméter? Csak a becsülendő paraméterek? Csak az ismeretlen/ismert paraméterek?
9
JELENLEGI EREDMÉNYEK SIKERÜLT MINDEN SZÓBAJÖVŐ MODELLRE JÓ BECSLÉST ADNI Sajnos nincs recept a hálózati struktúrára, a próbálkozás a legjobb Bonyolultabb modellhez komplexebb háló kell. Túl komplex háló épp olyan rossz, mint a túl egyszerű. A problémák hasonlítanak: neurális hálózatok problémáihoz Becsléselméleti kérdések: Becsülhetőek-e a paraméterek A fv. globális minimuma kell-e? Ellenőrző algoritmusaink kiszűrnek nagyon sok rossz hálót Extrapoláló hálókat kidobjuk – nem feltétlen helyes MIÉRT VAGYUNK OPTIMISTÁK? Sikeres becsléseink PONTOSSÁGA eléri a 95%-ot. Becslést tudunk adni olyan esetben, ahol máshogy nem lehet A hálózat rendszerfüggő, ha van jó hálónk, a becslés GYORS
10
BECSLÉS INVERZ MÓDSZERREL Az alapfeladat szűkítet: egyszerűsített (minta) Integrálható diff.egyenlet: Probléma az invertálásnál: négyzetes mátrix kell invertálható?
11
A két módszer… NEURÁLIS HÁLÓZATOK: MODELL: - fekete doboz - akár több ftlen. változó MÉRÉS: - nem kell tudni mindent mérni - nem kell azonos időpill.-ben - kevés mérés elég SZÁMÍTÁSIGÉNY - lassú tanítás (jó hálózat: offline, hetek) - gyors becslés - pontosság növelése nem egyértelmű INVERZ MÓDSZER: MODELL: - invertálhatóság - linearitás - egyetlen diff.egy. rsz. MÉRÉS: - mindent mérni kell - azonos időpill.-ben kell mérni - kevés mérés nem ér „semmit” (kontra neurális hálózatok) SZÁMÍTÁSIGÉNY - nem lehet „nagyon gyors” (perceket, órákat igényel) - pontosság növelése
12
A két módszer… (2) NEURÁLIS HÁLÓZATOK: SIKER: - nem garantált - javuló hatékonyság PONTOSSÁG: - 95%: javítható? - becsülhetőség határain belül - nem szmámítható INVERZ MÓDSZER: SIKER: - garantált PONTOSSÁG: - mérési pontosság - mérések darabszáma - integrálási pontosság - számítható KÖVETKEZTETÉS: problémafüggő alkalmazás
13
Az elvégzett munka – további célok Elvégzett munka Tetszőleges (diff. egy.) modellhez neurális hálózat építése Beépített kezdetleges ellenőrzés Módosított, több hálót tanító autom. Algoritmus Szisztematikusan tanított sok hálózat Összehasonlító mérések Inverz módszer alkalmazása – fejlesztése Kezdetleges „kevert” algoritmus kidolgozása Elméleti célkitűzések: Inverz módszer hibájának matematikai megatározása általánosabb mátrixinvertálás új, iterációs algoritmus kidolgozása Neurális módszer matametikai hibaszámítás speciális, paraméterbecslő hálózat kidolgozása
14
A Mathematica programcsomag REAKCIÓKINETIKAI PROGRAMCSOMAG RÉSZE A csomag jelenlegi tartalma Mérési eredményeket szimuláló modul Alap INVERZ becslést megvalósító modul NEURÁLIS hálózatokat építő modul Becslő modul, hibaszámítással, neurális hálózatokhoz Szisztematikus algoritmusok: eleve rossz elvetése A csomag további fejlesztése Cél: Kompatibilitás más reakciókinetikai csomagokkal (részb.) Mégnagyobb granualitás Algoritmus-kombinálációs lehetőség Feladatspecifikus Neuronhálózat implementálása
15
KÖSZÖNÖM A FIGYELMET! kovacsbe@math.bme.hu
Hasonló előadás
© 2024 SlidePlayer.hu Inc.
All rights reserved.