INFORMATIKA Számítógéppel segített minőségbiztosítás (CAQ)

Slides:



Advertisements
Hasonló előadás
Info alapfogalmak és kódolás
Advertisements

Adat információmennyisége és információtartalma
Kódelmélet.
Információ és közlemény
Az adatábrázolás, adattárolás módja a számítógépekben
I. Adott egy lineáris bináris kód a következő generátormátrixszal
1.
 Veszteségmentes kódolás  Visszafejtése egyértelmű  Egyik kódszó sem lehet része semelyik másiknak  Lépések:  1.: Statisztika a kódolandó anyagról.
Tóth István Algoritmusok és adatszerkezetek 2.
Algoritmus és adatszerkezet Tavaszi félév Tóth Norbert1.
Számítógépes Hálózatok
Analóg és digitális jelek
3. óra Kódok, adatok.
Forrás kódolás Feladat: -az információ tömörítése.
Kommunikációs Rendszerek
A TCP/IP protokollkészlet és az IP címzés
SZÁMÁBRÁZOLÁS.
Hangtechnika I. 5-8 Schiffer Ádám
Informatika 2003/ félév Homor Lajos T: (33) (70)
A digitális számítás elmélete
Számítógépes Hálózatok GY 3. Gyakorlat Adatkapcsolati réteg Számítógépes hálózatok GY1.
Számítógépes Hálózatok GY
Huffman Kódolás.
PTE PMMK Matematika Tanszék dr. Klincsik Mihály Valószínűségszámítás és statisztika előadások Gépész-Villamosmérnök szak BSc MANB030, MALB030 Bevezető.
Informatika tankönyvek és segédletek
Borításbecslés a kvadrátban az adott faj egyedei függőleges vetületeinek összege hány % % -os borítás (az adott fajhoz tartozó egyedek függőleges vetülete)
Az Alakfelismerés és gépi tanulás ELEMEI
TÖRTÉNETI ÁTTEKINTÉS TÁVIRATOZÁS A TÁVBESZÉLÉS KEZDETEI
Információtechnológiai alapismeretek
Informatika.
Alapismeretek Számítógépes adatábrázolás
Kommunikáció.
I276 Antal János Benjamin 12. osztály Nyíregyháza, Széchenyi I. Közg. Szki. Huffman kódolás.
Az információ és kommunikáció technológiája
Információelmélet 1. Előadás Dr. Nagy Szilvia Széchenyi István Egyetem Győr, 2006 tavaszi félév.
Kódelmélet 1. előadás. A tárgy célja Az infokommunikációs rendszerek és szolgáltatások központi kérdése: Mindenki sávszélességet akar: minél többet; minél.
A Huffman féle tömörítő algoritmus
Információ- és hírközléselmélet '991 Információ- és Hírközléselmélet Vassányi István, Információelmélet –forráskódolás –csatornakódolás.

Alapismeretek Számítógépes adatábrázolás
Készítette: Veres Róbert Médiatechnika I. BKF-SZKI.
2005. Információelmélet Nagy Szilvia 1. Az információelmélet alapfogalmai.
Bevezetés az informatikába 1. előadás
Kommunikációs Rendszerek
Címlap Bevezetés az információelméletbe Keszei Ernő ELTE Fizikai Kémiai Tanszék
Adattömörítés.
2005. Információelmélet Nagy Szilvia 3. Forráskódolási módszerek.
Címlap Információelmélet: egy kis ismétlés Keszei Ernő ELTE Fizikai Kémiai Tanszék
Információelmélet: az információ mérése
Valószínűségszámítás II.
Többdimenziós valószínűségi eloszlások
2005. Információelmélet Nagy Szilvia 2. A forráskódolás elmélete.
Nagy Szilvia 6. Forráskódolás alapjai
Bevezetés az informatikába
Adatátvitel elméleti alapjai
A bináris jelrendszer és az ASCII kód
A kommunikáció értelmezése
Nagy Szilvia 6. Csatornakódolás
2005. Információelmélet Nagy Szilvia 1. Az információelmélet alapfogalmai 2. A forráskódolás elmélete 3. Forráskódolási módszerek.
Alapfogalmak Bevezetés az informatikába. 2 Az információ felvilágosítás, tájékoztatás, hír, adat valami, amit még nem tudtunk, újdonság jellegű az adatnak.
Adat és információ. Információ, tudás  A latin informatio = felvilágosítás, tájékoztatás, oktatás szóból  Minden, ami megkülönböztet  Új ismeretté.
Huffman kód.
A Huffman féle tömörítő algoritmus Huffman Kód. Az Algoritmus Alapelvei Karakterek hossza különböző A karakter hossza sűrűsége határozza meg: Minél több.
Információelmélet 1 Eszterházy Károly Főiskola, Eger Médiainformatika intézet Információs Társadalom Oktató- és.
Huffman algoritmus Gráf-algoritmusok Algoritmusok és adatszerkezetek II. Gergály Gábor WZBNCH1.
K OZMA -B OGNÁR V ERONIKA 1 - S ZABÓ R ITA 2 - O CSKAI Z SOLT 2 - B ERKE J ÓZSEF 2,3 1 – Pannon Egyetem, Meteorológia és Vízgazdálkodás Tanszék 2 - Gábor.
100-as szög méreteinek gyakorisága (n = 100) db mm Gyakoriság grafikon (adott méretű esetek db.)
1 Műszaki kommunikáció 8. előadás vázlat Dr. Nehéz Károly egyetemi adjunktus Miskolci Egyetem Alkalmazott Informatikai Tanszék.
A KOMMUNIKÁCIÓ MODELLJEI. S HANNON -W EAVER MODELL.
Változó hosszúságú kódolás
Előadás másolata:

INFORMATIKA Számítógéppel segített minőségbiztosítás (CAQ)

Információelméleti bevezetés Adatforrás, diszkrét szimbólumok, információtartalom, csatornakapacitás.

Információelméleti bevezetés Az üzenet információ tartalma Minél kisebb egy szimbólum előfordulá- sának valószínűsége, annál nagyobb az információtartalma: I(m k ) > I(m j ), ha p k < p j.

Információelméleti bevezetés Két független üzenet együttes információtartalma az egyes üzenetek információtartalmának összege: I(m k ÉS m j ) = I(m k m j ) = I(m k ) + I(m j ), I(m k ) = log (1/ p k ), és I(m j ) = log (1/ p j ),

Információelméleti bevezetés Az entrópia független üzenetek esetén: H = ∑p i ∙ ld (1/ p i ) [bit/szimbólum] és i=1,..,m, nem független üzenetek esetén: H = ∑P i ∙ H i = ∑P i ∙ [ ∑p i,j ∙ ld(1/ p i,j )] [bit/szimbólum] és i=1,…,m, j=1,…,n.

Információelméleti bevezetés Veszteségmentes forrás kódolása A forrás átlagos adási üteme: R = r s ∙ H [bit/sec], ahol r s a forrás szimbólum adási üteme. A forrás szimbólum bináris jelsorozat. Határozza meg a P(a)=0,5; P(b)=0,2; P(c)=0,3 előfordulási valószínűségű a, b és c szimbólumok Shannon-Fanno féle és Huffman-féle bináris kódját.

Információelméleti bevezetés Shannon-Fanno féle digitális forrás kódolással: P(a)=0,5; P(b)=0,2; P(c)=0,3 0,5 0,3 0,2 0 0,5 0,8 0,5∙2 1,0 10,0 0,3∙2 0,6 1,2 2 bit 0,2∙2 0,4 0,8 1,6 3 bit 0,8∙2 1,6 11,2 110,

Huffman-féle bináris kódolással: (a nagyobb előfordulási valószínűségű szimbólumhoz 0-t, a kisebbhez 1-et szoktak hozzárendelni) a 0 b01 c11 Információelméleti bevezetés 1 0, ,5 a 0,3 b 0,2 c

Határozza meg az átlagos szóhosszúságot, az átlagos szórást és az entrópiát Shannon-Fanno féle kódolásnál. L = ∑p i ∙l i = p a ∙l a + p b ∙l b + p c ∙l c L = 0,5 ∙1 + 0,3 ∙2 + 0,2 ∙3 = 1,7 [bit] σ = √∑p i ∙(l i – L) 2 σ = √p a ∙(l a – L) 2 + p b ∙(l b – L) 2 + p c ∙(l c – L) 2 σ = √0,5 ∙(1 – 1,7) 2 + 0,3 ∙(2 – 1,7) 2 + 0,2 ∙(3 – 1,7) 2 σ  0,77 H = ∑p i ∙ ld (1/ p i ) = - p a ∙ld(1/p a ) - pb∙ld(1/p) - p a ∙ld(1/p a ) H = 0,5∙ld(1/0,5) + 0,3∙ld(1/0,3) + 0,2∙ld(1/0,2) H  1,485 [bit/szimbólum] Információelméleti bevezetés

Gyakorló feladat Határozza meg a P(a)=0,4; P(b)=0,2; P(c)=0,2; P(d)=0,1 és P(e)=0,1 előfordulási valószínűségű a, b, c, d és e szimbólumok Shannon-Fanno féle és Huffman-féle bináris kódját.