Hírérték
A Wikipédiából, a szabad enciklopédiából.
A hírérték fogalmát Shannon a nevéhez fűződő logaritmikus formulával fogalmazta meg. Erről később így ír: Rájöttünk, hogy egy üzenet értéke nem annak hosszával, hanem inkább a váratlanságával hozható kapcsolatba (Shannon-Weaver: A kommunikáció matematikai elmélete).
Tartalomjegyzék |
[szerkesztés] Definíció
Egy S hírforrás valamely p valószínűséggel (relatív gyakorisággal) kibocsátott h hírének az értéke:
[szerkesztés] Magyarázat
A definíció a Shannon-féle kommunikációs modellre hivatkozik. A formulában szereplő k és a (a logaritmus alapja) szabadon választható, a mértékegységet meghatározó paraméterek. A p valószínűség reciproka a megfelelő esemény bekövetkezésének váratlansága: a kis valószínűségű esemény nagyon „meglepő”, a nagy valószínűségű viszont „banális”. Szokás a formulát a paraméterek elhagyásával és a tört kiküszöbölésével idézni:
I(h) = − logp
A logaritmus biztosítja, hogy a mérték additív legyen, azaz egy összetett hír értékét a részek értékének összege adja: . Feltesszük a modellben, hogy az összetett hír komponensei független valószínűségű eseményekről tudósítanak. (V.ö.: valószínűség-számítás)
A formula a hőtanban használt egyik mennyiség, az entrópia formulájára emlékeztet, s a hírforrás (kibernetikai rendszer) átlagos hírértéke is rokonítható azzal.
[szerkesztés] Példa
A magyar kártya 32 lapjából egyet p=1/32 valószínűséggel húzunk ki. Az eseményről tudósító hír (bináris) értéke log2(32) = 5bit. Ha külön közlik a kihúzott kártya színét és értékét, akkor e részletek értéke log2(4) = 2bit illetve log2(8) = 3bit, s ezzek összege adja a teljes hír értékét.