ebooksgratis.com

See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Entropie (informatietheorie) - Wikipedia

Entropie (informatietheorie)

Uit Wikipedia, de vrije encyclopedie

Entropie is de maat voor informatiedichtheid in een reeks gebeurtenissen. Informatie ontstaat als een gebeurtenis plaatsvindt waarvan vooraf onzeker was of deze daadwerkelijk zou gebeuren. In de informatietheorie wordt dit inzicht verder wiskundig uitgewerkt.

De gemiddelde hoeveelheid informatie bij een nog plaats te vinden gebeurtenis of een nog uit te voeren experiment, is gedefinieerd als de mathematische verwachting van de hoeveelheid zelfinformatie die deze gebeurtenis op zal leveren. Het gaat hierbij om de 'verwachting' zoals gedefinieerd in de kansrekening.

Stel dat er bij een experiment A een aantal mogelijke uitkomsten Ui bestaat (i = 1, 2, ..., n). Iedere uitkomst Ui zal dan optreden met een zekere kans pi.

Dit betekent dat bij uitkomst Ui een hoeveelheid zelfinformatie H(Ui) = - 2log(pi) behoort.

De hoeveelheid informatie die beschikbaar komt bij eenmalige uitvoering van experiment A noemen we I; I \in \{ H(U_1), H(U_2), ..., H(U_n) \}

De gemiddelde hoeveelheid informatie bij dit experiment is  H(A) = E\{I\} = \sum_{i=1}^{n} p_i H(U_i) = \sum_{i=1}^{n} p_i ( - ^2log(p_i) ) = - \sum_{i=1}^{n} p_i\cdot ^2log(p_i) bit.

[bewerk] Voorbeeld

Het alfabet bevat zes klinkers (a, e, i, o, u, y) en twintig medeklinkers. Bij een experiment schrijft iemand een geheel willekeurige letter op een papiertje, en wordt er vervolgens vastgesteld of het een klinker dan wel een medeklinker is. De gemiddelde hoeveelheid informatie die beschikbaar komt bij dit experiment is dan  H(A) = - \sum_{i=1}^{n} p_i\cdot ^2log(p_i) = -\frac{6}{26}\cdot ^2log(\frac{6}{26}) - (\frac{20}{26})\cdot ^2log(\frac{20}{26}) = 0.488 + 0.291 = 0.779 bit.

Dit is een voorbeeld van een experiment met twee mogelijke uitkomsten. Het blijkt dat de gemiddelde hoeveelheid informatie bij uitvoering van het experiment minder dan 1 bit bedraagt. In het algemeen is het bewijsbaar dat uitvoeren van een experiment dat N mogelijke uitkomsten heeft nooit meer dan een gemiddelde informatie van 2log(N) bit kan opleveren. En deze waarde voor de gemiddelde informatie wordt bereikt als elke uitkomst een even grote kans 1/N heeft.

[bewerk] Relatie met thermodynamica

Het begrip entropie is bekender in de thermodynamica dan de informatietheorie, maar de definitie van entropie in de informatietheorie heeft veel overeenkomsten met entropie zoals gebruikt door natuurkundigen en chemici. Het werk van Boltzmann en Gibbs aan statistische thermodynamica vormde de inspiratie voor Shannon om het begrip in de informatietheorie te gebruiken.


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -