Shannon képlete az információmennyiség számítására
A Hartley-képlet egy üzenetben található információ mennyiségének
számítására csak akkor igaz, ha az üzenetet alkotó jelek mindegyikénél
egyforma az előfordulási valószínűség. Ha ez nem teljesül (és ez a
gyakoribb eset, mivel a jelkészleteknek, nyelveknek meghatározott [erd19]
statisztikai szerkezete van), akkor az információmennyiség nem a jelek
számával, hanem előfordulási valószínűségükkel lesz arányos. A jelkészlet
valamelyik tagjának információmennyisége ezek után: h = -log p (ahol p
az előfordulási valószínűséget jelző, 0 és 1 közé eső törtszám, ezért
logaritmusát negatív előjellel kell vennünk, hogy eredményül továbbra
is pozitív számot kapjunk).
Látható, hogy minél nagyobb egy esemény bekövetkezésének valószínűsége
(a p közel van az 1-hez), annál kisebb az információtartalma. Az n
jelből álló abc egy jeléhez tartozó átlagos információmennyiség ezek
után: H = - S p(i)·log p(i) (Shannon-képlet), amely nagyon hasonlít az
entrópia képletére. Ha az ötjegyű telefonszám első jegye pl. csak 1 vagy
3 lehet, akkor az információmennyiség 16.609 bitről 14.28 bitre csökken.
Egy közlemény információmennyiségét akkor tudjuk meghatározni, ha
ismerjük a jelkészletet, és legalább megközelítőleg tudjuk a jelek
előfordulási valószínűségét.
Fülöp G. (1984) nyomán [irodalom.txt -Fülöp]