Yechish: Agarda barcha belgilarning paydo bo‗lish ehtimolliklari bir
P 1 1
N 32
bo‗ladi. U holda axborot hajmi:
1
I log2 ( P )
log 2 N
log 2
32 5
Misol 3. Axborot faqat 0 va 1 belgilardan iborat bo‗lsin, ya‘ni N=2 ga teng. U holda 1 ning paydo bo‗lish ehtimoli P(1)=0,25 ga teng. Xabardagi hamma belgilar ehtimolligi teng emas. U holda axborot hajmini hisoblang.
Yechish: Axborotdagi belgilarning paydo bo‗lish ehtimolligi har xil bo‗lganligi uchun axborot hajmi quyidagiga teng:
I P(1) log 2 (1) P(0) log 2 1 1
1 ) 3
3 0,8
P(1)
P(0)
( 4 log 2 4
( 4) log 2 ( 4)
Shunday qilib, xabardagi belgilarning ehtimolliklari teng bo‗lmaganda axborot miqdori kamayadi.
Axborotdagi belgilarning paydo bo‗lish ehtimolligi bilan axborot hajmi o‗rtasidagi bog‗liqlik Klod Shennon teoremasida o‗z ifodasini topgan, ya‘ni axborotdagi har bir belgiga mos keluvchi axborotni o‗rtacha hajmi (soniga) entropiya deb yuritiladi va quyidagicha aniqlanadi.
H ( A) p(xi ) log 2
i1
p(xi )
Entropiya – bu xabarlar manbaining holatidagi noaniqligining o‗lchovi ham hisoblanadi. Agar manba tomonidan 1 ga teng ehtimoli bilan faqat bitta belgi uzatilayotgan bo‗lsa, u holda entropiya nolga tengdir. Agar xabar manbaidan uzatilayotgan belgilar bir xil ehtimollik bilan paydo bo‗lsa, entropiya maksimal bo‗ladi.
Xabar manbai entropiyasini aniqlaymiz. Agar N=2 va P(x 1)= P(x 2)=0,5 bo‗lsa, u holda:
2
H ( A) P(ai ) log 2 P(ai ) 0,5 log 2 0,5 0,5 log 2 0,5 1
i1
|