Beruflich Dokumente
Kultur Dokumente
TEORÍA DE LA INFORMACIÓN.
¿Qué es información?
3 letras A P(A)=0.0721
2 letras T P(T)=0.0908
2 letras M P(M)=0.0282
1 letra E P(E)=0.1224
1 letra I P(I)=0.0779
1 letra C P(C)=0.0394
1 letra S P(S)=0.0728
Entonces:
1 1 1
I TOTAL 3log 2 2 log 2 2 log2
0.0721 0.0908 0.0282
1 1 1 1
log 2 log2 log 2 log 2
0.1224 0.0779 0.0394 0.0728
41.4421bits
1 1
I TOTAL N A log 2 N B log 2
P ( A) P( B )
1
N Z log 2
P(Z )
Así mismo:
I TOTAL
promedio de información
NTOTAL
0 1 0 0 1 0 1 1 0
P(A) = 12.5%
P(B) = 6.25%
P(D) = 25%
P(E) = 6.25%
P(F) = 12.5%
P(G) = 6.25%
P(H) = 25%
P(I) = 6.25%
P(H) = 25%
P(D) = 25%
P(A) = 12.5%
P(F) = 12.5%
P(B) = 6.25%
P(E) = 6.25%
P(G) = 6.25%
P(I) = 6.25%
1 1
2 0.25 log 2 2 0.125 log 2
0.25 0.125
1
4 0.0625 log 2 1 0.75 1 2.75bits / letra
0.0625
En este ejercicio se ve claramente que el código es óptimo, puesto
que el promedio es igual a la entropía. Esto, como ya se dijo es una
situación no frecuente. Para resolver otro ejemplo, considérese el
siguiente alfabeto que ya ha sido acomodado en orden decreciente de
probabilidades:
S---19%
M---16%
K--- 14%
A---13%
I---12%
P---8%
T---6%
D---5%
B---4%
U---3%