Beruflich Dokumente
Kultur Dokumente
comunicaciones I
Teoría de la
información
LOGO
Edit your company slogan
Modelo de comunicación
Fuente de
Transmisor Canal Receptor
información Destinatario
LOGO
www.themegallery.com
Información
Es el conjunto
Información de datos que
es lo que permiten
reduce la tomar una
incertidumbre decisión".
LOGO
www.themegallery.com
Jerarquía de la información.
Datos 40Km/h
Conocimiento Demaciado
Sabiduria Multa
LOGO
www.themegallery.com
Valor de la información
Redundancia
La redundancia nos permite ahorrar tiempo en la decodificación de
los mensajes
Es la probabilidad
Es función que tiene un
(evento) de la mensaje de ser
inversa de enviado (no su
probabilidad contenido), lo que
de ocurrencia determina su
del mismo valor informativo.
LOGO
www.themegallery.com
Medición de la información (cont)
I = ƒ(1/P)
I: información P: probabilidad
I = Ia + Ib = ƒ(1/Pa) + ƒ(1/Pb)
I = ƒ( 1 / Pa y b ) P(a y b) =P(a)*P(b)
LOGO
I = log(1/P) www.themegallery.com
Unidades de información
1 1
I (a)=log 2 𝑃 (𝑎) I (a)=log 𝑒 𝑃 (𝑎)
Unidades de
Bit o también información Nat
Shannon
1
I (a)=log10 𝑃 (𝑎)
Hartley
LOGO
www.themegallery.com
Ejemplo
Consideremos el caso binario, solo tenemos
dos niveles de tensión, (0, 1).
LOGO
Cont
LOGO
www.themegallery.com
Fuentes de información
Fuentes de información.
LOGO
www.themegallery.com
Entropía
q
1
H ( s) P( si ) ld ( )
i 1 P( si )
l (q)
), la entropía total será:
H ( s)
max d
LOGO
Un mensaje suministra la mayor cantidad de información cuando todos los
elementos delmensaje son equiprobables.
Tasa de información (R)
LOGO
LOGO
LOGO
www.themegallery.com