Sie sind auf Seite 1von 24

teorema

Vol. XVIII/2, 1999, pp. 77-100




Teora matemtica de la comunicacin
y teora semntica de la informacin
1


Mario Prez Gutirrez


ABSTRACT
Since Shannon and Weaver introduced the Mathematical Theory of Communi-
cation in 1948, such an approach has not been taken into account in the design of a
semantic definition of the information content. This article is mainly aimed at show-
ing that such approach allows us to extract some unavoidable constraints when de-
signing a semantic analysis of the concept of information. It should also be
considered, however, that this theory does not aim to define information content, but
only to present a way to deal with the amount of information useful for engineers. In
conclusion, it deals with informational and communicative constraints providing a re-
strictive, though indirect, first step towards an informational content theory.

RESUMEN
Desde que en 1948 Shannon y Weaver presentaron la Teora Matemtica de la
Comunicacin, esta propuesta no ha sido tenida muy en cuenta a la hora de disear
una definicin semntica de contenido informativo. El objetivo principal que se persi-
gue con este artculo es mostrar que, aunque desde esa teora no se pretende aportar
nada sobre la definicin de contenido informativo slo se intenta presentar un tra-
tamiento de la medida de la cantidad de informacin adecuado para el trabajo y los
problemas de los ingenieros, es posible extraer de la misma ciertas restricciones que
debemos imponer y respetar a la hora de disear un anlisis semntico de la nocin de
informacin. En definitiva, se trata de unas restricciones informacionales y comunica-
cionales que nos ofrece un primer paso, aunque sea indirecto por restrictivo, hacia una
teora del contenido informativo.


I. INTRODUCCIN

Desde el comienzo de los aos cincuenta la curiosidad y el inters por
el fenmeno de la informacin ha ido paulatinamente aumentando de tal ma-
nera que hemos desembocado en una situacin en la cual el concepto de in-
formacin se encuentra slidamente instalado en un lugar de privilegio dentro
del panorama terico contemporneo. En la actualidad no existe disciplina
cientfica que se precie que no est interesada por este fenmeno y que no in-
cluya, directa o indirectamente, ese concepto como parte fundamental de su
proceso explicativo de la realidad. As, por ejemplo, en las ciencias de la
computacin y en la inteligencia artificial, debido a su especial naturaleza, la
77
Mario Prez Gutirrez 78
atencin dirigida hacia la informacin parece justificada: entre sus objetivos
se incluye el de intentar crear modelos conceptuales y fsicos que represen-
ten, reproduzcan y, por qu no, mejoren las estrategias que utilizamos los se-
res vivos para producir y procesar flujo informativo. Pero tambin existen
ejemplos de esta traslacin del punto de inters que no parecen en un princi-
pio tan obvios. En biologa, sin ir ms lejos, se estn dedicando grandes es-
fuerzos econmicos y de personal para desentraar y descifrar el papel crucial
que desempea la informacin en el interior de los organismos considerados
como conjuntos de mecanismos biolgicos con capacidad de procesamiento de
informacin. Incluso en psicologa, por nombrar slo un ejemplo ms, el es-
fuerzo tambin se concentra, en gran medida, en la descripcin y explicacin
de los procesos mediante los cuales los organismos codifican y transmiten infor-
macin.
Pero este inters por el fenmeno de la informacin no slo se circuns-
cribe al mbito de lo terico, sino que tambin se ve reflejado en otras parce-
las de la actividad humana. Cientos de empresas se dedican a la compra, a la
venta, al almacenamiento y a la gestin de informacin. Los gobiernos invier-
ten muchos recursos para conseguir el control administrativo y policial de la
poblacin haciendo acopio de informacin personal. Millones de personas se
encuentran relacionadas laboralmente de una manera estrecha con algn tipo
de proceso en el que se ve envuelta la gestin de flujo informativo. Y en una
carrera obsesiva por el progreso en el campo de las tecnologas de la infor-
macin continuamente aparecen nuevos avances que estn llegando a provo-
car profundos cambios en nuestras estrategias comunicativas, en nuestro ocio,
en nuetras relaciones personales y, en definitiva, en nuestras vidas.
Sin embargo, este aumento desmesurado del protagonismo del fenme-
no informativo ha trado tambin contrapartidas negativas. En un exceso de
euforia terica se ha pretendido encontrar en el trmino informacin la solu-
cin a todas nuestras insatisfacciones terminolgicas. Hoy en da es fcil
comprobar que todo el mundo utiliza este trmino para referirse indistinta-
mente a una serie de cosas que en la mayora de los casos poco tienen que ver
entre ellas. Slo hay que evaluar nuestro uso lingstico del trmino informa-
cin para darnos cuenta que ste ha acabado circulando por nuestro lenguaje
comn dotado de un vasto contenido semntico. Normalmente, acostumbra-
mos a utilizar esta palabra para referirnos a un extenso conjunto de cosas que
comprende desde hechos identificables con el conocimiento o el significado
de un mensaje, hasta aspectos relativos a la importancia o la verdad del mis-
mo. Y es que, casi sin proponrnoslo, hemos convertido este trmino en el
comodn lxico de nuestra poca. Pero este exceso de euforia tiene un alto
precio a pagar: la pobreza y la confusin conceptual. Con nuestros abusos
terminolgicos hemos conseguido desproveer de contenido a este concepto
hasta convertirlo en un trmino ambiguo y vacuo. En definitiva, se ha desem-
bocado en una situacin de contaminacin conceptual en la que todo y nada
Teora matemtica de la comunicacin y... 79
parece identificable con la informacin y en la que todos hablamos de ella pe-
ro muy pocos saben a qu se refieren cuando utilizan este trmino.
Es en medio de este panorama de confusin conceptual y terminolgica
donde una pregunta adquiere, ms que nunca, pleno sentido y vigencia: qu
es realmente la informacin? O dicho de otra manera: cmo debe ser explica-
do el hecho de que una seal transporta cierto contenido informativo? Cules
son las caractersticas de este hecho? Dar respuesta adecuada a estas preguntas
no es, ni mucho menos, una cuestin trivial. Se trata, sin lugar a dudas, de con-
testar a una de las cuestiones que han alimentado parte de los esfuerzos inte-
lectuales de la ltima dcada: cmo definir la nocin de contenido
informativo y, por tanto, qu significa que una seal transporte cierta infor-
macin.
Pero aunque describir qu es la informacin no sea una tarea sencilla y
la contaminacin conceptual reinante nos impida acercarnos con claridad a
este objeto de conocimiento, es posible arrojar un poco de luz sobre esta espesa
confusin terminolgica. Un primer paso para establecer la clarificacin del
concepto de informacin podemos encontrarlo indirectamente en el tratamiento
de la nocin de informacin que, desde el mbito de la matemtica, han
ofrecido algunas teoras, principalmente la introducida por Claude Shannon y
conocida como la teora matemtica de la comunicacin.
El objetivo principal que se persigue con este artculo es mostrar que,
aunque desde la teora matemtica de la comunicacin no se pretende aportar
nada sobre la definicin de contenido informativo slo se intenta presentar
un tratamiento de la medida de la cantidad de informacin adecuado para el
trabajo y los problemas de los ingenieros, es posible extraer de esta pro-
puesta ciertas restricciones que debemos imponer a la hora de disear un an-
lisis semntico de la nocin de informacin.
Y para alcanzar este objetivo desdoblaremos esta tarea en dos episo-
dios. Por un lado, en el apartado que viene a continuacin, se realizar una
breve exposicin de las principales ideas contenidas en la teora matemtica
de la comunicacin. Por otro lado, en el apartado final, destacaremos algunas
restricciones tiles que nos puede ofrecer esta teora y que, si bien no definen
directamente la nocin de contenido informativo, deben de ser tenidas en
cuenta y respetadas a la hora de proponer una teora semntica satisfactoria
de la informacin. En definitiva, en los siguientes apartados pasaremos revis-
ta a las ideas tcnicas presentadas por Shannon, pero no con la intencin de
encontrar en la teora matemtica de la comunicacin una respuesta directa a
la cuestin de qu es lo que se dice cuando utilizamos el trmino informa-
cin, sino para ver lo que podramos decir y lo que no podramos decir
si utilizaramos correctamente este mismo trmino al tener en cuenta algunas
restricciones matemticas extrables de dicha teora.
II. CANTIDAD Y FLUJO INFORMATIVO

Mario Prez Gutirrez 80
Histricamente, desde el mbito de la matemtica, las primeras e
importantes aportaciones que se realizaron sobre la nocin de informacin
fueron presentadas por Harry Nyquist en 1924 [Nyquist (1924)], a partir de su
trabajo sobre la velocidad de transmisin de mensajes telegrficos, y por R.
Hartley, en 1928 [Hartley (1928)], con la introduccin de la primera medida de
la informacin de una seal s, I(s), relacionndola con su probabilidad
2
:

I(s) = log (1/p(s)), (donde p(s) es la probabilidad de la ocurrencia de s)

Pero la principal aportacin la realiz Claude E. Shannon. En julio de
1948, este ingeniero de los laboratorios Bell System filial de la empresa de
telecomunicaciones American Telegraph & Telephone (ATT) public un
artculo en la revista Bell System Technical Journal, bajo el ttulo de A Mat-
hematical Theory of Communication [Shannon (1948)], donde present algu-
nas ideas sobre la medida de la informacin articulndolas dentro de una teora.
Esta teora pasara a la historia con el nombre de Teora matemtica de la co-
municacin. En 1949, este artculo, junto a un prlogo de Warren Weaver
(coordinador, durante la Segunda Guerra Mundial, de la investigacin sobre
grandes computadoras), fue publicado como libro, con un ttulo casi idntico,
por la University of Illinois Press [Shannon & Weaver (1949)].
La aportacin semntica de esta teora es escasa ya que sus trabajos no es-
tn dirigidos a la bsqueda de una definicin del contenido informativo, sino que
persiguen una medida adecuada de la cantidad de informacin. Y es que el espri-
tu de esta propuesta se encuentra concentrado en la investigacin sobre la codifi-
cacin y la transmisin de la informacin, y alimentado por algunos problemas
de ingeniera: ahorro de tiempo y dinero en la transmisin de seales, bsqueda
de cdigos adecuados compatibles con el canal, diseo de canales sin ruido, etc.
De esta manera, podemos sealar que el objetivo principal de la teora
matemtica de la comunicacin es cuantitativo, es decir, proporcionar una
medida de la cantidad de informacin asociada con la ocurrencia o realiza-
cin de un determinado estado de cosas, y una medida del grado en el que es-
ta informacin se transmite a otros puntos.
En concreto, dentro de la propuesta de Shannon los contextos informa-
tivos se consideran formados por fuentes (de informacin) que, a su vez, son
definidas como conjuntos de acaecimientos con cierta probabilidad de ocu-
rrencia. Al hilo de esta distincin entre las fuentes de informacin y las ocu-
rrencias (o mensajes) que las conforman podemos introducir las principales
definiciones que aparecen en esta teora. En primer lugar presentaremos la
ecuacin que es utilizada para calcular la informacin asociada a una ocu-
rrencia s
i
. La frmula adecuada para medir la cantidad de informacin aso-
ciada a s
i
(o su valor de sorpresa, I(s
i
)), dada su probabilidad p(s
i
), es:

Teora matemtica de la comunicacin y... 81
(1) I(s
i
) = log 1/p(s
i
) bits
3

=
-
log p(s
i
) bits
(dado que log (1/x) =
-
log x).

I(s
i
) puede entenderse tambin como la informacin necesaria para representar
que se ha producido la ocurrencia de s
i
, o como el nmero de pasos o decisio-
nes binarias (bits) necesarios para reducir n posibilidades de una fuente a una.
Dentro de la teora matemtica de la comunicacin, la cantidad de in-
formacin de un estado o un mensaje concreto slo es considerado como un
estadio para el clculo de la cantidad media de informacin de una fuente que
contiene varios estados con un valor de sorpresa propio. Para calcular esta
media ponderada de informacin se utiliza la siguiente frmula:

(2) I(S) = p(s
1
) . I(s
1
) + p(s
2
) . I(s
2
) + p(s
3
) . I(s
3
) +...+ p(s
n
) . I(s
n
)
= p(s
i=1
n
i
) . I(s
i
) bits / mensaje
4
.

Por I(S), tambin llamada entropa, debemos entender el valor medio
por smbolo de la informacin suministrada por la fuente S, o, tambin, el va-
lor medio de la incertidumbre de un observador antes de conocer la salida de
la fuente S. La importancia de esta cantidad dentro de la teora presentada por
Shannon en detrimento de la de cantidad de informacin de un mensaje
concreto se justifica por el hecho de que es mucho ms fructfera y til a la
hora de intentar disear soluciones a los problemas centrados en los aspectos
de la ingeniera de la comunicacin. Es poco til intentar encontrar un canal
que sirva para transmitir informacin exclusivamente en funcin de la canti-
dad de informacin asociada a un mensaje determinado de una fuente: si bien
lograramos que ese mensaje se transmitiese de una manera correcta, podra
ser que para el resto de los mensajes de la fuente el canal utilizado no fuera
adecuado. Es mucho ms rentable disear un canal teniendo en cuenta el va-
lor medio por smbolo de la informacin suministrada por la fuente.
Hasta ahora hemos presentado el tratamiento de la cantidad de informa-
cin generada por una fuente haciendo referencia exclusiva a mensajes o fuen-
tes independientes, y para ello hemos introducido las frmulas (1) y (2). Pero
en la mayora de los casos prcticos no podemos hablar de fuentes de informa-
cin que sean independientes o que estn fuera de la influencia informativa de
otras fuentes. A menudo, las fuentes se encuentran en relacin informativa con
otras fuentes. Cuando esto ocurre, cuando dos fuentes se encuentran relaciona-
das informacionalmente, decimos que entre ellas existe una transmisin o flujo
de informacin. En estos contextos de interaccin informativa, las definiciones
de cantidad de informacin anteriormente expuestas no son suficientes para re-
coger matemticamente este flujo o transmisin de informacin. En estas situa-
ciones intervienen aspectos comunicativos que no son recogidos en la
Mario Prez Gutirrez 82
aplicacin sistemtica de las frmulas presentadas. Pero vayamos por partes.
Cuando dos fuentes se encuentran en relacin informativa decimos que
entre ellas existe un canal de informacin por el que se transmite un flujo de
informacin. Podemos introducir la nocin de canal de la siguiente manera:

Definicin. Un canal de informacin
5
viene determinado por un alfabe-
to de entrada S = {s
i
}, i = 1, 2, 3, ..., t; un alfabeto de salida R = {r
j
}, j =
1, 2, 3, ..., v; y un conjunto de probabilidades condicionales P(r
j
/s
i
).
P(r
j
/s
i
) es la probabilidad de recibir en la salida el smbolo r
j
cuando se
enva el smbolo de entrada s
i
.

Tambin podemos representar grficamente un canal de informacin
con fuente de entrada S y de salida R mediante la siguiente figura:

s
1
s
2
s
3
.
.
.
s
t
S
r
1

r
2

r
3

.
.
.
r
v
R P(r
j
/s
i
)


Una vez introducida la nocin de canal podemos pasar a describir las mag-
nitudes informativas que intervienen en un contexto en el que existe un flujo in-
formativo. En una situacin en la que dos fuentes, S y R, se encuentren en una
relacin de transmisin informacional, adems de sus cantidades independientes
de informacin, I(S) y I(R), debemos atender a otras magnitudes informativas.
Por un lado, partiendo de la idea de que existe un flujo informacional de la fuente
S a la fuente R, una informacin generada en S y otra recibida en R, podemos in-
troducir la nocin de informacin mutua de S y R, I
S
(R), como la cantidad de in-
formacin generada por S que se mantiene en R. La informacin mutua de S y R,
I
S
(R), es tambin conocida como la informacin media mutua recibida por el ca-
nal o cantidad de dependencia de R respecto a S. Por otro lado tambin podemos
introducir la nocin de equivocidad, E, como la cantidad de informacin genera-
da por S que no es transmitida a R; y la de ruido, N, como la cantidad de infor-
macin que lleva R que no ha sido generada por S.
En definitva, stas seran las magnitudes informativas asociadas a un canal:
I(S), I(R), I
S
(R), E y N. Si representamos grficamente estas nociones y sus rela-
ciones podemos obtener el siguiente esquema:
Teora matemtica de la comunicacin y... 83

I(S) I(R)
E I
S
(R) N


Como se desprende de este esquema, para calcular los valores de I
S
(R), E y N
debemos partir de la idea de que I
S
(R) nunca puede ser mayor que I(S) o I(R).
De esta manera podemos afirmar que I
S
(R), la cantidad de informacin
transmitida desde S a R, es la cantidad total de informacin disponible en R,
I(R), menos la cantidad de ruido N:

(3) I
S
(R) = I(R)
-
N.

Por otro lado, como se sigue del esquema, tambin podemos afirmar
que la cantidad de informacin transmitida de S a R, I
S
(R), es la cantidad to-
tal de informacin disponible en S, I(S), menos la equivocidad (E) o cantidad
de informacin generada en S que no se transmite a R:

(4) I
S
(R) = I(S)
-
E.

Pasemos ahora a definir cuantitativamente las nociones de ruido y equi-
vocidad. Para obtener la descripcin matemtica de la nocin de ruido, N, es
necesario primero conocer el ruido asociado a cada una de las ocurrencias s
i

de la fuente entrada S. El ruido asociado a una ocurrencia s
i
de la fuente en-
trada S puede calcularse utilizando la siguiente frmula:

(5) N(s
i
) =
-
p(r
j =1
v

j
/s
i
) . log p(r
j
/s
i
).

El ruido asociado a s
i
6
es la suma de los resultados de multiplicar cada probabi-
lidad condicional de recibir como salida cada smbolo r
j
de la fuente R siempre
que se enva el signo fijo de entrada s
i
, por el logaritmo en base dos
7
de la mis-
ma. El signo menos que aparece precediendo al signo de sumatorio se justifica
por la razn de que en (5) introducimos el logaritmo de una probabilidad. Los
posibles valores de una probabilidad, p, se sitan entre el 1 y el 0, y el logarit-
mo de un nmero mayor que 0 pero menor que 1 nos ofrece siempre un valor
Mario Prez Gutirrez 84
negativo. Por tanto, si p es distinto de 1 y de 0 pero se encuentra entre el 0 y 1,
el logaritmo de p alcanza valores negativos. De todas formas, para evitar este
signo negativo podramos reescribir la frmula (5) sustituyendo (al tener en cuen-
ta que log 1/x =
-
log x) log p(r
j
/s
i
) por log1/p(r
j
/s
i
), pero esto complicara la nota-
cin.
Ahora, una vez que hemos podido calcular la cantidad de ruido asociada
una ocurrencia concreta s
i
de la fuente de entrada S, estamos en condiciones de
ofrecer una frmula para calcular el promedio de ruido N:

(6) N = p(s
1
) . N(s
1
) + p(s
2
) . N(s
2
) + p(s
3
) . N(s
3
) +...+ p(st) . N(s
t
)
=
i=1
t
p(s
i
) . N(s
i
).

Esta frmula nos indica que el promedio de ruido se obtiene de sumar
los resultados de multiplicar cada probabilidad de ocurrencia de los estados
individuales s
i
de la fuente S por la cantidad de ruido asociado a s
i
.
De manera anloga, para obtener la descripcin matemtica de la no-
cin de equivocidad, E, es necesario primero conocer la equivocidad asociada
a cada una de las ocurrencias r
j
de la fuente de salida R:

(7) E(r
j
) =
-

i=1
t
p(s
i
/r
j
) . log p(s
i
/r
j
),
(donde p(s
i
/r
j
) = [p(r
j
/s
i
) . p(s
i
)] / p(r
j
)).

La cantidad de equivocidad asociada a r
j
8
es la suma, multiplicada por
menos uno, de los resultados de multiplicar cada probabilidad condicional de
que se haya enviado como entrada cada smbolo s
i
de la fuente S siempre que
es recibido el signo fijo de salida r
j
, por el logaritmo en base dos de la misma.
De nuevo, como ya se hizo en la frmula nmero (5), el signo menos que
aparece precediendo al signo de sumatorio se justifica por razones de simpli-
ficacin en el clculo y la notacin, aunque podramos reescribir la frmula
(7) sin ese signo si sustituyramos log p(s
i
/r
j
) por log (1/p(s
i
/r
j
)).
Una vez conocida la equivocidad asociada a cada ocurrencia r
j
de la fuente
de salida R, estamos en disposicin de poder calcular el promedio de equivoci-
dad:

(8) E = p(r
1
) . E (r
1
) + p(r
2
) . E (r
2
) + p(r
3
) . E (r
3
) +...+ p(r
v
) . E (r
v
)
= p(r
j =1
v
j
) . E (r
j
).
Esta frmula nos indica que el promedio de equivocidad se obtiene de sumar
los resultados de multiplicar cada probabilidad de ocurrencia de los estados
individuales r
j
de la fuente R por la cantidad de equivocidad asociado a r
j
.

Teora matemtica de la comunicacin y... 85

III. RESTRICCIONES MATEMTICAS Y CONTENIDO INFORMACIONAL

Como ya hemos indicado anteriormente, el objetivo ltimo de la teora
matemtica de la comunicacin es el tratamiento de las cantidades medias de
informacin, distancindose totalmente de cualquier desarrollo de los aspec-
tos semnticos del contenido informacional de los mensajes individuales y
concretos de una fuente. La nica mirada dedicada a estos mensajes slo bus-
ca la contribucin numrica de la cantidad de informacin de los mismos a la
de la media.
En este sentido, cuando evaluamos los beneficios explicativos que nos
ofrece la teora matemtica de la comunicacin, podemos encontrar algunos
problemas que pueden hacernos pensar que de esta teora poco se puede
aprovechar para satisfacer nuestros intereses tericos centrados en el anlisis
semntico de la informacin. Por un lado, aparece un problema estrechamen-
te relacionado con el uso posible de esta teora: la grave dificultad que se pre-
senta cuando intentamos aplicar sus frmulas a situaciones concretas. En
estas situaciones cotidianas, a menudo es difcil conocer con exactitud la ma-
yora de los valores de la probabilidad que conforman las ecuaciones, lo que
hace casi imposible un clculo numrico adecuado de las cantidades de in-
formacin que intervienen. Pero aunque esta dificultad sea evidente, como
veremos ms adelante, debemos defender un uso adecuado de estas frmulas.
Si rechazamos el uso ambicioso de estas ecuaciones en su intento de encon-
trar valores numricos, podemos obtener un beneficio adecuado de las mis-
mas: podemos obtener comparaciones entre el valor de las cantidades de
informacin, y lo que es mejor, mediante el uso de estas frmulas, podemos
realizar juicios comparativos entre el valor de la cantidad de informacin ge-
nerada en la fuente y el valor de la recibida por el receptor. Y, por otro lado,
nos encontramos con el problema consistente en que las definiciones mate-
mticas derivadas de la teora matemtica de la comunicacin no son de gran
ayuda cuando intentamos descifrar el contenido semntico asociado a las se-
ales: nos dicen cunta informacin transporta una seal pero no qu infor-
macin es transportada. Y esa independencia entre el cunto y el qu queda
de manifiesto si contemplamos los casos en los que dos seales pueden trans-
portar la misma cantidad de informacin y sin embargo indicar contenidos in-
formativos totalmente distintos. En estos casos, la teora presentada por
Shannon, asignndoles el mismo valor numrico, no es capaz de discriminar
entre dos seales que claramente, desde un punto de vista semntico, son di-
ferentes. En definitiva, para satisfacer nuestros intereses explicativos referen-
tes a la informacin, debemos buscar una teora que sea capaz de discriminar
la informacin de que p de la informacin de que q aunque la informacin de
que p y la informacin de que q sean indistinguibles desde el punto de vista
de la cantidad de informacin. Y la teora matemtica de la comunicacin,
Mario Prez Gutirrez 86
claramente, no se encuentra preparada para recoger esta discriminacin.
Pero, si bien esto podra aparecer en un principio como un freno en el
acercamiento hacia la individualizacin del concepto de contenido informati-
vo, en el desarrollo de las frmulas que recogen los clculos de esta teora
aparecen una serie de restricciones que merecen nuestra atencin. Son res-
tricciones tiles: delimitan desde el mbito de lo numrico las definiciones
que intervienen en la propia teora. Son restricciones informacionales y co-
municacionales, que si bien no definen directamente la nocin de contenido
informativo, deben de ser tenidas en cuenta y respetadas a la hora de ofrecer
una definicin semntica satisfactoria de la nocin que estamos buscando.
Las principales restricciones que encontramos dentro de la teora mate-
mtica de la comunicacin afectan desde temas como el de la expresin del
valor mximo de la cantidad media de informacin de una fuente tambin
conocida como la entropa de la fuente hasta las que se han dado en llamar
restricciones comunicacionales de una fuente, pasando por las restricciones
que ataen a la longitud de los cdigos y por las que imponen los dos teore-
mas ms importantes recogidos en la obra de Shannon.
Estas restricciones pueden ser clasificadas en dos grandes grupos. Por
un lado se encontraran las restricciones que llamaremos informacionales. Es-
tas restricciones reciben este nombre porque limitan aspectos, como el de la
cantidad media mxima de informacin, que ataen exclusivamente a las
fuente cuando son tomadas en cuenta de manera aislada o independiente, sin
ser consideradas en relacin con otras fuentes. Por otro lado se encontraran
las restricciones que llamaremos comunicacionales: no operarn sobre las
fuentes consideradas de manera aislada, sino que lo harn sobre los aspectos
que conforman las relaciones matemticas que se producen entre las fuentes
que se encuentran en relacin comunicacional, es decir, entre aquellas fuentes
que se hallan relacionadas por el hecho de que circula flujo informativo entre
ellas. Este apartado intentar recoger estos dos grupos de restricciones y rea-
lizar una evaluacin de su importancia en relacin con la definicin de con-
tenido informativo.
Comenzaremos primero revisando algunas de las restricciones informa-
cionales, es decir, aquellas que restringen aspectos referidos a una fuente de
informacin considerada de manera aislada respecto al resto de las fuentes.
La primera de las restricciones informacionales hace referencia a la
cantidad mxima de informacin media que puede generar una fuente. Ima-
ginemos una fuente S de memoria nula
9
definida por su alfabeto S = {s
i
}, i =
1, 2, 3, ..., q, y sus probabilidades P(s
i
), i = 1, 2, 3, ..., q. En un principio po-
dramos pensar que la entropa (o cantidad media de informacin) asociada a
la fuente S puede alcanzar cualquier valor por elevado que nos parezca. Pero
esto no es as. Existe una restriccin que indica que la entropa mxima de S
no puede alcanzar un valor cualquiera, sino que ste tiene que cumplir la
condicin que viene expresada por la siguiente inecuacin:
Teora matemtica de la comunicacin y... 87

(a) Log q I(S).

Como vemos en la expresin (a), la cantidad media de informacin (o
entropa) generada por una fuente de memoria nula S es siempre menor o
igual al logaritmo del nmero de smbolos que forman el alfabeto de S (o
nmero de ocurrencias distintas de S). El valor mximo de la entropa de S se
alcanzar slo si todos los smbolos de la fuente son equiprobables, es decir,
si la probabilidad de cada s
i
que pertenece a S es igual a 1/q.
Pasemos ahora a la segunda de las restricciones informacionales. Esta
segunda restriccin har referencia al valor mnimo que puede tomar la longi-
tud media de las palabras de un cdigo instantneo. Pero antes de presentar la
restriccin en cuestin, introduzcamos primero las nociones de longitud me-
dia de un cdigo y la de cdigo instantneo.
La teora matemtica de la comunicacin dedica un especial inters al
tema de la codificacin de las fuentes. La bsqueda de cdigos con pequeas
longitudes medias esconde el objetivo de ahorrar tiempo y dinero en la tras-
misin de informacin. Podemos calcular la longitud media de un cdigo, L,
a partir de la siguiente definicin:

Definicin. Sea un cdigo que asocia los smbolos de una fuente s
1
, s
2
, ...,
s
q
con las palabras cdigo X
1
, X
2
, ..., X
q
(cada palabra cdigo X
i
est
formada por una secuencia finita de smbolos del alfabeto cdigo X =
{x
1
, x
2
, ..., x
r
}). Supongamos que las probabilidades de los smbolos de
la fuente son P
1
, P
2
, ..., P
q
y las longitudes de las palabras cdigo l
1
, l
2
, ...,
l
q
. Definiremos la longitud media del cdigo, L, por la ecuacin:

(9) L = l (s
i=1
q
i
) . p(s
i
).

A partir de una fuente S pueden construirse infinidad de cdigos. Pero
no todos estos cdigos cumplen las mismas propiedades. Atendiendo a las
distintas caractersticas o propiedades que pueden respetar o satisfacer los
cdigos es posible definir distintos tipos o categoras de cdigos. Una de es-
tas categoras es la de cdigo instantneo. Para que un cdigo pueda ser con-
siderado como instantneo debe cumplir las siguientes caractersticas: ser un
cdigo bloque, no singular y unvoco. Podemos introducir la nocin de cdi-
go instantneo a partir de la siguiente definicin:

Definicin. Un cdigo es instantneo si y slo si cumple las siguientes carac-
tersticas:

. Es un cdigo. Sea S = {s
1
, s
2
, ...,s
q
} el conjunto de smbolos de una
Mario Prez Gutirrez 88
fuente. Podemos hablar de un cdigo de la fuente S cuando exista una
correspondencia de todas las secuencias posibles de los smbolos de la
fuente S con secuencias de smbolos de algn otro alfabeto X = { x
1
, x
2
, ...,
x
r
}. (Definicin de cdigo.)
. Es un cdigo bloque. Un cdigo es bloque cuando cada palabra cdi-
go X
i
que se corresponde con el smbolo s
i
de la fuente est formada por
una secuencia fija de x
j
del alfabeto cdigo X = {x
1
, x
2
, ..., x
r
}. (Defini-
cin de cdigo bloque.)
. Es un cdigo bloque no singular. Un cdigo bloque es no singular
cuando todas las palabras cdigo X
i

son distintas. (Definicin de cdigo
no singular.)
. Es un cdigo unvoco. Un cdigo es unvoco si y slo si para cuales-
quiera dos secuencias (de la misma o distinta longitud) de smbolos de
la fuente no corresponde una misma secuencia de smbolos del alfabeto
cdigo. (Definicin de cdigo unvoco.
10
)
. Es un cdigo instantneo. Un cdigo es instantneo cuando es posible
decodificar (identificarla con uno, y slo uno, smbolo s
i
de la fuente)
todas las palabras cdigo X
i
de una secuencia de stas sin precisar el
conocimiento de los smbolos que le suceden. (Definicin de cdigo
instantneo
11
.)

Una vez introducida la nocin de cdigo instantneo y la frmula para
calcular el valor medio de la longitud de un cdigo, L, ya podemos presentar la
segunda de las restricciones informacionales. Como indicamos anteriormente,
la longitud media de las palabras de un cdigo era un buen criterio para disear
o elegir un cdigo que nos permitiese ahorrar tiempo y dinero a la hora de
transmitir informacin. En un principio, y slo atendiendo a la definicin de
cdigo instantneo, podramos pensar que es posible la construccin de un
cdigo de estas caractersticas cuyas palabras tuviesen una longitud media tan
corta como desesemos. Pero esto no es posible. En este punto nos encontra-
mos con una restriccin que nos indica la existencia de un valor mnimo en la
longitud media de sus palabras cdigo. Esta restriccin puede ser expresada
mediante la siguiente inecuacin:

(b) I(S) L . log r
o bien,
I(S)
r


L
12
.

Esta inecuacin nos indica que el valor mnimo de la longitud media L
de un cdigo instantneo es siempre mayor o igual que el valor obtenido al
dividir la cantidad media de informacin que genera la fuente S de memoria
nula que est codificada, I(S), por el logaritmo en base dos del nmero de
Teora matemtica de la comunicacin y... 89
smbolos que constituye el alfabeto cdigo X = {x
1
, x
2
, ..., x
r
}. El valor m-
nimo de L se alcanzar si, y slo si, la longitud de cada palabra cdigo X
i
, l
i
,
es igual a log
r
(1/p(s
i
)).
Introducida la restriccin (b) debemos destacar dos cosas que no pue-
den pasar desapercibidas. Por un lado, debemos tener en cuenta que la res-
triccin slo afecta a la longitud de las palabras de un cdigo pero no a las
palabras mismas que lo componen. En concreto, la inecuacin (b) slo nos es
til para averiguar si un cdigo esta formado o no por palabras cuya longitud
media es la adecuada para constituir un cdigo instantneo. Esto significa que
puede darse el caso de que un cdigo satisfaga la restriccin en cuestin es
decir, que la longitud de sus palabras sea la adecuada para que pueda consi-
derarse como instantneo, pero que no sea realmente un cdigo instantneo
porque no satisfaga alguna de las condiciones de la definicin de cdigo ins-
tantneo. Por tanto, la restriccin (b) debe ser utilizada en su justa medida:
aunque un cdigo la satisfaga no podemos concluir sin ms que ste sea ins-
tantneo, debemos atender, adems de a la longitud media de sus palabras, a
otras caracteristicas de las mismas; en cambio, cuando un cdigo no satisfaga
los expuesto en la inecuacin (b) podremos afirmar rotundamente que ese c-
digo no es instantneo. ste es el valor indirecto de la restriccin: no nos sir-
ve para decidir si las palabras que se desprenden de un alfabeto constituyen
realmente un cdigo instantneo, ni nos indica el modo en el que podemos
construir un cdigo de estas caractersticas, pero s que nos es til para saber
si las longitudes de las palabras que se desprenden de un cdigo son aptas o
no para formar un cdigo instantneo. Por otro lado, debemos sealar que la
relacin expresada por la inecuacin (b) pone en contacto la definicin de
cantidad media informacin, I(S), con una cantidad (en este caso L) que no
depende de esta propia definicin. La inecuacin (b) nos muestra que existe
una relacin entre lo que la teora matemtica de la comunicacin entiende
por cantidad media de informacin y lo que la teora de la codificacin en-
tiende por longitud media de las palabras de un cdigo instantneo. De esta
manera puede verse en (b) una justificacin de la definicin de cantidad de
informacin al margen de la estructura interna de la teora matemtica de la
comunicacin.
Adems, la restriccin expresada en (b) nos sirve, a modo de test, para
decidir si un cdigo posee las caractersticas necesarias en cuanto a la longi-
tud media de sus palabras para ser considerado posteriormente, cuando se
analicen otras propiedades de esas palabras, como cdigo instantneo. Pero
para decidir esto tambin existe otro camino. Para detectar si un cdigo posee
unas palabras dotadas de una longitud adecuada para formar un cdigo ins-
tantneo podemos utilizar lo que se conoce como la inecuacin de Kraft
[Kraft (1949)]:

Definicin. La condicin necesaria y suficiente para la existencia de un
Mario Prez Gutirrez 90
cdigo instantneo de longitudes l
1
, l
2
, ..., l
q
es que:
i=1
q
r-
l
i
1
(donde r es el nmero de smbolos diferentes que constituyen el alfabeto
cdigo).

Esta inecuacin, al igual que la contenida en (b), posee un poder restricti-
vo que afecta exclusivamente a la longitud de las palabras de un cdigo. De es-
ta forma, si un cdigo determinado llammosle A, por ejemplo satisface
la inecuacin de Kraft, si la suma de los resultados de elevar el nmero de sm-
bolos diferentes de su alfabeto cdigo al valor tomado con signo negativo
de cada una de las longitudes de sus palabras cdigo es menor o igual a uno,
entonces existe un cdigo instantneo formado por palabras de la misma longi-
tud que las que constituyen el cdigo A, aunque no se asegura que ese cdigo
instantneo coincida con A. De nuevo, y como suceda con (b), el hecho de
que un cdigo satisfaga la inecuacin de Kraft no es suficiente para poder
concluir que ste es instantneo (o que no lo es), a no ser, claro est, que aten-
damos a otros criterios ajenos a la propia inecuacin. En cambio, si un cdigo
no satisface esta inecuacin podemos asegurar que ste no ser instantneo.
De esta manera, tanto la inecuacin (b) como la inecuacin de Kraft se
nos presentan como buenos procedimientos para decidir si un cdigo concre-
to de una fuente de memoria nula est formado o no por palabras cuya longi-
tud es la adecuada para constituir un cdigo instantneo. Pero, si bien ambas
inecuaciones nos pueden indicar si es o no posible fabricar un cdigo instan-
tneo con esas propiedades, stas no nos dicen cmo debemos disearlo. ste
es el papel de estas dos restricciones: no nos aportan mtodos para construir
cdigos instantneos pero s que nos permiten decidir si uno que ya est
construido satisface o no algunas de las caractersticas aquellas que se en-
cuentran relacionadas con la longitud de las palabras ejemplificadas por los
cdigos instantneos.
Pasemos ahora a la tercera y ltima de las restricciones informacionales
que trataremos aqu: el primer teorema de Shannon
13
. Este teorema tambin es
conocido como el teorema de la codificacin sin ruido y hace referencia a la
restriccin del valor mnimo y mximo del nmero medio de smbolos r-arios
que puede tener un cdigo compacto de una fuente de memoria nula. Pero an-
tes de presentar la restriccin introduzcamos la definicin de cdigo compac-
to:

Definicin: Consideremos un cdigo unvoco (cdigo que satisface las
condiciones (), (), () y () de la definicin de cdigo instantneo)
que asocia los smbolos de una fuente S con palabras formadas por
smbolos de un alfabeto r-ario. Este cdigo ser compacto (relativo a S)
Teora matemtica de la comunicacin y... 91
si su longitud media es igual o menor que la longitud media de todos los
cdigos unvocos que pueden aplicarse a la misma fuente y al mismo alfa-
beto.

Una vez introducida la nocin de cdigo compacto ya podemos plantear
la tercera de las restricciones informacionales. Como ya vimos anteriormente,
la longitud media de las palabras de un cdigo era un buen criterio para dise-
ar o elegir un cdigo que nos permitiese ahorrar tiempo y dinero a la hora de
transmitir informacin. En este sentido, como se desprende de la definicin,
puede resultar interesante la bsqueda de cdigos compactos, al ser stos los
cdigos unvocos de menor longitud media. En un principio, y slo atendien-
do a la definicin de cdigo compacto, podramos pensar que es posible la
construccin de un cdigo de estas caractersticas cuyas palabras tuviesen
una longitud media tan corta como desesemos. Pero esto no es posible. En
este punto nos encontramos con una restriccin que nos indica la existencia
de un valor mnimo y un valor mximo en la longitud media de sus palabras
cdigo. Esta restriccin puede ser expresada mediante la siguiente inecua-
cin:

(c) I(S)
r
= L < I(S)
r
+ 1
14
.

Esta inecuacin indica que el valor mnimo y mximo del nmero me-
dio de binits (o dgitos) por mensaje de un cdigo compacto de una fuente S
de memoria nula se encuentra entre el valor de la cantidad media de informa-
cin expresada en unidades de orden r (donde r es el nmero de smbolos que
contiene el alfabeto cdigo X = {x
1
, x
2
, ..., x
r
}) generada por la fuente S y es-
te valor ms uno.
No debemos confundir la restriccin expresada en (b) con la referida en
(c). Mientras que (b) nos ofrece una restriccin que tienen que cumplir los
cdigos de una fuente de memoria nula para poder considerar que stos se
encuentran formados por palabras cuya longitud es la adecuada para consti-
tuir un cdigo instantneo, la inecuacin (c) nos ofrece otras cosas distintas.
Por un lado, nos dice que podemos encontrar siempre un cdigo compacto (no
tiene por que ser instantneo) a partir de un alfabeto cdigo X = {x
1
, x
2
, ..., x
r
}
para una fuente S de memoria nula con una longitud media L tan pequea co-
mo queramos pero nunca inferior a la cantidad media de informacin generada
por S expresada en unidades r, (r es el nmero de smbolos que contiene el al-
fabeto del cdigo). Y, por otro lado, y quiz ms importante, nos permite es-
tablecer una relacin entre la medida de la informacin y las propiedades de
sus fuentes: la entropa de una fuente (expresada en unidades adecuadas
unidades de orden r) define el valor mnimo del nmero medio de smbolos
necesarios para codificar de manera compacta cada ocurrencia o smbolo de la
fuente S. De esta manera el teorema nos ofrece una unidad comn con la que
Mario Prez Gutirrez 92
se puede medir cualquier fuente de informacin: el valor informativo de un
smbolo de la fuente S puede definirse en trminos del nmero equivalente de
dgitos r-arios necesarios para representarlo de forma compacta.
Hasta aqu llegara la exposicin de las restricciones informacionales.
Pasemos ahora a dar cuenta de las restricciones comunicacionales. Como ya
indicbamos, estas restricciones comunicacionales afectan a aspectos mate-
mticos implicados en la transmisin de informacin que se produce entre las
fuentes, es decir, restringen aspectos que conforman el intercambio de flujo
informativo entre las fuentes.
La primera de las restricciones comunicacionales que trataremos es la
conocida por el nombre de el segundo teorema de Shannon
15
. Si el primer
teorema de Shannon se dedicaba al tratamiento de la informacin generada
por una fuente, el segundo se centra en el tema de la transmisin y los canales
de informacin. El objetivo de este segundo teorema de Shannon es definir
los lmites que un canal no confiable ofrece a la transmisin de mensajes sin
error. Esta restriccin afectar al nmero de palabras que se pueden transmitir
por un canal con una probabilidad de error cercana a cero. Concretamente, el
teorema indica lo siguiente:

(d) Se puede seleccionar al azar un cierto nmero de palabras de longi-
tud n para ser trasmitidas por un canal de capacidad C y con una proba-
bilidad de error tan pequea como se quiera, siempre que el nmero de
palabras sea inferior a 2
nc
.

El teorema define que siempre es posible disear un cdigo que permita
que cierta cantidad de informacin sin error, la comprendida en un nmero de
palabras inferior a 2
nc
, pueda ser obtenida de un canal. Pero no debemos es-
perar que el teorema nos muestre el camino o nos seale directamente cul es
ese cdigo. De nuevo, y como en las restricciones anteriores, se nos est indi-
cando cmo las cosas no pueden ser, pero no se nos ofrece un camino directo
para encontrar cmo las cosas son.
Abandonemos ahora la restriccin impuesta por el segundo teorema de
Shannon y pasemos a la presentacin de las dos ltimas de las restricciones
comunicacionales. Estas restricciones vendrn impuestas desde la propia teo-
ra matemtica de la comunicacin pero afectarn a la definicin de algo que
se escapa a dicha teora: la nocin de contenido informativo. Sobre estas res-
tricciones comunicacionales se centrar nuestro inters a partir de este punto.
Pero comencemos recapitulando.
Nuestro objetivo inicial era la bsqueda de las restricciones que pudiesen
afectar a la definicin de contenido informativo de un mensaje concreto. Si
nuestro objetivo es ste, no tenemos que dejarnos arrastrar, como hace la teora
matemtica de la comunicacin, por la necesidad de trabajar con cantidades
medias de informacin en la bsqueda de aislar las condiciones que puedan
Teora matemtica de la comunicacin y... 93
ampliar al mximo el ndice de comunicacin. A lo que s tenemos que atender
es a las cantidades de informacin contenidas en los mensajes individuales.
Si algo averiguaremos sobre el contenido informacional de un mensaje
no ser a partir de la cantidad media de informacin de una fuente, sino a par-
tir de la cantidad de informacin de un mensaje de la fuente: es difcil (por no
decir imposible) pensar sobre el contenido informacional medio de una fuen-
te, mientras que nos parece lcito hacerlo sobre el contenido informacional de
un mensaje. Estas cantidades referidas a mensajes podrn sernos tiles a la
hora de imponer restricciones tcnicas a los aspectos semnticos de la infor-
macin. Por esta razn, no debemos perder de vista las definiciones ya intro-
ducidas (frmulas (1), (5), y (7)), ni las versiones de las frmulas (3) y (4)
para las ocurrencias de las fuentes de entrada S y de salida R que ofrecemos
ahora:

(3) I
si
(r
j
) = I(r
j
) - N(s
i
),
(4) I
si
(r
j
) = I(s
i
) - E(r
j
).

Pero, como ya adelantbamos, la imposibilidad de aplicar estas defini-
ciones en situaciones reales, debido, sobre todo, a la dificultad de conocer en
los casos prcticos las probabilidades implicadas en las frmulas (3) y (4),
no nos permite, en la mayora de los contextos, obtener un clculo absoluto
de la cantidad de informacin asociada a un mensaje concreto. A menudo, en
las situaciones reales donde se produce un flujo de informacin mediante
acaecimientos concretos, solemos desconocer el valor de algunos de los pa-
rmetros que intervienen en las frmulas anteriores. Este hecho nos impide
sacar todo el provecho deseado de las definiciones matemticas.
Pero esta limitacin no nos debe impedir valorar los aspectos positivos
de la teora de la comunicacin. sta nos permite comparar, aunque no sea en
valores absolutos, la informacin de dos mensajes distintos. Por ejemplo, to-
memos los siguientes mensajes:

(i) Regresar el da de Navidad.
(ii) Regresar en el mes de diciembre.

Por la frmula nmero uno, I(s
1
) = log 1/p(s
1
), podemos concluir algo
compatible con nuestras intuiciones: el primer mensaje lleva mucha ms in-
formacin que el segundo. Esto es as porque la probabilidad de que yo re-
grese el da de Navidad es menor que la de que yo regrese cualquier da del
mes de diciembre, y como la cantidad de informacin asociada a un mensaje
es el logaritmo de la inversa de su probabilidad: I(i) ser mayor que I(ii).
Pero, adems de querer establecer relaciones comparativas entre las
cantidades de informacin generadas por ocurrencias particulares s
i
, quere-
mos comprobar qu provecho nos ofrecen esas relaciones cuando se hacen in-
Mario Prez Gutirrez 94
tervenir en situaciones en las que existe una transmisin de informacin. En
esas situaciones con flujo informacional, la cantidad de informacin que ms
nos interesa es la que describe la informacin mutua entre mensajes, I
si
(r
j
).
Pero esta medida de informacin tiene alguna consecuencia o restringe de
alguna manera una posible nocin de contenido informacional? En un princi-
pio parece que s. Si alguna cantidad de informacin est relacionada en al-
gn sentido con la de contenido informacional de un mensaje concreto, sta
debe ser la cantidad de informacin que lleva un mensaje sobre aquello que
informa, I
si
(r
j
)
16
.
Como ya indicamos anteriormente, I
si
(r
j
) representa la cantidad de in-
formacin que se transporta en el flujo informativo entre las ocurrencias s
i
y
r
j
. Pero este flujo no consiste en una mera correlacin aleatoria entre ocurren-
cias de una fuente de entrada S y otra de salida R. El flujo informativo se en-
cuentra regulado por lo que Drestke denomina el principio de la copia:

Si A lleva la informacin de que B, y B de que C, entonces A lleva la
informacin de que C [Dretske (1981), p. 57].

Este principio indica que no se pierde informacin al reproducir algo
que ya contena informacin. Este principio se justifica por la idea de que, si
no fuese de esta manera en las largas cadenas informacionales en las que de
un eslabn a otro se va perdiendo informacin, llegara un momento en el que
se transmitira tan poca informacin (o ninguna) que sera muy dudoso hablar
de que all existe una verdadera cadena con flujo informativo (con transmisin
de informacin) ms all de la pura correlacin aleatoria entre acaecimientos.
Apoyndonos en esta idea, podemos introducir las restricciones comu-
nicacionales que, desde la teora matemtica de la comunicacin, se derivan
de la frmula I
si
(r
j
). Estas restriccines afectan de un modo ms directo a la
posible definicin de contenido informativo imponiendo el cumplimiento de
dos condiciones para poder hablar de la existencia de flujo informativo entre
una ocurrencia r
j
de la fuente de salida R y una ocurrencia s
i
de la fuente de
salida S:

(e) Si la ocurrencia r
j
de la fuente de salida R lleva la informacin de
que s
i
, entonces r
j
lleva tanta informacin sobre la ocurrencia s
i
de la
fuente de entrada S como la generada por esa misma ocurrencia s
i
.

(f) Si la ocurrencia r
j
de la fuente de salida R lleva la informacin de
que s
i
, entonces la cantidad de informacin que genera la ocurrencia r
j

es igual o superior a la cantidad de informacin que r
j
lleva sobre la
ocurrencia s
i
.

La restriccin comunicacional (e) nos indica que una seal r
j
de la fuen-
Teora matemtica de la comunicacin y... 95
te de salida R, si quiere informar de que s
i
, slo puede llevar una cantidad de
informacin determinada, I
si
(r
j
), sobre la ocurrencia s
i
de la fuente de entrada
S. Concretamente, la cantidad de informacin que una seal de salida r
j
debe
llevar sobre una ocurrencia si de la entrada debe ser al menos la misma que la
que se genera por la ocurrencia de s
i
. Es decir: I
si
(r
j
) I(s
i
). Y, como se des-
prende de la frmula (4), esto significa que la equivocidad asociada a r
j

tiene
que ser igual a cero
17
.Si esta condicin no se cumple, si la equivocidad aso-
ciada a r
j
es distinta de cero, entonces podemos afirmar que r
j
no lleva la in-
formacin de que, en la fuente de entrada S, ocurre s
i
. Adems, la restriccin
(e) viene a reforzar la idea contenida en el principio de la copia: si una ocu-
rrencia r
j
de la fuente de salida R lleva la informacin que se ha producido
una ocurrencia s
i
de la fuente de salida S, esta ocurrencia (r
j
) tiene que con-
servar al menos la informacin generada por el hecho de la ocurrencia de s
i
.
Si esta condicin no se cumple, entonces podemos afirmar que r
j
no lleva la
informacin de que s
i
.
La restriccin comunicacional (f), en cambio, nos indica que una seal
r
j
de la fuente de salida R s
i
quiere informar de que si, slo puede llevar una
cantidad de informacin determinada, I
si
(r
j
), sobre la ocurrencia s
i
de la fuen-
te de entrada S. Concretamente, la cantidad de informacin que una seal de
salida r
j
debe llevar sobre una ocurrencia s
i
de la entrada debe ser menor o
igual a la que se genera por la ocurrencia de r
j
. Es decir: I
si
(r
j
) I(rj). Esto
significa que la cantidad de informacin que genera una ocurrencia r
j
de una
fuente de salida R supone el lmite superior de la cantidad de informacin que
r
j
puede llevar sobre la fuente de entrada S. Si esta condicin no se cumple, si
I
si
(r
j
) > I(r
j
), entonces podemos afirmar que r
j
no lleva la informacin de que,
en la fuente de entrada S, ocurre s
i
18
.

Estas dos restricciones comunicacionales (e) y (f) nos ofrecen las
cantidades lmites de informacin que se pueden transmitir en una situacin
donde exista una circulacin de flujo informativo. La restriccin (e) presenta una
especial peculiaridad al ofrecernos no slo el lmite inferior de la cantidad de
informacin que debe transportar una seal r
j
sobre la fuente concretamente
I(s
i
) para poder hablar de que esta seal transporta la informacin de que s
i
,
sino tambin una condicin ms exacta la de que la equivocidad asociada a r
j

sea igual a cero para la existencia de ese flujo. Esta caracterstica particular de
la restriccin (e) contrasta con el comportamiento de la restriccin (f): esta
ltima no nos ofrece ninguna condicin exacta que deba cumplirse para poder
hablar de la existencia de flujo informativo, no nos indica a qu valor debe ser
igual alguna de las magnitudes informativas implicadas cuando se transmite
informacin, slo nos ofrece el lmite superior de la cantidad de informacin
que puede transportar una seal r
j
sobre la fuente concretamente I(r
j
) para
poder hablar de que esta seal transporta la informacin de que s
i
.
De esta manera, la teora matemtica de la comunicacin nos ofrece dos
restricciones comunicacionales ((e) y (f)) que deben ser respetadas por toda
Mario Prez Gutirrez 96
teora que tenga por objeto de conocimiento el contenido informativo: nos
indica qu tipo de mensajes son los adecuados para transmitir un contenido
informacional determinado, o, incluso, qu tipo de contenido informativo
puede ser transmitido.
Finalicemos este artculo recapitulando las ideas que aqu se han pre-
sentado. Como hemos podido observar a lo largo de todo este trabajo, la teo-
ra matemtica de la comunicacin nos ha presentado una serie de
restricciones que deben ser tenidas en cuenta a la hora de formular una se-
mntica del contenido informativo. Ya no podemos hablar de que una teora
semntica de la informacin es satisfactoria si sta no respeta las restricciones
anteriormente expuestas. Por un lado, debe respetar los aspectos que las res-
tricciones informacionales nos han ofrecido: el valor mximo de la cantidad
media de informacin de una fuente S de memoria nula, la longitud media
mnima de las palabras de un cdigo instantneo, o la longitud media mnima
de las palabras de un cdigo compacto. Esta ltima restriccin nos permite
introducir una definicin de cantidad media de informacin que puede ser
puesta en relacin con algo, L, que no depende de la propia nocin de canti-
dad, y nos permite identificar esa nocin de cantidad media con el nmero
mnimo de dgitos necesarios para poder representar de manera compacta ca-
da ocurrencia de una fuente, obtenindose tambin, de esta manera, una uni-
dad para medir todas las fuentes de informacin. Y, por otro lado, debe
respetar las condiciones impuestas por lo que aqu hemos presentado con el
nombre de restricciones comunicacionales: los lmites que un canal no con-
fiable ofrece a la transmisin de mensajes sin error, o la cantidad de informa-
cin (la mnima y la mxima) que debe transportar una ocurrencia sobre otra
para poder hablar de que entre las dos existe un flujo informativo.
Pero todas estas restricciones, tanto las informacionales como las co-
municacionales, no nos aportan directamente nada en concreto para poder en-
contrar una definicin satisfactoria de contenido informativo. Slo nos
ofrecen condiciones que deben satisfacer y tener en cuenta todos los candida-
tos que propongamos como teora semntica de la informacin. Pero esto no
es poco: la teora presentada por Shannon, con sus restricciones informacio-
nales y comunicacionales, nos ofrece un primer paso, aunque sea indirecto
por restrictivo, hacia una teora del contenido informativo.
En definitiva, la teora matemtica de la comunicacin no nos ofrece
una definicin positiva de la nocin que nos preocupa, ni tan siquiera nos ga-
rantiza que sta pueda existir, pero lo que s hace es evitar que circulemos por
vas muertas que no llevan a ninguna parte, indicndonos qu camino es ra-
zonable seguir. Las restricciones matemticas son una buena ayuda para di-
sear una teora semntica satisfactoria de la informacin, pero para este
viaje tambin se necesitan otras alforjas.

Departamento de Lgica y Filosofa de la Ciencia
Teora matemtica de la comunicacin y... 97
Universidad Complutense de Madrid
Ciudad Universitaria, E-28071, Madrid
E-mail: mperez@eucmos.sim.ucm.es


NOTAS

1
Una primera versin de algunas de las ideas contenidas en este trabajo fue pre-
sentada en el X Congreso de Lenguajes Naturales y Lenguajes Formales (Sevilla, sep-
tiembre de 1994). He de agradecer sinceramente los comentarios y consejos de
Ramon Cirera y Manuel Campos que me han servido para mejorar los sucesivos bo-
rradores de este trabajo y evitar muchos errores e incorrecciones.
2
Una exposicin detallada de la historia de las propuestas matemticas que han
intentado dar cuenta de la informacin puede encontrarse en Cherry (1951), (1952).
3
A lo largo de este artculo se utilizar log n como expresin del logaritmo en
base dos de n. Al utilizar el logaritmo en base dos las cantidades de informacin apa-
recen en bits ya que un bit es la cantidad de informacin obtenida al especificar dos
posibles alternativas igualmente probables. Pero tambin podemos ofrecer estas canti-
dades de informacin en otras unidades. La eleccin de la base del logaritmo equivale
a la eleccin de una determinada unidad: Base dos: I(s
i
) = log
2
1/p(s
i
) bits; Base natu-
ral: I(s
i
) = l
n
1/p(s
i
) nats; Base 10: I(s
i
) = log
10
1/p(s
i
) hartleys. Y en general, en base r:
I(s
i
) = logr 1/p(s
i
) unidades de orden r. Para pasar de una unidad a otra se puede hacer
uso de la igualdad: log
a
x = (1/log
b
a) . log
b
x.
4
Aunque en este artculo se ofrezca la cantidad media de informacin en bits, es
sencillo obtener esta misma cantidad en cualquier otra unidad. Slo se tiene que apli-
car la siguiente igualdad: I(S)
r
= I(S) / log
2
r; (donde I(S)
r
es la cantidad media de in-
formacin de la fuente S en unidades de orden r).
5
Esta definicin es aplicable slo a lo que se considera un canal de informacin
de memoria nula, es decir, a aquellos canales donde la probabilidad de una salida r
j

depende exclusivamente de una sola entrada s
i
. Aunque aqu no se utilice es posible
establecer una definicin adecuada para canales con memoria no nula donde la proba-
bilidad de cada una de sus salidas puede depender de ms de un smbolo de entrada o
incluso de otros smbolos de salida.
6
Teniendo en cuenta que el ruido es la informacin existente en la fuente de sa-
lida R pero que no ha sido generada en la fuente de entrada S, cabra esperar que el
ruido individual se encontrase asociado a las ocurrencias r
j
de la fuente de salida R y
no a las ocurrencias s
i
de la fuente de entrada S como muestra la frmula (5). Pero, si
nos detenemos a pensar, tiene sentido que el ruido individual se asocie con las ocu-
rrencias s
i
de la fuente de entrada en lugar de con las ocurrencias r
j
de la fuente de sa-
lida: si la fuente de salida R es altamente ruidosa con respecto a la fuente entrada S, la
ocurrencia s
i
tendr, en cantidades medias, muy poca influencia, en trminos informa-
tivos, sobre la fuente R; y, por el contrario, si la fuente R es muy poco ruidosa respec-
to a la fuente S, la ocurrencia s
i
tendr, en cantidades medias, bastante influencia, en
trminos informacionales, sobre la fuente R. Por tanto, podemos calcular el ruido de R
con respecto de S calculando en qu medida, en cantidades medias, las ocurrencias de
R son influenciadas, en trminos informativos, por la ocurrencia s
i
: si R se encuentra,
en cantidades medias, muy influenciada, en trminos informativos, por las ocurren-
Mario Prez Gutirrez 98
cias s
i
, debemos considerar que R es muy poco ruidosa respecto a S; y, por el con-
trario, si R se encuentra, en cantidades medias, muy poco influenciada, en trminos
informativos, por las ocurrencias s
i
, debemos concluir que R es muy ruidosa respec-
to a S.
7
El logaritmo empleado es en base dos debido a que, como ya se indic ante-
riormente, en este artculo se ofrecen las cantidades de informacin utilizando como
unidad el bit.
8
Al igual que ocurra con la nocin de ruido, teniendo en cuenta que la equivo-
cidad es la informacin generada en la fuente de entrada S pero no transmitida a la
fuente de salida R, cabra esperar que la equivocidad individual se encontrase asocia-
da a las ocurrencias s
i
de la fuente de entrada S y no a las ocurrencias r
j
de la fuente de
salida R como muestra la frmula (7). Pero si nos detenemos a pensar, tiene sentido
que la equivocidad individual se asocie con las ocurrencias r
j
de la fuente de salida en
lugar de con las ocurrencias s
i
de la fuente de entrada: si la fuente de entrada S es al-
tamente equvoca con respecto a la fuente de salida R, la ocurrencia r
j
nos dir, en
cantidades medias, muy poco sobre la fuente S; y, por el contrario, si la fuente S es
muy poco equvoca respecto a la fuente S, la ocurrencia r
j
nos dir, en cantidades me-
dias, bastante sobre la fuente S. Por tanto, podemos calcular la equivocacin de S con
respecto de R calculando cunto nos dice r
j
, en cantidades medias, sobre las ocurren-
cias de S: si los r
j
nos dicen, en cantidades medias, mucho sobre S, debemos conside-
rar que S es muy poco equvoca respecto a R; y, por el contrario, si los r
j
no nos dicen,
en cantidades medias, mucho o no nos dicen nada sobre S, podemos concluir que S es
altamente equvoca respecto a R.
9
Por fuente de memoria nula debemos entender todas aquellas fuentes S que
cumplen las siguientes condiciones: el alfabeto de S, {s
1
, s
2
, s
3
, ... s
q
}, es un conjunto
fijo y finito; y las probabilidades de las ocurrencias de S responden a una ley fija y
son estadsticamente independientes.
10
De modo equivalente tambin es posible introducir la nocin de cdigo un-
voco de la siguiente manera: un cdigo es unvoco si y slo si su extensin de orden n
es no singular para cualquier valor finito de n.
11
En teora de la codificacin, la definicin de cdigo instantneo tambin pue-
de introducirse de la siguiente manera. Sea Xi = x
i1
, x
i2
, ... x
im
una palabra de un cdi-
go. Se denomina prefijo de esta palabra a toda secuencia de smbolos (x
i1
, x
i2
, ... x
ij
)
donde j m. As, la condicin suficiente y necesaria para que un cdigo sea instant-
neo es que ninguna palabra del cdigo coincida con el prefijo de otra.
12
La segunda inecuacin se introduce apoyndonos en la igualdad presentada
en la nota nmero 4.
13
Una demostracin elegante de este teorema puede encontrarse en Abramsom
(1963), captulo cuarto.
14
Esta inecuacin no se corresponde exactamente con el primer teorema de
Shannon, aunque es fcilmente deducible de ste. Mientras que la inecuacin (c) hace
referencia al valor mximo y mnimo del nmero medio de smbolos r-arios que pue-
de tener un cdigo compacto de una fuente de informacin de memoria nula, el primer
teorema de Shannon es una generalizacin de esta inecuacin que puede aplicar tam-
bin la misma condicin a los cdigos de toda extensin de orden n de la fuente origi-
nal. La ecuacin original con la que se conoce el primer teorema de Shannon es: I(S)
r

L
n
/n < I(S)
r
+ 1/n (donde n es el orden de la extensin de la fuente original, y l
n
la
Teora matemtica de la comunicacin y... 99
longitud media de las palabras correspondientes a los smbolos de la extensin de or-
den n de la fuente).
15
Puede encontrarse una demostracin de este teorema, por ejemplo, en Abram-
som (1963); Blackwell, Breiman y Thomasian (1958); Feinstein (1958), y Fano (1961).
16
Las principales propiedades de esta magnitud informativa podran resumirse
de la siguiente manera: (i) I
si
(r
j
) es independiente de lo que el receptor de r
j
crea acer-
ca del contenido informacional de r
j
, (ii); I
si
(r
j
) depende de I(s
i
) y E(r
j
), y por tanto de
las probabilidades condicionales existentes entre s
i
y r
j
(frmula 4), (iii) I
si
(r
j
) es in-
dependiente de la posible o no verificacin de las probabilidades condicionales entre
s
i
y r
j
, y (iv) I
si
(r
j
) es independiente del grado de comprensin que muestre el receptor
cuando recibe un mensaje.
17
Si I
si
(r
j
) = I(s
i
) - E(r
j
) y I
si
(r
j
) I(s
i
), entonces necesariamente E(r
j
) debe ser
igual a cero.
18
Es posible extraer una nueva restriccin comunicativa a partir de la combina-
cin de (e) y (f): si la ocurrencia r
j
de la fuente de salida R lleva la informacin de que
s
i
, entonces I(s
i
) Isi(r
j
) y Isi(r
j
) I(r
j
), y, por tanto I(s
i
) I(r
j
).


REFERENCIAS BIBLIOGRFICAS

ABRAMSOM, N. (1963), Information Theory and Coding, Nueva York, McGraw-Hill
Book Company.
BLACKWELL, L., BREIMAN, A. y THOMASIAN, A. J. (1958), Proof of Shannons
Transmission Theorem for Finite-state Indecomposable Channels, Ann. Math.
Statist., vol. 29 n
o
4, pp. 235-65.
CHERRY, E. C. (1951), A History of the Theory of Information, en Proceedings of
the Institute of Electrical Engineers, vol. 90, pp. 383-93.
(1952), The Communication of Information. An Historical Review, en American
Scientist, vol. 40, pp. 640-64.
DRETSKE, F. I. (1981), Knowledge and the Flow of Information, Cambridge, Mass.,
The MIT Press/Bradford. Books.
FANO, R. (1961), Transmission of Information. Nueva York, John Wiley & Sons, Inc.
FEINSTEIN, A. (1958), Foundations of Information Theory, Nueva York, Mc Graw-
Hill Book Company.
HARTLEY, R. V. L. (1928), Transmission of Information, en Bell System Technical
Journal, vol. 7, pp. 535-63.
KRAFT, L. G. (1949), A Device for Quantizing, Groupimg, and Coding Amplitude
Modulated Pulses, Tesis doctoral para el Electrical Engineering Department,
Massachusetts Institute of Technology.
NYQUIST, H. (1924), Certain Factors Affecting Telegraph Speed, en Bell System
Technical Journal, vol. 3, p. 324.
SHANNON, C. (1948), A Mathematical Theory of Communication, en Bell System
Technical Journal, vol. 27, pp. 379-423, 623-56.
SHANNON, C. y WEAVER, W. (1949), The Mathematical Theory of Communication,
Urbana, University of Illinois Press.


Mario Prez Gutirrez 100