Sie sind auf Seite 1von 24

PRINCIPIOS DE LA TRANSMISION DE

INFORMACION
DEFINICION DE COMUNICACION
Se puede definir la comunicacin como el proceso mediante el cual se
transfiere informacin desde un punto en el espacio y en el tiempo,
denominado fuente de informacin, hasta otro punto denominado destino
de la informacin, con el mnimo de prdidas o perturbaciones.

En esencia, las comunicaciones electrnicas son: la transmisin, la recepcin


y el procesamiento de la informacin, con el uso de circuitos electrnicos.

Transmisin digital

Radio digital
El radio digital utiliza portadoras analgicas, al igual que los sistemas
convencionales. Hay tres tcnicas de modulacin digital: ASK, FSK,
PSK y QAM.

Fuente de Informacin

La informacin se define como conocimiento o datos comunicada o


recibida.

La informacin o inteligencia a transmitir se origina en la fuente de


informacin. Esta informacin se materializa como un conjunto, que
sin perder generalidad supondremos finito y discreto, de N smbolos
o mensajes distintos e independientes cuyo significado es conocido
en el destino del sistema.

La fuente de informacin as definida se denomina fuente discreta


sin memoria.

Hay muchas clases de fuentes de informacin, incluyendo personas y


mquinas, de manera que los smbolos o mensajes pueden tomar
una gran variedad de formas: una secuencia de smbolos discretos o
letras, una magnitud que vara en el tiempo, etc.; pero cualquiera
que sea el mensaje, el propsito del sistema de comunicacin es el
de proporcionar una rplica ms o menos exacta del mismo en el
destino.

Transductor de Entrada
Como regla, el mensaje que produce la fuente no es de
naturaleza elctrica y, por lo tanto, es necesaria la presencia
de un transductor o codificador que convierta el mensaje
en una seal.
Esta ltima es una magnitud elctrica variable en el tiempo
(corrientes o voltajes) compatible con el tipo particular de
sistema de transmisin que se emplee.

Ntese entonces la diferencia entre informacin, mensaje y


seal:
Informacin es la inteligencia o significado que se va a
transmitir; es una entidad intangible.
Mensaje es la materializacin de la informacin en una
cantidad mensurable: el mensaje es el soporte de la
informacin.

Seal es la magnitud elctrica que resulta de la


transformacin de una magnitud no elctrica portadora de
informacin en una magnitud elctrica variable en el tiempo.

A este respecto, el nmero de elementos del conjunto de las


seales de salida del transductor debe ser igual al nmero de
elementos del conjunto de smbolos o mensajes de la fuente
de informacin. La seal de salida del transductor se conoce
tambin con el nombre de seal mensaje.

El transductor de salida o descodificador, efecta la


operacin inversa del transductor de entrada; es decir,
reconvierte las seales elctricas recibidas en los smbolos o
mensajes correspondientes, los cuales son presentados al
destinatario para su interpretacin.

Transmisor
Aunque no deja de ser frecuente encontrar el transductor de
entrada acoplado directamente al canal, como sucede, por
ejemplo, en un sistema telefnico local, generalmente es
necesario modular una seal sinusoidal con la seal del
transductor de entrada, sobre todo para transmisin a gran
distancia.
La modulacin es la variacin sistemtica de alguna
caracterstica de una seal, denominada portadora, en
concordancia con la seal mensaje o seal modulante.
Canal
El canal de transmisin es el enlace elctrico entre el
transmisor y el receptor. Puede ser un par de conductores, un
cable coaxial, una fibra ptica o sencillamente el espacio libre
en el cual la seal se propaga en forma de una onda
electromagntica. Al propagarse a travs del canal, la seal
transmitida se distorsiona debido a las no linealidades y/o las
imperfecciones en la respuesta de frecuencia del canal.
Otras fuentes de degradacin son el ruido y la
interferencia que recoge la seal a su paso por el canal.

Receptor

El objeto del receptor es el de extraer la seal deseada a


partir de la seal degradada transmitida por el canal.

Como las seales recibidas son en general dbiles y plagadas


de ruido, una primera operacin del receptor es la
amplificacin y filtrado de dichas seales para poderlas
procesar.

Pero la operacin fundamental del receptor es la


demodulacin o deteccin, que es el proceso inverso de la
modulacin en el transmisor.

Debido a la degradacin de la seal recibida, el receptor no


puede reconstruir exactamente la seal original, aunque el
tipo de degradacin que resulta depende del sistema de
modulacin que se utilice.

Ruido

El trmino ruido se utiliza comnmente para denominar


aquellas seales que perturban la transmisin y procesamiento
de seales en los sistemas de comunicacin y sobre las cuales
no se tiene un control completo.

El ruido que afecta a un sistema de comunicacin se clasifica en


categoras dependiendo de su origen.

Cuando el ruido proviene de los componentes del sistema tales


como resistencias, tubos al vaco y dispositivos de estado slido,
se conoce como ruido interno.

La segunda categora de ruido resulta de fuentes externas al


sistema de comunicacin e incluye el ruido atmosfrico,
extraterrestre y el producido por el hombre; es el ruido
externo.

1. Ruido Atmosfrico.
Producido por descargas elctricas asociadas a las tormentas.
Se conoce comnmente como esttica. Por debajo de los
100 MHz, la intensidad de campo es inversamente
proporcional a la frecuencia.
En el dominio del tiempo se caracteriza por impulsos de gran
amplitud y poca duracin; es un ruido de tipo impulsivo.
Afecta ms a la banda de frecuencias medias (radiodifusin)
que a la banda de FM o TV. En la transmisin de datos es de
particular importancia.
2. Ruido Extraterrestre.
Incluye el debido al sol y otros cuerpos calientes del
firmamento.
Debido a su alta temperatura y proximidad a la tierra, el sol
es una fuente intensa, pero afortunadamente localizada, de
energa radiante en una amplia gama de frecuencias.
Las estrellas son fuentes de energa radiante de banda ancha,
que aunque ms distantes y por ende menos intensas, por
ser ms numerosas son colectivamente importantes como
fuentes de ruido.

Radioestrellas, tales como quasares y pulsares, tambin


contribuyen al ruido csmico que en conjunto se extiende
desde unos cuantos MHz hasta unos cuantos GHz.

3. Ruido producido por el hombre.


Incluye las descargas por efecto corona en lneas de alta
tensin, el producido por motores elctricos, sistemas de
diatermia, ruido de conmutacin, etc.
El ruido de conmutacin y de sistemas de ignicin es del
tipo impulsivo tal como el ruido atmosfrico. El debido al
alumbrado fluorescente es un ruido muy frecuente en
nuestro medio ambiente.

Ancho de Banda y Potencia de Transmisin

En los sistemas de transmisin existen dos parmetros de


gran importancia: el ancho de banda del canal y la potencia
transmitida.

Los sistemas de comunicacin deben disearse entonces para


utilizar estos dos recursos en la forma ms eficiente posible.

En general, es difcil optimizar ambos recursos


simultneamente, pues en la mayora de los canales de
comunicacin un recurso puede considerarse ms importante
o ms escaso que otro.

Se puede, por lo tanto, clasificar los canales como limitados


en potencia o limitados en ancho de banda.

Por ejemplo, los canales telefnicos son canales


limitados en ancho de banda, mientras que un canal
de microondas lo es en potencia.

La meta ideal en el diseo de un sistema de


comunicacin es la de transmitir informacin a la
mxima velocidad con el mnimo de potencia y ancho
de banda.

La utilizacin ptima y eficiente de estos recursos es


el principal objetivo en el diseo de los sistemas de
comunicacin prcticos.

CONCEPTO Y MEDIDA DE LA INFORMACION

Consideremos un suceso A cualquiera.


Cuanto menos se sepa de un suceso mayor ser, digamos,
nuestra sorpresa al conocer la realizacin del mismo. La
ignorancia en cuanto al suceso es simplemente la
incertidumbre que se tiene acerca de l.

Al realizarse el suceso, la incertidumbre se convierte en


certeza y hemos obtenido un conocimiento o recibido una
informacin.

Por consiguiente, podemos decir que:

Cantidad de Incertidumbre = Cantidad de Informacin

(1)

Por otro lado, la magnitud de la incertidumbre depende del


grado de probabilidad de ocurrencia del suceso A.
Cuanto mayor sea la probabilidad de ocurrencia del suceso,
menor ser nuestra incertidumbre.

En consecuencia, podemos decir que la incertidumbre acerca del


suceso A es funcin de la probabilidad de que dicho suceso
ocurra.
Sea entonces
U(A) = Incertidumbre acerca del suceso A
I(A) = Informacin adquirida al realizarse el suceso A
PA = Probabilidad de ocurrencia del suceso A

Podemos escribir entonces de (1) que:


U(A) = I(A) = f(PA)

(2)

En este sentido, la informacin es una medida de la


incertidumbre.

Por lo tanto, la informacin asociada con el conocimiento de que


un suceso dado ha ocurrido, es una funcin de la probabilidad de
ocurrencia de ese suceso. Se trata entonces de hallar la relacin
funcional f(PA).

f(PA) 0 donde 0 PA 1

Una condicin esencial que la relacin funcional f(PA) debe


satisfacer, es la aditividad.

En efecto, si se considera que el suceso A est formado por la


interseccin de dos sucesos independientes B y C cuyas
probabilidades son PB y PC, respectivamente, entonces
Si A = BC,

f(PA)= f(PB)+f(PC)

(3)

La informacin es una magnitud positiva, de donde


f(PA) 0 donde 0 PA 1

(4)

La probabilidad de un suceso cierto es 1, pero la informacin


o incertidumbre ser 0; de modo que podemos escribir:

Por ltimo, si la probabilidad de un suceso A es menor que la


probabilidad de un suceso B, debe verificarse que:
f(PA)> f(PB) para PA < PB
(6)

Hartley demostr que la nica relacin funcional que satisface


las condiciones (3) a (6) es una funcin logartmica de la
forma

La solucin ms sencilla es aquella cuando se selecciona uno


de dos mensajes o smbolos, en cuyo caso b = 2.
La unidad de informacin se denomina entonces bit
(contraccin inglesa de binary digit)

I(A) es la cantidad de informacin, en


bits, asociada con un suceso A cuya
probabilidad de ocurrencia es PA.

La cantidad de informacin definida en la ecuacin I(A) ha


sido obtenida para un solo mensaje y no es apropiada para
describir una fuente que produce un conjunto de diferentes
mensajes.

La caracterizacin matemtica de un sistema de comunicacin


generalizado ha producido un cierto nmero de aspectos
importantes, entre los cuales se tiene:

1. La informacin promedio contenida en un mensaje dado.


2. La velocidad a la cual una fuente produce la informacin.
3. La capacidad de un canal para manejar o transportar esa
informacin
4. La codificacin de los mensajes para optimizar los tres
aspectos anteriores.

Entropa

Consideremos una fuente discreta que produce N smbolos


o mensajes {x1, x2, x3, ..., xN} distintos e independientes,
con probabilidades de ocurrencia correspondientes {P1, P2,
P3, ....,PN}, donde Pi Pj , i j.

Desde un punto de vista probabilstico, el conjunto discreto


de N smbolos o mensajes producidos por la fuente se
puede considerar como un proceso aleatorio discreto; es
entonces un conjunto de N variables aleatorias, cada una de
las cuales toma valores en el conjunto {x1, x2, x3,..,xN} con
probabilidades {P1 , P2 , ......., PN}.

De la definicin de la probabilidad, debe cumplirse que

Cuando se transmite un mensaje cualquiera x j, la informacin


asociada es Ij = log2(1/Pj) bits.

Supongamos que se transmite una larga secuencia de L


mensajes o smbolos, donde L >> 1. En esta secuencia, el
smbolo j-simo ocurrir aproximadamente LPj veces y la
informacin asociada ser LPjIj bits.

La informacin total contenida en la secuencia ser,


aproximadamente,

La informacin promedio, en bits por smbolo (bits/smb),


ser entonces la informacin total de la secuencia dividida por
el nmero de smbolos de la misma. Esta informacin
promedio normalmente se representa con la letra H.
H: entropa de la fuente

La entropa de la fuente, o informacin promedio asociada


con la fuente, significa que aunque no se pueda decir con
certeza qu mensaje se va a producir, se espera obtener en
promedio H bits de informacin por mensaje, o LH bits en una
secuencia de L mensajes, si L es grande.

H es mxima cuando las probabilidades de ocurrencia de los


smbolos son iguales, es decir, cuando
P1 = P2 = P3 = ...... = PN = 1/N.

En este caso, HMAX = log2 N

En consecuencia, la entropa est acotada por


0 H log2 N
donde N es el nmero de smbolos o mensajes producidos por
la fuente.

Ejemplo
Entropa de una Fuente Binaria.

Sea una fuente binaria (N = 2). Las probabilidades de los


smbolos son p y (1p), respectivamente. Por consiguiente,

En la Fig. se grafica H vs p
Ntese que si p = , entonces H = 1 bit, valor que
corresponde al pico de la curva.

EJEMPLO
Una fuente produce cuatro smbolos A, B, C y D cuyas
probabilidades son, respectivamente, 0,5; 0,25; 0,125 y
0,125. La entropa de la fuente ser
H=0,5log22+0,25log24+2x0,15log28=1,75 bits/smbolo
Si los smbolos fueran equiprobables, esto es, si p = ,
entonces
H=log24=2 bits/smbolo
Ntese que la entropa H es mxima cuando los smbolos
son equiprobables.

Ejemplo
Consideremos la informacin producida por una mquina de
escribir de 26 letras y el espacio entre letras; en otras
palabras, la fuente produce 27 smbolos.
Si todos los smbolos tuvieran la misma probabilidad, HMAX =
log2 27 = 4.755 bits/letra.
Esta es la mxima informacin que la mquina de escribir
puede generar. Pero en el idioma espaol las letras tienen
diferentes probabilidades de ocurrencia en un texto.
Por ejemplo, la letra E es la que ocurre con ms frecuencia.
Se ha determinado experimentalmente que la informacin
promedio asociada con una letra es de aproximadamente 4.2
bits.
Asimismo, una palabra tiene, en promedio, 5 letras y un
contenido de informacin de 9.3 bits.

Das könnte Ihnen auch gefallen