Sie sind auf Seite 1von 44

Contenido

Introducción ...................................................................................................................................................................... 4
Modelo OSI ....................................................................................................................................................................... 5
Teoría de la Información ................................................................................................................................................... 6
Perturbaciones en la transmisión ..................................................................................................................................... 7
Capacidad de los canales de transmisión ......................................................................................................................... 7
Codificación y Modulación de datos ................................................................................................................................. 8
Conversión de datos digitales a señales digitales ......................................................................................................... 9
Unipolar..................................................................................................................................................................... 9
Polar ........................................................................................................................................................................ 10
Bipolar ..................................................................................................................................................................... 11
Conversión de datos digitales a señales analógicas.................................................................................................... 12
Modulación por desplazamiento de amplitud (ASK) .............................................................................................. 13
Modulación por desplazamiento de frecuencia (FSK) ............................................................................................ 13
Modulación por desplazamiento de fase (PSK) ...................................................................................................... 13
Modulación de amplitud en cuadratura (QAM) ..................................................................................................... 13
Conversión de datos analógicos a señales digitales ................................................................................................... 14
Modulación por codificación de impulsos .............................................................................................................. 14
Modulación por codificación en pulsos (PCM) ....................................................................................................... 14
Modulación delta (DM) ........................................................................................................................................... 15
Conversión de datos analógicos a señales analógicas ................................................................................................ 15
Modulación en amplitud (AM) ................................................................................................................................ 15
Modulación en frecuencia (FM) .............................................................................................................................. 15
Modulación en fase (PM) ........................................................................................................................................ 15
Medios de transmisión ................................................................................................................................................... 15
Par trenzado ................................................................................................................................................................ 16
Cable de par trenzado sin blindaje (UTP)................................................................................................................ 16
Cable de par trenzado blindado (STP)......................................................................................................................... 17
Cable coaxial ............................................................................................................................................................... 17
Fibra óptica ................................................................................................................................................................. 18
Fibra multimodo...................................................................................................................................................... 18
Fibra monomodo..................................................................................................................................................... 19
Transmisión inalámbrica ............................................................................................................................................. 19
Microondas terrestres ............................................................................................................................................ 20
Comunicación vía satélite ....................................................................................................................................... 21
Multiplexación ................................................................................................................................................................ 22
Multiplexación por división de frecuencia .................................................................................................................. 22
Multiplexación por división de onda........................................................................................................................... 23
Multiplexación por división del tiempo ...................................................................................................................... 23
1
Jerarquía digital plesiócrona ................................................................................................................................... 23
Jerarquía digital síncrona ........................................................................................................................................ 24
OTN (Redes de Transporte Óptico) ......................................................................................................................... 24
Capas Inferiores .............................................................................................................................................................. 25
Elementos clave para la normalización de cada capa................................................................................................. 26
Capa 1 – Capa Física ........................................................................................................................................................ 26
Tipos de Transmisión .................................................................................................................................................. 27
Transmisión asíncrona ............................................................................................................................................ 27
Transmisión síncrona .............................................................................................................................................. 27
Modo de Operación y Tipo de Configuración ............................................................................................................. 28
Full Duplex y Semi Duplex ....................................................................................................................................... 28
Interfaces .................................................................................................................................................................... 28
V.24 / EIA-232-F .......................................................................................................................................................... 29
FXS/FXO....................................................................................................................................................................... 29
Recomendación AUI (attachment unit interface) ....................................................................................................... 30
Recomendación G.703 ................................................................................................................................................ 30
Recomendación rs-449 ............................................................................................................................................... 30
Capa 2 – Capa de enlace ................................................................................................................................................. 30
Control del flujo .......................................................................................................................................................... 31
Stop and Wait.......................................................................................................................................................... 31
Ventana deslizante.................................................................................................................................................. 31
Detección de errores................................................................................................................................................... 32
Comprobación de paridad ...................................................................................................................................... 32
Checksum (Suma de Verificación) ........................................................................................................................... 32
Comprobación de Redundancia Cíclica (CRC, Cyclic Redundancy Check)............................................................... 32
Control de errores ....................................................................................................................................................... 33
ARQ ......................................................................................................................................................................... 33
FEC Forward Error Correction ................................................................................................................................. 34
HDLC ................................................................................................................................................................................ 34
Características básicas ................................................................................................................................................ 34
Estructura de la trama ................................................................................................................................................ 35
Los campos de delimitación .................................................................................................................................... 35
Campo de dirección ................................................................................................................................................ 35
Campo de control.................................................................................................................................................... 35
Campo de información............................................................................................................................................ 36
Campo para la secuencia de comprobación de la trama ........................................................................................ 36
Otros protocolos para el control de enlace de datos ................................................................................................. 36
LAPB ........................................................................................................................................................................ 36
LLC ........................................................................................................................................................................... 36

2
Retransmisión de tramas (FRAME RELAY) .............................................................................................................. 36
Modo de Transferencia Asíncrono (ATM, Asynchronous Transfer Mode) ............................................................. 36
Ethernet .......................................................................................................................................................................... 36
Control de acceso al medio en IEEE 802.3: CSMA/CD ................................................................................................ 37
Trama .......................................................................................................................................................................... 38
Hub y Switch ............................................................................................................................................................... 38
Técnica del árbol de expansión ................................................................................................................................... 39
Retransmisión de tramas ........................................................................................................................................ 39
Árbol de expansión ................................................................................................................................................. 39
Protocolos ....................................................................................................................................................................... 40
Protocolos orientados a caracter ................................................................................................................................ 40
Protocolos orientados al BIT ....................................................................................................................................... 40
Proyecto 802 ................................................................................................................................................................... 41
IEEE 802.1 .................................................................................................................................................................... 41
LLC ........................................................................................................................................................................... 41
MAC ......................................................................................................................................................................... 41
802.5 ............................................................................................................................................................................... 42
802.6 ............................................................................................................................................................................... 42
FDDI ................................................................................................................................................................................. 42
802.11 ............................................................................................................................................................................. 43
802.11a ....................................................................................................................................................................... 43
802.11b ....................................................................................................................................................................... 43
802.11g ....................................................................................................................................................................... 43
802.11n ....................................................................................................................................................................... 44
802.16 ............................................................................................................................................................................. 44
802.20 ............................................................................................................................................................................. 44

3
Introducción
El objetivo principal de todo sistema de comunicaciones es
intercambiar información entre dos entidades. Un ejemplo
podría ser la comunicación entre una estación de trabajo y un
servidor a través de una red telefónica pública. Otro posible
ejemplo consiste en el intercambio de señales de voz entre dos
teléfonos a través de la misma red anterior. Los elementos clave
en este modelo son los siguientes:

 La fuente. Este dispositivo genera los datos a transmitir: por


ejemplo, teléfonos o computadores personales.
 El transmisor. Normalmente los datos generados por la fuente no se transmiten directamente tal y como son
generados. Al contrario, el transmisor transforma y codifica la información, generando señales
electromagnéticas susceptibles de ser transmitidas a través de algún sistema de transmisión. Por ejemplo, un
modem convierte las cadenas de bits generadas por un computador personal y las transforma en señales
analógicas que pueden ser transmitidas a través de la red telefónica.
 El sistema de transmisión, que puede ser desde una sencilla línea de transmisión hasta una compleja red que
conecte a la fuente con el destino.
 El receptor, que acepta la señal proveniente del sistema de transmisión y la transforma de tal manera que
pueda ser manejada por el dispositivo destino. Por ejemplo, un modem captará la señal analógica de la red o
línea de transmisión y la convertirá en una cadena de bits.
 El destino, que toma los datos del receptor.

En las redes de computadoras, la comunicación se lleva a cabo entre distintas entidades de distintos sistemas. Una
entidad es cualquier cosa capaz de enviar o recibir información. Algunos ejemplos incluyen programas de aplicación,
paquetes de transferencia ele archivos, navegadores, sistemas de gestión de bases de datos y software de correo
electrónico. Un sistema contiene una o más entidades. Pero no basta con que dos entidades se envíen flujos de bits
entre sí para que se entiendan. Para que exista comunicación, las entidades deben estar de acuerdo en un protocolo.
Un protocolo es un conjunto ele reglas que gobiernan la comunicación de datos, es decir, define qué se comunica,
cómo se comunica y cuándo se comunica. Los elementos clave de un protocolo son

 Sintaxis: se refiere a la estructura del formato de los datos, es decir, el orden en el cual se presentan. Por
ejemplo, un protocolo sencillo podría esperar que los primeros ocho bits de datos fueran la dirección del
emisor, los segundos ocho bits, la dirección del receptor y el resto del flujo fuera el mensaje en sí mismo.
 Semántica se refiere al significado de cada sección de bits. ¿Cómo se interpreta un determinado patrón y qué
acción se toma basada en dicha representación? Por ejemplo, ¿una dirección identifica la ruta a tomar o el
destino final del mensaje?
 Temporización define dos características: cuándo se deberían enviar los datos y con qué rapidez deberían ser
enviados. Por ejemplo, si un emisor produce datos a una velocidad de 100 Mbps, pero el receptor puede
procesar datos solamente a 1 Mbps, la transmisión sobrecargará al receptor y se perderá gran cantidad de
datos.

Con la existencia de tantos factores a sincronizar, es necesario llevar a cabo un gran trabajo de coordinación entre los
nodos de una red si se quiere que haya algún tipo de comunicación, independientemente de que sea exacta y eficiente.
Un único fabricante puede construir todos sus productos para que funcionen bien entre sí, pero ¿qué pasa si alguno
de los componentes que necesita no están hechos por la misma empresa? Donde no hay estándares surgen las
dificultades. Los automóviles son un ejemplo de productos no estandarizados. Un volante de una marca y un modelo
de un coche no vale en general para otra marca de modelo si no se hace alguna modificación. Un estándar proporciona
un modelo de desarrollo que hace posible que un producto funcione adecuadamente con otros sin tener en cuenta
quién lo ha fabricado. Los estándares de transmisión de datos se pueden clasificar en dos categorías: de facto (que
quiere decir «de hecho» o «por convención») y de jure (que quiere decir «por ley» o «por regulación»).

Los estándares de jure son aquellos que han sido legislados por un organismo oficialmente reconocido. Los estándares
que no han sido aprobados por una organización reconocida, pero han sido adoptados como estándares por su amplio
4
uso son estándares de facto. Los estándares de facto suelen ser establecidos a menudo por fabricantes que quieren
definir la funcionalidad de un nuevo producto de tecnología.

Modelo OSI
Un sistema abierto es un modelo que permite que dos sistemas diferentes se puedan comunicar independientemente
de la arquitectura subyacente. Los protocolos específicos de cada vendedor no permiten la comunicación entre
dispositivos no relacionados.

OSI significa Open Systems Interconnection o, en español, Interconexión de Sistemas Abiertos, es una norma universal
para protocolos de comunicación lanzado en 1984, propuesto por ISO que divide las tareas de la red en siete niveles.
El modelo OSI proporciona a los fabricantes estándares que aseguran mayor compatibilidad e interoperabilidad entre
distintas tecnologías de red producidas a mundialmente. El objetivo del modelo OSI es permitir la comunicación entre
sistemas distintos sin que sea necesario cambiar la lógica del hardware o el software subyacente. El modelo OSI no es
un protocolo; es un modelo para comprender y diseñar una arquitectura de red flexible, robusta e interoperable.

El modelo OSI es una arquitectura por niveles para el diseño de sistemas de red que permite la comunicación entre
todos los tipos de computadoras. Está compuesto por siete niveles separados, pero relacionados, en donde cada uno
define un segmento del proceso necesario para mover la información a través de una red.

El modelo OSI está compuesto por siete niveles ordenados: el


físico (nivel 1), el de enlace de datos (nivel 2), el de red (nivel 3),
el de transporte (nivel 4), el de sesión (nivel 5), el de presentación
(nivel 6) y el de aplicación (nivel 7). La Figura muestra los niveles
involucrados en el envío de un mensaje del dispositivo A al
dispositivo B. A medida que el mensaje viaja de A a B, puede pasar
a través de muchos nodos intermedios. Estos nodos intermedios
sólo tienen habitualmente los tres primeros niveles del modelo
OSI. Al desarrollar el modelo, los diseñadores refinaron el proceso
de transmisión de datos hasta los elementos más fundamentales.
Una regla mnemotécnica para recordar los niveles del modelo OSI
es: Felipe Está Riendo Tras Su Papá Andrés (Físico, Enlace ele
datos, Red, Transporte, Sesión, Presentación, Aplicación).

El paso de los datos y la información de la red a través de los distintos niveles de la máquina emisora, y la subida a
través de los niveles de la máquina receptora, es posible porque hay una interfaz entre cada par de niveles adyacentes.
Cada interfaz define qué información y servicios debe proporcionar un nivel al nivel superior. Las interfaces bien
definidas y las funciones de los niveles proporcionan modularidad a la red.

1. Capa física: Se encarga de la interfaz física entre los dispositivos. Define las reglas que rigen la transmisión de
bits
2. Capa de enlace de datos: busca hacer que el enlace físico sea fiable. Proporciona medios para activar,
mantener y desactivar el enlace. Proporciona servicio de sincronización, detección y control de errores.
3. Capa de red: Realiza la transferencia de información entre sistemas finales a través de algún tipo de red de
comunicación. El computador establecerá un diálogo con la red para especificar dirección de destino y solicitar
servicios.
4. Capa de transporte: Proporciona un mecanismo para intercambiar datos entre sistemas finales. Asegura que
los datos están libres de errores, en orden, sin pérdidas ni duplicados. Esta capa está involucrada en la
optimización de servicios de red.
5. Capa de sesión: Proporciona mecanismos para controlar el diálogo entre las aplicaciones de los sistemas
finales. Proporciona servicios de control de dialogo, agrupamiento y recuperación
6. Capa de presentación: Define el formato de los datos que se van a intercambiar entre las aplicaciones y ofrece
a los programas de aplicación un conjunto de servicios de transformación de datos. Define la sintaxis utilizada
entre las entidades de aplicación y proporciona los medios para seleccionar y modificar la representación
utilizada.

5
7. Capa de aplicación: Proporciona a los programas de aplicación un modelo para que accedan al entorno OSI.
En esta capa residen las aplicaciones de uso general.

Teoría de la Información
Uno de los aspectos fundamentales del nivel físico es transmitir información en forma de señales electromagnéticas a
través de un medio de transmisión. Tanto si se están recolectando estadísticas numéricas de otra computadora, como
si se están enviando gráficos animados desde una estación ele diseño o haciendo sonar un timbre en un centro de
control distante, se está realizando transmisión de información a través de conexiones de red. La información puede
ser voz, imagen, datos numéricos, caracteres o código, cualquier mensaje que sea legible y tenga significado para el
usuario destino, tanto si es humano como si es una máquina.

Generalmente, la información que utiliza una persona o una aplicación no está en un formato que se pueda transmitir
por la red. Por ejemplo, no se puede enrollar una fotografía, insertarla en un cable y transmitirla a través de la ciudad.
Sin embargo, se puede transmitir una descripción codificada de la fotografía. En lugar de enviar la fotografía real, se
puede utilizar un codificador para crear un flujo de unos y ceros que le indique al dispositivo receptor cómo reconstruir
la imagen ele la fotografía. Pero incluso los unos y los ceros no pueden ser enviados a través de los enlaces de una red.
Deben ser convertidos posteriormente a un formato aceptable para el medio de transmisión. El medio de transmisión
funciona conduciendo energía a través de un camino físico. Por tanto, el flujo de datos de unos y ceros debe ser
convertido a energía en forma de señales electromagnéticas.

Shannon afirmo que el problema fundamental de la comunicación es reproducir en un momento exacto un mensaje
determinado en otro punto. Esto dio lugar a fines de los ’40 a la llamada teoría de la comunicación. Esta teoría está
relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la
medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de
comunicación para transmitir y procesar información. En la teoría de la comunicación la información es tratada como
magnitud física, caracterizando la información de una secuencia de símbolos utilizando la entropía.

La entropía mide la incertidumbre de una fuente de información, y se puede considerar como la cantidad de
información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan
mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras
frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como
«corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no
afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original.
Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información
relevante y la entropía es máxima.

Traspasando esto a una forma más matemática: Supongamos que un evento (variable aleatoria) tiene un grado de
indeterminación inicial igual a k (es decir,
existen k estados posibles) y supongamos todos los
estados equiprobables. Si tomamos que la comunicación se da a nivel bit, la probabilidad de que se dé una de esas
1
combinaciones será 𝑃 = 𝑘. Como se tomó a nivel de bit, se tiene 2c = k combinaciones, o lo que es lo mismo,

Si ahora cada uno de los k estados tiene una probabilidad p, entonces la entropía vendrá dada por la suma ponderada

de la cantidad de información . Por lo tanto, la entropía de un


mensaje X, denotado por H(X), es el valor medio ponderado de la cantidad de información de los diversos estados del

mensaje: . La máxima entropía sucede cuando el cero y el uno tienen la misma probabilidad, es
decir HMAX=1bit/pulso=log 2 𝑘

La entropía determina el límite máximo al que se puede comprimir un mensaje usando un enfoque símbolo a símbolo
sin ninguna pérdida de información. El límite de compresión (R) es igual a la entropía (H) multiplicada por el largo del
mensaje (r). 𝑅 = 𝑟. 𝐻𝑚𝑎𝑥 = 𝑟. log 2 𝑘

6
Perturbaciones en la transmisión
Los medios de transmisión no son perfectos. Las imperfecciones pueden causar deterioros en las señales que se envían
a través de los medios. Esto significa que la señal al principio y al final del medio es distinta. Lo que se ha enviado no
es lo recibido. Habitualmente ocurren tres tipos de deterioro: atenuación, distorsión y ruido.

 La atenuación significa pérdida de energía. Cuando una señal viaja a través de un medio, pierde algo de su
energía para vencer la resistencia del medio. Esta es la razón por la cual los cables que llevan señales eléctricas
se calientan, después de un cierto tiempo. Parte de la energía eléctrica de la señal se convierte en calor. Para
compensar esta pérdida, se usan amplificadores. Para medir la potencia que una señal ha perdido o ganado,
se utiliza el decibel, que mide las potencias relativas de dos señales o de una señal en dos puntos distintos. El
𝑃
dB es negativo si una señal se ha atenuado y positivo si una señal se ha amplificado. 𝑑𝐵 = 10 log10 2 . La
𝑃1
atenuación es un problema significativo en señales analógicas, mientras que, en las señales digitales, es un
problema mucho menor.
 La distorsión por retardo significa que la señal cambia su forma de onda. La distorsión ocurre en una señal
compuesta, formada por distintas frecuencias. Cada señal componente tiene su propia velocidad de
propagación a través del medio y, por tanto, su propio retraso en la llegada al destino final. La distorsión es
particularmente crítica en la transmisión de datos digitales. Supóngase que se está transmitiendo una
secuencia de bits, utilizando una señal analógica o digital. Debido a la distorsión de retardo, algunas de las
componentes de la señal en un bit se desplazarán hacia otras posiciones, provocando interferencia entre
símbolos. Este hecho es el factor que limita principalmente la velocidad de transmisión máxima en un canal
de transmisión.
 En cualquier dato transmitido, la señal recibida consistirá en la señal transmitida modificada, debido a las
distorsiones introducidas por el sistema de transmisión, además de señales no deseadas que se insertarán en
algún punto entre el emisor y el receptor. A estas últimas señales no deseadas se les denomina ruido. El ruido
es el factor de mayor importancia a la hora de limitar las prestaciones de un sistema de comunicación. Hay
varios tipos de ruido, como el ruido térmico, ruido inducido, diafonía y ruidos impulsivos que pueden
corromper una señal.
o El ruido térmico se debe al movimiento aleatorio de electrones en un cable que crea una señal extra
no enviada originalmente por el transmisor. N0 = T K (Watts/ Hz), donde N0: Energía del ruido térmico
que encontraremos en 1 Hz de B, K = Cte de Boltzman 1,3803 X 10 -23 Joule/ 0K, T: Temperatura en
grados Kelvin
o El ruido inducido se debe a fuentes externas tales como motores, electrodomésticos. Estos
dispositivos actúan como antenas emisoras y el medio de transmisión actúa como la antena receptora.
El efecto del ruido de intermodulación es la aparición de señales a frecuencias que sean suma o
diferencia de la frecuencia original, o múltiplos de ésta.
o La diafonía se debe al efecto de un cable sobre otro. Un cable actúa como una antena emisora y el
otro como una antena receptora. Se trata de un acoplamiento no deseado entre las líneas que
transportan las señales. La diafonía es el sonido percibido en un receptor cuando está sintonizado a
una estación, debido a una modulación cruzada u otro acoplamiento indeseado a otro canal de
comunicación.
o Los ruidos antes descritos son de magnitud constante y razonablemente predecible. Así pues, es
posible idear un sistema de transmisión que les haga frente. Por el contrario, el ruido impulsivo es no
continuo y está constituido por pulsos o picos irregulares de corta duración y de amplitud
relativamente grande. Se generan por una gran diversidad de causas, como, por ejemplo, por
perturbaciones electromagnéticas exteriores producidas por tormentas atmosféricas, o fallos y
defectos en los sistemas de comunicación.

Capacidad de los canales de transmisión


Se puede demostrar, usando el análisis de Fourier, que cualquier señal está constituida por componentes sinusoidales
de distintas frecuencias. Este resultado es de vital importancia, ya que los efectos de los medios de transmisión sobre
las señales se pueden expresar en el dominio de la frecuencia. Por lo tanto, para cada señal se puede decir que hay
una función en el dominio del tiempo s(t) que determina la amplitud de la señal en cada instante de tiempo.
7
Se define el espectro de una señal como el conjunto de frecuencias que la constituyen. Se define el ancho de banda
absoluto de una señal como la anchura del espectro. Muchas señales tienen un ancho de banda infinito. No obstante,
la mayor parte de la energía de la señal se concentra en una banda de frecuencias relativamente estrecha. Esta banda
se denomina ancho de banda efectivo o simplemente ancho de banda.

Se ha visto que hay una gran variedad de efectos nocivos que distorsionan o corrompen la señal. Para los datos
digitales, la cuestión a resolver es en qué medida estos defectos limitan la velocidad con la que se pueden transmitir.
Se denomina capacidad del canal a la velocidad a la que se pueden transmitir los datos en un canal o ruta de
comunicación datos.

Para comenzar, considérese el caso de un canal exento de ruido. En este entorno, la limitación en la velocidad de los
datos está impuesta simplemente por el ancho de banda de la señal. Nyquist formalizó esta limitación, afirmando que,
si la velocidad de transmisión de la señal es 2B, entonces una señal con frecuencias no superiores a B es suficiente
para transportar esta velocidad de transmisión de la señal. Y viceversa: dado un ancho de banda de B, la velocidad
mayor de transmisión de la señal que se puede conseguir es 2B. Esta limitación está provocada por la interferencia
entre símbolos, que se produce por la distorsión de retardo.

Como se pueden usar señales con más de dos niveles; es decir, cada elemento de señal puede representar a más de
dos bits. Por ejemplo, si se usa una señal con cuatro niveles de tensión, cada elemento de dicha señal podrá
representar dos bits. La formulación de Nyquist para el caso de señales multinivel agrega a la ya definida C=2B, la
cantidad de combinaciones que se consiguen al modificar amplitud, frecuencia y fase de la señal de portadora, esto
es, C = 2BN (bps), donde N es la longitud de la palabra binaria por elemento de señal de portadora. Entonces, N =
log 2 𝑀, donde M es la cantidad de combinaciones posibles que reconoce el sistema, quedando así C =
2𝐵 log 2 𝑀 (bps).

La fórmula de Nyquist implica que al duplicar el ancho de banda se duplica la velocidad de transmisión, si todo lo
demás se mantiene inalterado. Ahora establezcamos una relación entre la velocidad de transmisión, el ruido y la tasa
de errores. La presencia de ruido puede corromper uno o más bits. Si se aumenta la velocidad de transmisión, el bit
se hace más «corto» de tal manera que, dado un patrón de ruido, éste afectará a un mayor número de bits. Así pues,
dado un nivel de ruido, cuanto mayor es la velocidad de transmisión, mayor es la tasa de errores.

Todos estos conceptos se pueden relacionar con la formula desarrollada por Claude Shannon. Como se ha comentado,
cuanto mayor es la velocidad de transmisión, mayor es el daño que puede ocasionar el ruido. Dado un nivel de ruido,
es de esperar que incrementando la energía de la señal se mejoraría la recepción de datos en presencia de ruido. Un
parámetro fundamental en el desarrollo de este razonamiento es la relación señal ruido (SNR), que se define como el
cociente entre la potencia de la señal y la potencia del ruido presente en un punto determinado en el medio de
transmisión. Generalmente, este cociente se mide en el receptor, ya que es aquí donde se realiza el procesado de la
señal y la eliminación del ruido no deseado. C(bps) = B(Hz) log2 (1 + S/N).

Por ejemplo, Nyquist nos dice que con 16 combinaciones podríamos alcanzar 8 Mbps de capacidad C en un medio
cuyo B sea de 1.000.000 Hz. En cambio, Shannon nos dice al existir ruido la capacidad máxima del sistema se ve
reducida en comparación con la obtenida mediante Nyquist. Si lo que queremos es alcanzar los 8 Mbps de Capacidad
en el sistema con un medio de 1 MHz de B, tendremos que tener una relación S/N de 255 es decir que la señal deberá
ser 255 veces mayor que el ruido.

Codificación y Modulación de datos


La información debe ser transformada en señales antes de poder ser transportada a través de un medio de
comunicación. Una señal simple no transporta información de la misma forma que una línea recta no hace referencia
a ninguna palabra. La señal debe ser manipulada, introduciéndole cambios identificables que puedan ser reconocidos
en el emisor y el receptor como representativos de la información transmitida.

Los datos se almacenan en una computadora en forma de ceros y unos. Habitualmente, para transportarlos de un
lugar a otro (dentro o fuera de la computadora), es necesario convertirlos en señales digitales. Esto es lo que se
denomina conversión digital a digital o codificación de los datos digitales dentro de una señal digital. A veces es
necesario convertir una señal analógica (como la voz en una conversación telefónica) en una señal digital por distintas

8
razones, como reducir el efecto del ruido. Esto es lo que se denomina conversión analógica a digital o digitalización
de una señal analógica.

Otras veces, se requiere enviar una señal digital que sale de una computadora a través de un medio diseñado para
transmitir señales analógicas. Por ejemplo, para enviar datos de un lugar a otro usando la red pública de telefonía,
sería necesario convertir la señal digital producida por la computadora en una señal analógica. Esto es lo que se
denomina conversión digital a analógica o modulación de una señal digital.

A menudo se desea enviar una señal analógica a larga distancia utilizando medios analógicos. Por ejemplo, la voz o la
música de una estación de radio, que naturalmente emite una señal analógica, se transmiten a través del aire. Sin
embargo, la frecuencia de la música o la voz no es apropiada para este tipo de transmisión. La señal debería ser
transportada mediante una señal de alta frecuencia. Esto es lo que se denomina conversión de analógico a analógico
o modulación de una señal analógica.

Conversión de datos digitales a señales digitales


La codificación o conversión digital a digital, es la
representación de la información digital mediante una
señal digital. Por ejemplo, cuando se transmiten datos
desde su computadora a su impresora, tanto los datos originales como los datos transmitidos son digitales. En este
tipo de codificación, los unos y ceros binarios generados por una computadora se traducen a una secuencia de pulsos
de voltaje que se pueden propagar por un cable.

Existen varios mecanismos usados para la codificación digital a digital, pero los más útiles para la transmisión de datos,
se pueden agrupar en tres amplias categorías: unipolar, polar y bipolar

Unipolar
La codificación unipolar es muy sencilla y muy primitiva.
Aunque actualmente está casi obsoleta, su sencillez
proporciona una forma fácil de presentar los conceptos
usados con los sistemas de codificación más complejos y
permite examinar los tipos de problemas que se deben
resolver en los sistemas de transmisión digital. El sistema de transmisión digital funciona enviando pulsos de voltaje
por un medio de enlace, habitualmente un cable o un hilo. En la mayoría de los tipos de codificación, hay un nivel de
voltaje para el 0 binario y otro nivel de voltaje para el 1. La polaridad del impulso indica si es positivo o negativo. La
codificación unipolar se denomina así porque usa únicamente una polaridad. Esta polaridad se asigna a uno de los dos
estados binarios, habitualmente el 1. El otro estado, habitualmente el 0, se representa por el voltaje 0. Además de ser
muy sencilla, la codificación unipolar admite una implementación barata. Sin embargo, la codificación unipolar tiene
al menos dos problemas que la hacen poco deseable: una componente DC y la sincronización.

 Componente de corriente continua: La amplitud media de una señal con codificación unipolar no es cero. Esto
crea lo que se llama una componente de corriente continua DC. Cuando una señal contiene una componente
DC, no puede viajar a través de medios que no pueden gestionar este tipo de componentes.
 Sincronización: Cuando una señal no varía, el receptor no puede determinar el principio y el final de cada bit.
Por tanto, en la codificación unipolar puede haber problemas de sincronización siempre que el flujo ele dalos
contenga largas series ininterrumpidas de ceros y unos. Puesto que no hay cambio de señal para indicar el
comienzo de la siguiente secuencia de bits, el receptor tiene que confiar en un temporizador. Dada una tasa
de bit esperada de 1.000 bps, si el receptor detecta un voltaje positivo que dura 0,005 segundos, interpreta
que recibe un 1 cada 0,00 l segundo, es decir, cincos unos. Por desgracia, la falta de sincronización entre los
relojes del emisor y el receptor distorsiona la temporización de la señal de forma que, por ejemplo, cinco unos
pueden ser enviados en 0,006 segundos, originando la recepción de un bit 1 extra en el receptor. Este bit extra
en el flujo de datos hace que todo lo que llegue detrás se decodifique erróneamente. Para controlar la
sincronización de los medios de transmisión unipolar se ha desarrollado una solución consistente en usar una
línea distinta que, en paralelo, lleva un pulso ele reloj y que permite al dispositivo de recepción resincronizar
su temporizador con el de la señal. Pero doblar el número de líneas usadas para la transmisión incrementa el
coste y da como resultado soluciones poco económicas.
9
Polar
La codificación polar usa dos niveles de voltaje: uno positivo y uno negativo. Gracias al uso de dos niveles, en la mayoría
ele los métodos de codificación polar se reduce el nivel de voltaje medio de la línea y se alivia el problema de la
componente DC existente en la codificación unipolar, En las codificaciones Manchester y Manchester diferencial, cada
bit se define mediante voltajes positivos y negativos, de tal forma que la componente DC queda totalmente eliminada.
De las muchas variantes existentes de la codificación polar, examinaremos solamente las tres más populares: sin
retorno a cero (NRZ), con retorno a cero (RZ) y bifásica. La codificación NRZ incluye dos métodos: sin retorno al nivel
cero, nivel (NRZ-L) y sin retorno a cero invertido (NRZ-1). El método bifásico también tiene dos variantes. El primero,
el Manchester, es el método usado en las LAN de tipo Ethernet. El segundo, Manchester diferencial, es el método
usado en las LAN de tipo Token Ring.

Sin retorno a cero (NRZ)


En la codificación NRZ, el nivel de la señal es siempre positivo o negativo. A continuación, se muestran los dos métodos
más populares de transmisión NRZ.

 En la codificación NRZ-L, el nivel de la señal depende del tipo de bit que representa. Habitualmente, un valor
de voltaje positivo indica que el bit es un 0 y un valor de voltaje negativo significa que el bit es un 1 (o
viceversa); por tanto, el nivel de la señal depende del estado del bit.
 Cuando hay un flujo grande de ceros o unos en los datos
puede surgir un problema. El receptor recibe un voltaje
continuo y debería determinar cuántos bits se han enviado
mediante su reloj, que puede estar o no sincronizado con el
reloj del emisor. En la codificación NRZ-l, una inversión del
nivel de voltaje representa un bit 1. Es la transición entre el
valor de voltaje positivo y negativo, y no los voltajes en sí
mismos, lo que representa un bit 1. Un bit 0 se representa
sin ningún cambio. NRZ-I es un ejemplo de codificación
diferencial. En la codificación diferencial, en lugar de
determinar el valor absoluto, la señal se decodifica
comparando la polaridad de los elementos de señal adyacentes. En términos generales, la codificación de cada
bit se hace de la siguiente manera: si se trata del valor binario 0, se codifica con la misma señal que el bit
anterior, si se trata de un valor binario 1, entonces se codifica con una señal diferente que la utilizada para el
bit precedente. Una ventaja de este esquema es que en presencia de ruido puede ser más seguro detectar
una transición en lugar de comparar un valor con un umbral. Otra ventaja es que, en un sistema complicado
de transmisión, no es difícil perder la polaridad de la señal.
NRZ-I es mejor que NRZ-L debido a la sincronización implícita provista por el cambio de señal cada vez que se
encuentra un 1. La existencia de unos en el flujo de datos permite al receptor sincronizar su temporizador con
la llegada real de la transmisión. El problema de este tipo de codificación, es cuando se necesita, aunque no
es muy probable que suceda, enviar una serie de 0 consecutivos.

Con retorno a cero (RZ)


Como se puede ver, siempre que los datos originales contienen tiras de unos o ceros consecutivos, el receptor puede
sufrir pérdidas. Como se mencionó en la discusión de la codificación unipolar, una forma de asegurar la sincronización
es enviar una señal específica para temporización por un canal distinto. Sin embargo, esta solución es cara y genera
sus propios errores. Una solución mejor es incluir de alguna forma la sincronización dentro de la señal codificada, algo
similar a la solución provista por NRZ-I, pero capaz de manejar tiras de ceros y de unos. Para poder asegurar esto, es
necesario que haya un cambio de señal para cada bit.

Pero para que haya cambios con cada bit, es necesario tener más de dos valores. Una solución, es la codificación con
retorno a cero (RZ), que usa tres valores: positivo, negativo y cero. En RZ, la señal no cambia entre los bits, sino durante
cada bit. Al igual que la NRZ-L, un voltaje positivo significa un 1, y un voltaje negativo, un 0; pero la principal
característica de este tipo de codificación, es que, en el medio de un bit, la señal siempre vuelve a 0. Un bit 1 se
representa por una transición del voltaje positivo al cero, y un bit 0, de un voltaje negativo a 0. La principal desventaja

10
de la codificación RZ es que necesita dos cambios de señal para codificar un bit, haciendo que se ocupe más ancho de
banda.

Bifásica
Probablemente, la mejor solución existente para el problema de la sincronización es la codificación bifásica. En este
método, la señal cambia en medio del intervalo de bit, pero no vuelve a cero. En lugar de eso, continúa hasta el polo
opuesto. Como en RZ, estas transiciones a mitad del intervalo permiten la sincronización. En las redes se usan
actualmente dos tipos de codificación bifásica: Manchester y Manchester diferencial

 Manchester: La codificación Manchester usa la inversión en mitad de cada intervalo de bit para sincronizar y
para representar bits. Una transición de negativo a positivo representa un 1 binario y una transición de positivo
a negativo representa un 0 binario. Usando una
transición con ese doble objetivo, la codificación
Manchester logra el mismo nivel de sincronización que RZ,
pero con dos valores de amplitud.
 Manchester diferencial. En la codificación
Manchester diferencial, la inversión en la mitad del
intervalo de bit se usa para sincronización, pero la
presencia o ausencia de una transición adicional al
principio de cada intervalo se usa para identificar el bit.
Una transición significa un 0 binario, mientras que la
ausencia de transición significa un 1 binario. El método Manchester diferencial necesita dos cambios de señal
para representar el 0 binario, pero solamente uno para representar el 1 binario.

Bipolar
La codificación bipolar, como la RZ, usa tres niveles de voltaje: positivo, negativo y cero. Sin embargo, a diferencia de
la RZ, el nivel cero se usa en la codificación bipolar para representar el 0 binario. Los unos se representan alternando
voltajes positivos y negativos. Si el primer bit 1 se representa con una amplitud positiva, el segundo se representará
con una amplitud negativa, el tercero con una amplitud positiva, etc. Esta alternancia ocurre incluso cuando los bits 1
no son consecutivos. Hay tres tipos de codificación bipolar que son populares en la industria de transmisión de datos:
AMI, B8ZS y HDB3.

 Bipolar con Inversión de marca alternada (AMI) es la forma más sencilla de codificación bipolar. En el nombre
inversión de marca alternada, la palabra marca viene de la telegrafía y significa 1. Por tanto, AMI significa
inversión a 1 alterno. Un valor neutral, es decir, un voltaje 0, representa el 0 binario. Los unos binarios se
representan alternando valores de voltaje positivos y negativos. Existe una variación de la ANU bipolar, que
se denomina pseudoternaria, en la que el 0 binario alterna entre valores positivos y negativos. Invirtiendo la
señal en cada ocurrencia ele un 1, la AMI bipolar resuelve dos problemas: primero, el componente DC es cero
y, segundo, una secuencia larga de 1 permanece sincronizada. No hay mecanismo que asegure la
sincronización de tiras largas de ceros.
 Bipolar con sustitución de 8 ceros (B8ZS) es la convención adoptada en Norteamérica para proporcionar
sincronización de secuencias largas de ceros. En la mayoría de los casos, B8ZS funciona de forma idéntica a
AMI bipolar. AMI bipolar cambia polos cada vez que
encuentra un 1. Estos cambios proporcionan la
sincronización necesaria en el receptor. Pero la señal no
cambia durante las cadenas de ceros, por lo que a
menudo la sincronización se pierde. La diferencia entre
B8ZS y la AMI bipolar se produce cuando se encuentran
ocho o más ceros consecutivos dentro del flujo de datos.
La solución provista por B8ZS es forzar cambios
artificiales de señal, denominadas violaciones, dentro de la tira de ceros. Cada vez que hay una sucesión de
ocho ceros, B8ZS introduce cambios en el patrón basados en la polaridad del 1 anterior (el 1 que ocurrió justo
antes de los ceros)

11
 Bipolar 3 de alta densidad (HDB3) es la forma que se le da solución al
problema de ráfagas de ceros consecutivos en Europa y Japón. Esta
convención, denominada HDB3, introduce cambios dentro del patrón
AMI bipolar cada vez que se encuentran cuatro ceros consecutivos en
lugar de esperar por los ocho del método B8ZS usado en Norteamérica.
Aunque el nombre es HDB3, el patrón cambia cada vez que se
encuentra cuatro ceros seguido. Al igual que en B8ZS, el patrón de
violaciones en HDB3 se basa en la polaridad del bit 1 anterior. Pero a
diferencia del B8ZS, HDB3 también mira el número de unos que se han producido en el flujo de bits desde la
última sustitución. Si el número de unos desde la última sustitución es impar; HDB3 pone una violación en el
lugar del cuarto 0 consecutivo. Si la polaridad del bit anterior era positiva, la violación es positiva. Si la
polaridad del bit anterior era negativa, la polaridad es negativa.

Conversión de datos digitales a señales analógicas


En los sistemas digitales, la información que se está procesando se presenta en forma binaria, pero para actuar sobre
el medio externo, debe ser convertida a un valor de tensión analógica capaz de ser procesada por un sistema
electrónico, y transportada por los distintos canales de transmisión.

Por ejemplo, cuando se transmiten datos de una computadora a otra a través de una red telefónica pública, los datos
originales son digitales, pero, debido a que los cables telefónicos transportan señales analógicas, es necesario convertir
dichos datos. Otro ejemplo es la reproducción de música grabada en un disco compacto (CD). Para reproducir la música
grabada en el disco compacto, debe ser convertida en una señal analógica y esta ser aplicada a los altavoces quienes
convertirán las señales analógicas a través de sus movimientos mecánicos en señal audible.

De los muchos mecanismos existentes para la modulación de digital a analógico se van a tratar únicamente los más
útiles para la transmisión de datos, y que son aquellos que abordan tres características de una onda definida por la
función seno: amplitud, frecuencia y fase. Cuando se cambian cualquiera de estas características, se crea una segunda
versión de esta onda. Si se dice entonces que la onda original representa el 1 binario, la variación puede representar
el 0 binario, o viceversa. Por tanto, cambiando el aspecto de una señal eléctrica sencilla hacia delante y hacia atrás,
puede servir para representar datos digitales. Cualquiera de las tres características citadas puede alterarse de esta
forma, dándonos al menos tres mecanismos para modular datos digitales en señales analógicas: Modulación por
desplazamiento de amplitud (ASK), Modulación por desplazamiento de frecuencia (FSK) y Modulación por
desplazamiento dejase (PSK). Además, hay un cuarto mecanismo (y mejor) que combina cambios en fase y amplitud y
que se denomina modulación de amplitud en cuadratura (QAM). QAM es la más eficiente de estas opciones y es el
mecanismo que se usa en todos los módems modernos.

Antes de discutir los métodos específicos de la modulación digital a analógica, hay que definir dos aspectos básicos:
tasa de bit/baudio y señal portadora.

 Tasa de bits y tasa de baudios: Dos términos que se usan frecuentemente en la transmisión de datos son la
tasa de bits y la tasa de baudios. La tasa de bits es el número de bits transmitidos durante un segundo. La tasa
de baudios indica el número de unidades de señal por segundo necesarias para representar estos bits. Cuando
se habla de la eficiencia de las computadoras, la tasa de bit es lo más importante; se quiere saber cuánto
cuesta procesar cada pieza de la información. Sin embargo, en la transmisión de datos es más importante
conocer la eficiencia con que se puede mover los datos de un lado para otro, tanto en piezas como en bloques.
Cuantas menos unidades de señal sean necesarias, más eficiente será el sistema y menor será el ancho de
banda para transmitir más bits; por tanto, es más importante lo concerniente a la tasa de baudios. La tasa de
baudios determina el ancho de banda necesario para enviar la señal. La tasa de bits es igual a la tasa de baudios
por el número de bits representados para cada unidad de señal.
 Señal portadora: En la transmisión analógica, el dispositivo emisor produce una señal de alta frecuencia que
actúa como base para la señal de información. Esta señal base se denomina señal portadora o frecuencia
portadora. El dispositivo que la recibe está ajustado para la frecuencia de la señal portadora que espera del
emisor. La información digital se modula sobre la señal portadora modificando una o más de sus características

12
(amplitud, frecuencia, fase). Este tipo de modificación se denomina modulación (o Modulación por
desplazamiento) y la señal de información se denomina señal modulada.

Modulación por desplazamiento de amplitud (ASK)


En la Modulación por desplazamiento de amplitud (ASK, Amplitude Shift Keying), la potencia de la señal portadora se
cambia para representar el 1 o 0 binario. Tanto la frecuencia como la fase permanecen constantes mientras que la
amplitud cambia, es decir, los dos valores binarios se representan mediante dos amplitudes diferentes de la portadora.
La amplitud pico de la señal durante cada duración del bit es constante y su valor depende del bit (0 o 1). La velocidad
de transmisión usando ASK está limitada por las características físicas del medio de transmisión. La transmisión ASK
es altamente susceptible a la interferencia por ruidos.

Una técnica popular de tipo ASK es la denominada on-off(OOK). En OOK uno


de los valores de bit se representa por la inexistencia de voltaje. La ventaja es
una reducción en la cantidad de energía necesaria para transmitir la
información.

Modulación por desplazamiento de frecuencia (FSK)


En la modulación por desplazamiento de frecuencia (FSK, Frequency Shift
Keying), la frecuencia de la señal portadora cambia para representar el 1 y el
0 binario, es decir que los dos valores binarios se representan mediante dos
frecuencias diferentes próximas a la frecuencia de la portadora. La frecuencia
de la señal durante la duración del bit es constante y su valor depende de un
bit (0 o 1): tanto la amplitud de pico como la fase permanecen constantes.

FSK evita la mayor parte de los problemas de ruidos de ASK. Debido a que el
dispositivo receptor está buscando cambios específicos de frecuencia en un
cierto número de periodos, puede ignorar los picos de voltaje. Los factores
que limitan la FSK son las capacidades físicas de la portadora, por ejemplo, el
ancho de banda. En líneas de calidad telefónica, se utiliza típicamente a
velocidades de hasta 1.200 bps. También se usa frecuentemente en
transmisión de radio a más altas frecuencias (desde 3 hasta 30 MHz).

Modulación por desplazamiento de fase (PSK)


En la modulación por desplazamiento de fase (PSK, Phase Shift Keying), la fase de la portadora cambia para
representar el I o el 0 binario, es decir que la fase de la señal portadora se desplaza para representar con ello a los
datos digitales. Tanto la amplitud de pico como la frecuencia permanecen constantes mientras la fase cambia. Por
ejemplo, si se comienza con una fase de 0 grados para representar un 0 binario, se puede cambiar la fase a 180 grados
para enviar un 1 binario. La fase de la señal durante la duración de cada bit es constante y su valor depende del bit (0
o 1).

PSK no es susceptible a la degradación por ruido que afecta a ASK ni a las limitaciones de banda de FSK. Esto significa
que pequeñas variaciones en la señal se pueden detectar fiablemente en el receptor. Se puede conseguir una
utilización más eficaz del ancho de banda si cada elemento de señalización representa a más de un bit. Por ejemplo,
en lugar de usar un desplazamiento de fase de 180°, como el que se hace en PSK, otra técnica de codificación frecuente
denominada desplazamiento de fase en cuadratura (QPSK, Quadrature phase-shift keying), considera desplazamientos
de fase correspondientes a múltiplos de π/2.

Modulación de amplitud en cuadratura (QAM)


PSK está limitado por la habilidad de los equipos de distinguir pequeñas
diferencias en fase. Este factor limita su tasa ele bits potencial. Hasta
ahora, se han ido alterando únicamente las tres características de una
onda seno una cada vez, pero ¿qué pasa si se alteran dos? Las
limitaciones del ancho ele banda hacen que las combinaciones de FSK con
otros cambios sean prácticamente inútiles. Pero ¿por qué no combinar
ASK y PSK? En ese caso se podrían tener x variaciones en fase e y

13
variaciones en amplitud, dándonos x veces y posibles variaciones y el número correspondiente de bits por variación.
La modulación de amplitud en cuadratura (QAM) hace justamente eso.

Varios diseños QAM enlazan amplitudes específicas con fases específicas. Esto significa que, incluso con los problemas
de ruido asociados con el desplazamiento en amplitud, el significado de un desplazamiento se pueda recuperar a partir
de la información de fase. Por tanto, en general, se puede decir que una de las grandes ventajas de QAM sobre ASK es
su menor susceptibilidad al ruido.

Conversión de datos analógicos a señales digitales


A veces es necesario digitalizar una señal analógica, por ejemplo, cuando se quiere enviar la voz humana a larga
distancia, ya que las señales digitales son menos vulnerables al ruido. Esto se denomina conversión de datos
analógicos a señales digitales o digitalización de una señal analógica. Para llevarla a cabo, es necesario efectuar una
reducción del número de valores, potencialmente infinitos, en un mensaje analógico, de forma que puedan ser
representados como un flujo digital de ceros y unos, con una mínima perdida de información.

Una vez que los datos analógicos se convierten a digitales, puede ocurrir lo siguiente:

1. Los datos digitales se transmiten usando NRZ-L. En este caso, se habrá realizado directamente una conversión
de datos analógicos a señales digitales.
2. Los datos digitales se codifican usando un código diferente al NRZ-L. Por tanto, en este caso se necesitaría un
paso adicional.
3. Los datos digitales se convierten en señales analógicas, usando una de las técnicas de modulación

El dispositivo que se utiliza para la conversión de los datos analógicos en digitales, y que posteriormente recupera los
datos analógicos iniciales de los digitales se denomina codee (codificador-decodificador). En esta sección se
examinarán las dos técnicas más importantes que se usan en los codec, es decir, la modulación por impulsos
codificados y la modulación delta.

Modulación por codificación de impulsos


La modulación por codificación de impulsos (PCM, Pulse Code Modulation) se basa en el teorema de muestreo de
Nyquist, que afirma que para obtener toda la información que transporta una señal, es decir, poder recrearla sin
perdida alguna de información, es necesario que la tasa de muestreo sea, al menos, el doble que la frecuencia más
alta de la señal original.

Esta técnica toma una señal analógica, la a muestrea y genera una serie de pulsos basados en los resultados del
muestreo. El término muestreo significa medir la amplitud de la señal en intervalos iguales.

En PAM, la señal original se muestrea en intervalos iguales ele tiempo. En un determinado momento, se lee el nivel
ele la señal y se mantiene brevemente. El valor muestreado ocurre únicamente de forma instantánea en la onda
continua, pero se generaliza en el resultado PAM en un corto, pero que se puede medir, periodo de tiempo. La razón
de que PAM no sea útil para la transmisión de datos es que, aunque traduce la onda original en una serie de pulsos,
estos pulsos todavía no tienen ninguna amplitud (son todavía una señal analógica, no digital). Para convertirlos en una
señal digital, es necesario codificarlos usando la modulación por codificación en pulsos (PCM). Esto implica que la
modulación por amplitud de pulsos no se usa en sí misma para la transmisión de datos.

Modulación por codificación en pulsos (PCM)


PCM modifica los pulsos creados por PAM para crear una señal completamente digital. Para hacerlo, PCM cuantifica
primero los pulsos PAM. La cuantificación es el método para asignar valores integrales dentro de un rango específico
de instancias muestreadas, en donde, posteriormente, se traducen esos valores a su representación en binario. A
continuación, se transforman esos valores binarios en una señal digital usando alguna técnica de codificación digital a
digital.

La PCM está realmente compuesta por cuatro procesos distintos: PAM, cuantificación, cuantificación binaria y
codificación digital a digital.

14
Modulación delta (DM)
Para mejorar las prestaciones de la codificación PCM, o para reducir su complejidad, se ha desarrollado un gran
número de técnicas. Una de las alternativas de mayor aceptación es la modulación delta (DM).

En la modulación delta, la entrada analógica se aproxima mediante una función escalera que en cada intervalo de
muestreo sube o baja un nivel de cuantización. La característica principal de la función escalera es que su
comportamiento es binario: en cada instante de muestreo la función sube o baja una cantidad constante. Por tanto,
la salida del modulador delta se puede representar mediante un único bit para cada muestra. Esto implica que se
obtenga una cadena de bits que aproxima a la derivada de la señal analógica de entrada en lugar de a la propia
amplitud: se genera un 1 si la función escalera sube en el siguiente intervalo, o un 0 en cualquier otro caso.

La transición (hacia arriba o hacia abajo) que ocurre en cada intervalo de muestreo se elige de tal manera que la
función escalera aproxime tanto como sea posible a la forma de onda de la señal original. Si el valor de la forma de
onda muestreada supera el de la función escalera, se genera un 1, en otro caso se generará un 0. Por tanto, la función
escalera siempre se modifica en la dirección de la señal de entrada. La salida del proceso DM es por tanto una
secuencia binaria que se puede usar en el receptor para reconstruir la función escalera.

Conversión de datos analógicos a señales analógicas


La conversión de analógico a analógico es la representación de información analógica mediante una señal analógica.
La radio es un ejemplo de una comunicación de analógico a analógico. La modulación analógico a analógico se puede
conseguir de tres formas: modulación en amplitud (AM), modulación en frecuencia (FM) y modulación en fase (PM).
Para la transmisión de señales analógicas mediante modulación analógica, existen fundamentalmente dos razones:

 Para llevar a cabo una transmisión más efectiva puede que se necesite una frecuencia mayor. En los medios
no guiados es prácticamente imposible transmitir señales en banda base (cuando se transmite una señal
usando el mismo espectro de frecuencias original) ya que el tamaño de las antenas tendría que ser de varios
kilómetros de diámetro.
 La modulación permite la multiplexación por división en frecuencias

Modulación en amplitud (AM)


En transmisión AM (Amptitude Modulation), la señal portadora se modula de forma que su amplitud varíe con los
cambios de amplitud de la señal modulada. La frecuencia y la fase de la portadora son siempre las mismas; solamente
la amplitud cambia para seguir las variaciones en la información. La señal modulada se convierte en una envoltura de
la portadora. En radio AM, el ancho de banda de la señal modulada debe ser al menos dos veces el ancho de banda de
la señal que se modula.

Modulación en frecuencia (FM)


En la transmisión FM (Frequency Modulationy) se modula la frecuencia de la señal portadora para seguir los cambios
en los niveles ele voltaje (amplitud) de la señal modulada. La amplitud pico y la fase de Ia señal portadora permanecen
constantes, pero a medida que la amplitud de la señal de información cambia, la frecuencia de la portadora cambia
de forma. En la radio FM, el ancho de banda de la señal modulada debe ser 10 veces el ancho de banda de la señal
que se modula.

Modulación en fase (PM)


Debido a los requisitos ele hardware más sencillos, la modulación en fase (PM, Phase ModuIation) se usa en algunos
sistemas como alternativa a la modulación en frecuencia. En la transmisión PM, la fase de la señal portadora se modula
para seguir los cambios de voltaje (amplitud) de la señal modulada. La amplitud pico y la frecuencia de la señal
portadora permanecen constantes, pero a medida que la señal de información cambia, la fase de la portadora cambia
de forma correspondiente. Los análisis y el resultado final (señal modulada) son similares a los de la modulación en
frecuencia.

Medios de transmisión
En los sistemas de transmisión de datos, el medio de transmisión es el camino físico entre el transmisor y el receptor.
Los medios de transmisión se clasifican en guiados y no guiados. En ambos casos, la comunicación se lleva a cabo con
ondas electromagnéticas. En los medios guiados las ondas se confinan en un medio sólido, como, por ejemplo, el par
15
trenzado de cobre, el cable de cobre coaxial o la fibra óptica; son aquellos que proporcionan un conductor de un
dispositivo al otro. La atmósfera o el espacio exterior son ejemplos de medios no guiados, que proporcionan un medio
de transmisión de las señales, pero sin confinarlas; esto se denomina transmisión inalámbrica.

Las características y calidad de la transmisión están determinadas tanto por el tipo de señal, como por las
características del medio. En el caso de los medios guiados, el medio en sí mismo es lo más importante en la
determinación de las limitaciones de transmisión. En medios no guiados, el ancho de banda de la señal emitida por la
antena es más importante que el propio medio a la hora de determinar las características de la transmisión.

Par trenzado
El par trenzado es el medio guiado más económico y a la vez más usado, y consiste en dos de cables de cobre embutidos
en un aislante, entrecruzados en forma de espiral. Cada par de cables constituye sólo un enlace de comunicación.
Normalmente, se utilizan haces en los que se encapsulan varios pares mediante una envoltura protectora. El uso del
trenzado tiende a reducir las interferencias electromagnéticas (diafonía) entre los pares adyacentes dentro de una
misma envoltura. Para este fin, los pares adyacentes dentro de una misma envoltura protectora se trenzan con pasos
de torsión diferentes.

Tanto para señales analógicas como para señales digitales, el par trenzado es con diferencia el medio de transmisión
más usado. Por supuesto es el medio más usado en las redes de telefonía, igualmente su uso es básico en el tendido
de redes de comunicación dentro de edificios. Es mucho menos costoso que cualquier otro medio de transmisión
guiado (cable coaxial y fibra óptica), y a la vez es sencillo de manejar. Ahora bien, comparado con los anteriores el par
trenzado permite menores distancias, menor ancho de banda y menor velocidad de transmisión.

Este medio se caracteriza por su gran susceptibilidad a las interferencias y al ruido, debido a su fácil acoplamiento con
campos electromagnéticos externos. Así, por ejemplo, un cable conductor situado en paralelo con una línea de
potencia que conduzca corriente alterna, se verá negativamente afectado por ésta. El ruido impulsivo también afecta
a los pares trenzados. A su vez, y consecuencia de los hilos que conforman cada par, se puede producir diafonía
(crosstalk). Para reducir estos efectos negativos es posible tomar algunas medidas. Por ejemplo, el apantallamiento
del cable con una malla metálica reduce las interferencias externas. El trenzado en los cables reduce las interferencias
de baja frecuencia, y el uso de distintos pasos de torsión entre pares adyacentes reduce la diafonía. El ancho de banda
en el cobre depende de la resistencia del conductor.

Cable de par trenzado sin blindaje (UTP)


El cable de par trenzado sin blindaje (UTP, Unshielded Twisted Pair) es el tipo más frecuente de medio de comunicación
que se usa actualmente. Aunque es el más familiar por su uso en los sistemas telefónicos, su rango ele frecuencia es
adecuado para transmitir tanto datos como voz.

En el pasado se usaron dos cables planos paralelos para la comunicación. Sin embargo, la interferencia
electromagnética de dispositivos tales como motores podía originar ruidos en los cables. Si los dos cables son
paralelos, el cable más cercano a la fuente de ruido tiene más interferencia y termina con un nivel de tensión más alto
que el cable que está más lejos, lo que da como resultado cargas distintas y una señal dañada. Pero, si los dos cables
están trenzados entre sí en intervalos regulares, cada cable está cerca de la fuente del ruido durante la mitad del
tiempo y lejos durante la otra mitad. Por tanto, con el trenzado, el efecto acumulativo de la interferencia es igual en
ambos cables.

Las ventajas del UTP son su coste y su facilidad ele uso. El UTP es barato, flexible y fácil de instalar. En muchas
tecnologías ele LAN, incluyendo Ethernet y Anillo con paso de testigo, se usa UTP de gama alta. En 1991, la EIA
(Electronic Industries Association) publicó el estándar EIA-568, que define el uso de pares trenzados sin apantallar de
calidad telefónica y de pares apantallados como medios para aplicaciones de transmisión de datos.

 Categoría 3 (Cat 3):


o Uso: Voz y 10 Mbps Ethernet, datos.
o Ventajas: Trenzado reduce la interferencia.
o Rango de frecuencias: Hasta 16 MHz.
o Paso: de 7,5 cm.
16
 Categoría 5 (Cat 5):
o Uso: para redes 100 Mbps Fast ethernet, datos.
o Cantidad de pares: 4
o Ventajas: Mayor paso de trenzado y aislación de Teflón.
o Rango de frecuencias: Hasta 100 MHz.
o Paso: 0,6 cm.
 Categoría 5a (Cat 5a):
o Uso: Para redes 1000BASE-T Gigabit Ethernet en datos.
o Cantidad de pares: 4
o Rango de frecuencias: Hasta 100 MHz.
o Paso: 0,6 cm.
 Categoría 6 (Cat 6):
o Uso: Datos.
o Cantidad de pares: 4
o Ventajas: Se mejoró en base a su característica constructiva el ruido de Crosstalk.
o Rango de frecuencias: Hasta 250 MHz.
 Categoría 6a (Cat 6a):
o Uso: Para redes 1000BASE-T / 1000BASE-TX (Gigabit Ethernet) and 10GBASE-T, Ethernet, datos.
o Cantidad de pares: 4
o Rango de frecuencias: Hasta 500 MHz.
 Categoría 7:
o Uso: para redes 10Gigabit ethernet en Datos.
o Cantidad de pares: 4
o Ventajas: Se mejoró en base a su característica constructiva el ruido de Crosstalk agregando un
cobertor metálico por par.
o Rango de frecuencias: Hasta 600 MHz.

Cable de par trenzado blindado (STP)


El cable de par trenzado blindado (STP, Shielded Twisted Pair) tiene una funda de metal o un recubrimiento de malla
entrelazada que rodea cada par de conductores aislados. La carcasa de metal evita que penetre ruido
electromagnético. También elimina un fenómeno denominado interferencia, que es un efecto indeseado de un
circuito (o canal) sobre otro circuito (o canal). Se produce cuando una línea (que actúa como antena receptora) capta
alguna ele las señales que viajan por otra línea (que actúa como antena emisora). Este efecto se experimenta durante
las conversaciones telefónicas cuando se oyen conversaciones de fondo.

El STP tiene las mismas consideraciones de calidad y usa los mismos conectores que el UTP, pero es necesario conectar
el blindaje a tierra. Los materiales y los requisitos ele fabricación del STP son más caros que los del UTP, pero clan
como resultado cables menos susceptibles al ruido.

Cable coaxial
El cable coaxial es un cable utilizado para transportar señales eléctricas de
alta frecuencia que posee dos conductores concéntricos, uno central,
llamado vivo, encargado de llevar la información, y uno exterior, de
aspecto tubular, llamado malla o blindaje, que sirve como referencia de
tierra y retorno de las corrientes. Entre ambos se encuentra una capa
aislante llamada dieléctrico, en forma de una serie de anillos, de cuyas
características dependerá principalmente la calidad del cable. Todo el
conjunto suele estar protegido por una cubierta aislante.

Existen múltiples tipos de cable coaxial, cada uno con un diámetro e impedancia diferentes. El cable coaxial no es
habitualmente afectado por interferencias externas y diafonías, y es capaz de lograr altas velocidades de transmisión
en largas distancias. Por esa razón, se utiliza en redes de comunicación de banda ancha (cable de televisión) y cables
de banda base (Ethernet).

17
El cable coaxial se usa para transmitir tanto señales analógicas como digitales. A su vez, al tener una respuesta en
frecuencias mejor que la del par trenzado, permite mayores frecuencias y velocidades de transmisión. Sus principales
limitaciones son la atenuación, el ruido térmico, y el ruido de intermodulación. Este último aparece sólo cuando se
usan simultáneamente sobre el mismo cable varios canales (FDM) o bandas de frecuencias.

Para la transmisión de señales analógicas a larga distancia, se necesitan amplificadores separados entre sí a distancias
del orden de pocos kilómetros, estando más alejados cuanto mayor es la frecuencia de trabajo. El espectro de la
señalización analógica se extiende hasta aproximadamente 500 MHz. Para señalización digital, en cambio, se necesita
un repetidor aproximadamente cada kilómetro, e incluso menos cuanto mayor sea la velocidad de transmisión.

Fibra óptica
Uno de los avances tecnológicos más significativos en la transmisión de datos ha sido el desarrollo de los sistemas de
comunicación de fibra óptica. No en vano, la fibra es el medio predilecto para las telecomunicaciones a larga distancia.

La fibra óptica es un medio flexible y fino capaz de confinar un haz de naturaleza óptica. Para construirla se pueden
usar diversos tipos de cristales y plásticos. Un cable de fibra óptica tiene forma cilíndrica y esta formado por tres
secciones concéntricas: el núcleo, el revestimiento y la cubierta (Figura 4.2c). El núcleo es la sección más interna, está
constituido por una o varias hebras o fibras muy finas de cristal o plástico y tiene un diámetro entre 8 y 100 µm. Cada
fibra está rodeada por su propio revestimiento, que no es sino otro cristal o plástico con propiedades ópticas distintas
a las del núcleo. La separación entre el núcleo y el revestimiento actúa como un reflector perfecto confinando el haz
de luz que de otra manera escaparía del núcleo. La capa más exterior que envuelve a uno o varios revestimientos es
la cubierta. La cubierta está hecha de plástico y otros materiales dispuestos en capas para proporcionar protección
contra la humedad, la abrasión, aplastamientos y otros peligros.

La fibra óptica usa la reflexión para transmitir la luz a través de un canal. Un núcleo de cristal o plástico se rodea con
una cobertura de cristal o plástico menos denso. La diferencia de densidad de ambos materiales debe ser tal que el
rayo de luz que se mueve a través del núcleo sea reflejado por la cubierta en lugar de ser refractado por ella (Este
fenómeno se da en cualquier medio transparente que tenga un índice de refracción mayor que el medio que lo
contenga). La información se codifica dentro de un rayo de luz como series de destellos encendido apagado que
representan los bits uno y cero.

La tecnología actual proporciona dos modos de propagación de la luz a lo largo de canales ópticos, cada uno de los
cuales necesita fibras con características distintas: multimodo y monomodo, A su vez, el multimodo se puede
implementar de dos maneras: índice escalonado o de índice de gradiente gradual.

Fibra multimodo
La fibra multimodo se denomina así por la existencia de múltiples rayos de luz de una fuente luminosa que se mueven
a través del núcleo por caminos distintos. Cómo se mueven estos rayos dentro del cable depende de la estructura del
núcleo.

En la fibra multimodo de índice escalonado, la densidad del núcleo permanece constante desde el centro hasta los
bordes. Un rayo de luz se mueve a través de esta densidad constante en línea recta hasta que alcanza la interfaz del
núcleo y la cubierta. En la interfaz, hay un cambio abrupto a una densidad más baja que altera el ángulo de movimiento
del rayo. El término índice escalonado se refiere a la rapidez de
este cambio.

Cuanto mayor sea el ángulo de incidencia, más amplio es el ángulo


de reflexión. Un rayo con un ángulo de incidencia menor necesitará
más balanceos para viajar la misma distancia que un rayo con un ángulo de incidencia mayor. En consecuencia, el rayo
con el ángulo de incidencia más pequeño debe viajar más rápido para alcanzar su destino. Esta diferencia en la longitud
del camino significa que distintos rayos llegan al destino en momentos distintos. Puesto que los distintos rayos son
recombinados en el receptor, el resultado es una señal que no es ya una réplica exacta de la señal que se retransmitió.
Esta señal ha siclo distorsionada por los retrasos de la propagación. Esta distorsión limita la tasa de datos disponible y
hace que el cable multimodo de índice escalonado sea inadecuado para ciertas aplicaciones precisas. Se usa en
transmisión de corta distancia, porque pierde potencia, y en redes LAN debido a que es económico.

18
Hay un segundo tipo de fibra, denominado fibra multimodo de índice gradual, que decrementa esta distorsión de la
señal a través del cable. La palabra índice se refiere en este caso al índice de refracción. Como se ha visto
anteriormente, el índice de refracción está relacionado con la densidad. Por tanto, una fibra de índice gradual tiene
densidad variable. La densidad es mayor en el centro del núcleo y decrece gradualmente hasta el borde.

La señal se introduce en el centro del núcleo. A partir de este


punto, solamente el rayo horizontal se mueve en línea recta a
través de la zona central, de la densidad constante. Los rayos en
otros ángulos se mueven a través ele una serie de densidades
que cambian constantemente. Cada diferencia de densidad hace que el rayo se refracte formando una curva. Además,
cambiar la refracción cambia la distancia ele cada rayo que viaja en el mismo periodo de tiempo, dando como resultado
que los rayos distintos se intersecan a intervalos regulares. Si se sitúa cuidadosamente el receptor en uno de estos
intervalos se puede conseguir reconstruir la señal con una precisión mucho mayor. Se lo utiliza en redes LAN de área
local.

Fibra monomodo
La fibra monomodo usa fibra de índice escalonado y una fuente de luz muy enfocada que limita los rayos a un rango
muy pequeño de ángulos, todos cerca de la horizontal. La fibra monomodo se fabrica con un diámetro mucho más
pequeño que las fibras multimodo y con una densidad (índice de refracción) sustancialmente menor. El decrecimiento
de densidad da como resultado un ángulo crítico que está muy cerca de los 90° para hacer que la propagación de los
rayos sea casi horizontal. En este caso, la propagación de los distintos rayos es casi idéntica y los retrasos son
despreciables. Todos los rayos llegan al destino «juntos» y se pueden recombinar sin distorsionar la señal. Se lo utiliza
en largas distancias, ya que impide la distorsión

La principal ventaja que ofrece el cable de fibra óptica sobre los pares trenzados y el cable coaxial son: inmunidad al
ruido, menor atenuación de la señal y ancho de banda mayor.

 Inmunidad al ruido. Debido a que las transmisiones por fibra óptica usan luz en lugar de electricidad, el ruido
no es importante. La luz externa, la única interferencia posible, es bloqueada por el recubrimiento opaco
exterior del canal.
 Menor atenuación de la señal. La distancia de transmisión de la fibra óptica es significativamente mayor que
Ja que se consigue en otros medios guiados. Una señal puede transmitirse a lo largo de kilómetros sin
necesidad de regeneración.
 Ancho de banda mayor. El cable de fibra óptica puede proporcionar anchos de banda (y por tanto tasas de
datos) sustancialmente mayores que cualquier cable de par trenzado o coaxial. Actualmente, las tasas de datos
y el uso del ancho de banda en cables de fibra óptica no están limitados por el medio, sino por la tecnología
disponible de generación y de recepción de la señal.

Las principales desventajas de la fibra óptica son el coste, la instalación, el mantenimiento y la fragilidad.

 Coste. El cable de fibra óptica es caro. Debido a que cualquier impureza o imperfección del núcleo puede
interrumpir la señal, la fabricación debe ser laboriosamente precisa. Igualmente, conseguir una fuente de luz
láser puede costar miles ele dólares, comparado a los cientos de dólares necesarios para los generadores de
señales eléctricas.
 Instalación/mantenimiento. Cualquier grieta o rozadura del núcleo de un cable de fibra óptica difumina la luz
y altera la señal. Todas las marcas deben ser pulidas y fundidas con precisión. Todas las conexiones deben
estar perfectamente alineadas y ser coincidentes con el tamaño del núcleo y deben proporcionar uniones
completamente acopladas, pero sin excesivas presiones. Las conexiones de los medios metálicos, por otro
lado, se pueden hacer con herramientas de cortado y de presión relativamente poco sofisticadas.
 Fragilidad. La fibra de cristal se rompe más fácilmente que el cable, lo que la convierte en menos útil para
aplicaciones en las que es necesario transportar el hardware.

Transmisión inalámbrica
En medios no guiados, tanto la transmisión como la recepción se lleva a cabo mediante antenas. En la transmisión, la
antena radia energía electromagnética en el medio (normalmente el aire), y en la recepción la antena capta las ondas

19
electromagnéticas del medio que la rodea. Básicamente en las transmisiones inalámbricas hay dos tipos de
configuraciones: direccional y omnidireccional. En la primera, la antena de transmisión emite la energía
electromagnética concentrándola en un haz; por tanto, en este caso las antenas de emisión y recepción deben estar
perfectamente alineadas. En el caso omnidireccional, por contra, el diagrama de radiación de la antena es más
disperso, emitiendo en todas direcciones, pudiendo la señal ser recibida por varias antenas. En general, cuanto mayor
es la frecuencia de la señal transmitida es más factible confinar la energía en un haz direccional.

La transmisión de ondas de radio utiliza cinco tipos de propagación distintos:


superficie, troposférica, ionosférica, línea de visión y espacio. La tecnología de
radio considera que la tierra está rodeada por dos capas de atmósfera: la
troposfera y la ionosfera. La troposfera es la porción de la atmósfera que se
extiende hasta aproximadamente 45 km desde la superficie de la tierra. Es acá
donde se producen las nubes, el viento, las variaciones de temperatura y el clima
en general ocurren en la troposfera, al igual que los viajes ele avión. La ionosfera
es la capa de atmósfera por encima de la troposfera, pero por debajo del espacio.
Está más allá de Jo que nosotros denominamos atmósfera y contiene partículas
libres cargadas eléctricamente.

 Propagación en superficie. En la propagación en superficie, las ondas de radio viajan a través de la porción
más baja de la atmósfera, abrazando a la tierra. A las frecuencias más bajas, las señales emanan en todas las
direcciones desde la antena de transmisión y sigue la curvatura del planeta. La distancia depende de la
cantidad de potencia en la señal: cuanto mayor es la potencia, mayor es la distancia. La propagación en
superficie también puede tener lugar en el agua del mar.
 Propagación troposférica. La propagación troposférica puede actuar de dos formas. O bien se puede dirigir la
señal en línea recta de antena a antena (visión directa) o se puede radiar con un cierto ángulo hasta los niveles
superiores de la troposfera donde se refleja hacia la superficie de la tierra. El primer método necesita que la
situación del receptor y el transmisor esté dentro de distancias de visión, limitadas por la curvatura de la tierra
en relación a la altura de las antenas. El segundo método permite cubrir distancias mayores.
 Propagación ionosféríca. En la propagación ionosférica, las ondas de radio de más alta frecuencia se radian
hacia la ionosfera donde se reflejan de nuevo hacia la tierra. La densidad entre la troposfera y la ionosfera
hace que cada onda de radio se acelere y cambie de dirección, curvándose de nuevo hacia la tierra. Este tipo
ele transmisión permite cubrir grandes distancias con menor potencia de salida.
 Propagación por visión directa. En la propagación por visión directa, se transmiten señales de muy alta
frecuencia directamente de antena a antena siguiendo una línea recta. Las antenas deben ser direccionales,
estando enfrentadas entre sí, y o bien están suficientemente altas o suficientemente juntas para no verse
afectadas por la curvatura de la tierra.
 Propagación por el espacio. La propagación por el espacio utiliza satélites como retransmisores, en lugar de
la refracción atmosférica. Una señal radiada es recibida por un satélite situado en órbita, que la reenvía de
vuelta a la tierra para el receptor adecuado. La transmisión vía satélite es básicamente una transmisión de
visión directa con un intermediario (el satélite). La distancia al satélite de la tierra es equivalente a una antena
de súper alta ganancia e incrementa enormemente la distancia que puede ser cubierta por una señal.

Microondas terrestres
Las microondas terrestres no siguen la curvatura de la tierra y por tanto necesitan equipo de transmisión y recepción
por visión directa. La distancia que se puede cubrir con una señal por visión directa depende principalmente de Ja
altura ele la antena: cuanto más altas sean las antenas, más larga es la distancia que se puede ver. La altura permite
que la señal viaje más lejos sin ser interferida por la curvatura del planeta y eleva la señal por encima de muchos
obstáculos de la superficie, como colinas bajas y edificios altos que de otra forma bloquearían la transmisión. 𝐷 =
4
7,14√3 ℎ. Por ejemplo, dos antenas de microondas con altura de 100 metros pueden separarse una distancia igual a
4
7,14√3 100 = 82,44 km.

20
Las señales de microondas se propagan en una dirección concreta, lo que significa que hacen falta dos frecuencias
para una comunicación en dos sentidos, como por ejemplo una conversación telefónica. Una frecuencia se reserva
para la transmisión por microondas en una dirección y Ja otra para Ja transmisión en la otra. Cada frecuencia necesita
su propio transmisor y receptor. Actualmente, ambas partes del equipo se combinan habitualmente en un equipo
denominado transceptor, lo que permite usar una única antena para dar servicio a ambas frecuencias y funciones.

Para llevar a cabo transmisiones a larga distancia, se utiliza la concatenación de enlaces punto a punto entre antenas
situadas en torres adyacentes, hasta cubrir la distancia deseada. El uso principal de los sistemas de microondas
terrestres son los servicios de telecomunicación de larga distancia, como alternativa al cable coaxial o a las fibras
ópticas. Para una distancia dada, las microondas requieren menor número de repetidores o amplificadores que el
cable coaxial, pero por contra, necesita que las antenas estén perfectamente alineadas. El uso de las microondas es
frecuente en la transmisión de televisión y de voz.

Las frecuencias usadas para este tipo de radioenlaces son regidas por la CNC, quien define la zona, la potencia y la
frecuencia de uso. Estas bandas son:

 2,4 Ghz y 5,8 Ghz. Para radios de uso comercial sin necesidad de emplear una licencia para su uso. Es posible
con buenas antenas y respetando las alturas de las antenas. Alcanzan distancias de hasta 60 Km de distancia.
 7 Ghz, sus bandas son licenciadas y se pueden alcanzar distancias hasta de 40 Km.
 10,5 Ghz. Esta banda de frecuencias es de uso restringido ya que en Argentina necesita de la licencia de la
CNC. Es la banda más empleada por los radioenlaces cuya cobertura es omnidireccional del tipo punto
multipunto.
 15 Ghz y 23 Ghz, sus bandas son también licenciadas por la CNC y se alcanzan distancias de hasta 20 Km.

Comunicación vía satélite


Las transmisiones vía satélite se parecen mucho a las transmisiones con microondas por visión directa en la que las
estaciones son satélites que están orbitando la tierra. El principio es el mismo que con las microondas terrestres,
excepto que hay un satélite actuando como una antena súper alta y como repetidor a la vez. Aunque las señales que
se transmiten vía satélite siguen teniendo que viajar en línea recta, las limitaciones impuestas sobre la distancia por la
curvatura de la tierra son muy reducidas. De esta forma, los satélites retransmisores permiten que las señales de
microondas se puedan transmitir a través de continentes y océanos con un único salto.

El satélite recibe la señal en una banda de frecuencia (canal ascendente), la amplifica o repite, y posteriormente la
retransmite en otra banda de frecuencia (canal descendente). Cada uno de los satélites geoestacionarios operará en
una serie de bandas de frecuencias llamadas «transponder channels» o simplemente «transponders». Para que un
satélite de comunicaciones funcione con eficacia, generalmente se exige que se mantenga en una órbita
geoestacionaria, es decir que mantenga su posición respecto de la tierra. Si no fuera así, no estaría constantemente
alineado con las estaciones base. El satélite, para mantenerse geoestacionario, debe tener un periodo de rotación
igual al de la tierra.

Si dos satélites utilizaran la misma banda de frecuencias y estuvieran suficientemente próximos, podrían interferir
mutuamente. Para evitar esto, los estándares actuales exigen una separación mínima de 4° (desplazamiento angular
medido desde la superficie terrestre) en la banda 4/6 GHz, y una separación de al menos 3° a 12/14 GHz. Por lo tanto,
el número máximo de posibles satélites está bastante limitado.

Las microondas vía satélite pueden proporcionar capacidad de transmisión a y desde cualquier localización en la tierra,
sin importar lo remota que esta sea. Esta ventaja hace que las comunicaciones de alta calidad estén disponibles en
lugares no desarrollados del mundo sin necesidad de hacer grandes inversiones en infraestructura de tierra. Del mismo
modo, y gracias a su capacidad de múltiples destinos, en la actualidad se están utilizando para la transmisión de
televisión. Además, se utiliza también para proporcionar enlaces punto a punto entre las centrales telefónicas en las
redes públicas de telefonía. Es el medio óptimo para los enlaces internacionales que tengan un alto grado de utilización
y es competitivo comparado con los sistemas terrestres en muchos enlaces internacionales de larga distancia.

21
Las frecuencias reservadas para la comunicación por microondas vía satélite están en el rango de los gigahertz (GHz).
Cada satélite envía y recibe dos bandas distintas. La transmisión desde la
tierra al satélite se denomina enlace ascendente. La transmisión desde el
satélite a la tierra se denomina enlace descendente. Se transmite y recibe
en frecuencias diferentes para evitar las interferencias en el propio satélite.
La Tabla muestra los nombres de las bandas de frecuencias para cada rango.

La banda C es la primera banda utilizada históricamente. Las aplicaciones incluyen todo tipo de redes: televisión vía
satélite, internet, etc. De hecho, en el pasado, la banda C era la única opción disponible para la comunicación satelital.
Sin embargo, desde la introducción de la banda Ku que utilizan antenas más pequeñas, el uso de sistemas en banda C
ha disminuido enormemente, mientras que los sistemas Ku han disfrutado de un éxito sin precedentes. Los tamaños
de antena típicos en la Banda C son muy grandes, de 2 a 3,5 m de diámetro. La banda C sólo se recomienda para las
zonas en las que la cobertura de satélite de banda Ku no está disponible.

La banda Ku se usa principalmente para las comunicaciones por satélite, en particular para el acceso a redes de datos
(Internet) en lugares remotos o para la red de televisión y la radiodifusión de contenidos por satélite. Banda Ku se ha
convertido en el estándar en VSAT para banda ancha Internet. Los tamaños de antena típicos en la Banda Ku son
pequeños, de 0,8 a 1,2 m de diámetro. En los últimos años el precio de los equipos ha caído a un nivel espectacular,
lo que permite a los operadores de satélite de banda ancha desde hace poco tiempo ofrecer productos y servicios a
precios asequibles para ciudadanos y pequeñas empresas, aunque no no es una tecnología tan barata como el ADSL.
Por ello su uso es adecuado sólo en zonas aisladas y sin falta de cobertura por tierra.

El uso de la banda Ka es aun marginal. Al parecer, los proyectos comerciales disponibles hoy en banda Ka son poco
maduros técnicamente, sufren mucho del calentamiento global y la dinámica climática. En efecto, el aumento de la
lluvia y las condiciones meteorológicas variables afectan terriblemente a las estabilidades de los servicios en banda Ka
actuales.

Multiplexación
Siempre que la capacidad de transmisión de un medio que enlaza dos dispositivos sea mayor que las necesidades de
transmisión de los dispositivos, el enlace se puede compartir, de forma similar a como una gran tubería de agua puede
llevar agua al mismo tiempo a varias casas separadas. La multiplexación es el conjunto de técnicas que permite la
transmisión simultánea de múltiples señales a través de un único enlace de datos.

En un sistema multiplexado, n dispositivos comparten la capacidad de un mismo enlace. Así, los dispositivos de un
extremo envían sus flujos de transmisión a un multiplexor (MUX), que los combina en un único flujo de datos. El
extremo receptor se introduce en un demultiplexor (DEMUX), que separa el flujo de datos en sus transmisiones
componentes, y los dirige a sus correspondientes receptores.

Multiplexación por división de frecuencia


La multiplexación por división de frecuencia (FDM, Frequency Division Multiplexing) es una técnica analógica que se
puede aplicar cuando el ancho de banda de un enlace es mayor que los anchos de banda combinados de las señales a
transmitir. En FDM las señales generadas por cada dispositivo emisor se modulan usando distintas frecuencias
portadoras, usando modulación AM o FM. A continuación, estas señales moduladas se combinan en una única señal
compuesta que será transportada por el enlace. Las frecuencias portadoras están separadas por un ancho de banda
suficiente como para acomodar la señal modulada. Estos rangos del ancho de banda son los canales a través de los
que viajan las distintas señales. Los canales deben estar separados por tiras de anchos de banda sin usar (bandas de
guarda) para prevenir que las señales se solapen. Las frecuencias portadoras no deben interferir con las frecuencias
de datos originales. Es decir, el ancho de banda de la señal compuesta resultante es más de tres veces el ancho de
banda de cada señal ele entrada: tres veces el ancho de banda para acomodar los canales necesarios, más el ancho de
banda extra para permitir las bandas de guarda necesarias.

Se puede considerar la FDM como una técnica de multiplexación analógica; sin embargo, esto no significa que FDM
no se pueda utilizar para combinar fuentes que envían señales digitales. Una señal digital se puede convertir a una
señal analógica antes de que FDM se utilice para multiplexarlas.

22
Este proceso se utiliza, en especial, en líneas telefónicas y en conexiones físicas de pares trenzados para incrementar
la velocidad de los datos. En el extremo de la línea, el multiplexor encargado de recibir los datos realiza la
demodulación la señal (la señal compuesta se pasa a través de filtros, cada uno centrado en una de las diferentes
portadoras) obteniendo separadamente cada uno de los subcanales. Esta operación se realiza de manera transparente
a los usuarios de la línea. Se emplea este tipo de multiplexación para usuarios telefónicos, radio o TV que requieren el
uso continuo del canal.

La Multiplexación por División de Frecuencias Ortogonales, en inglés Orthogonal Frequency Division Multiplexing
(OFDM), o Discrete Multi-tone Modulation (DMT) es una técnica de transmisión que consiste en la multiplexación de
un conjunto de ondas portadoras de diferentes frecuencias, donde cada una transporta información, la cual es
modulada en QAM o en PSK. Estas ondas portadoras de distintas frecuencias son generadas por la división de una
onda portadora central con ancho de banda B en pequeñas portadoras B1, B2, B3...Bn; es decir, si no utilizáramos la
técnica de transmisión OFDM, se enviaría normalmente la información en una única onda portadora con ancho de
banda B, pero al utilizar la técnica OFDM dividimos esa onda portadora en varias subportadoras con menor ancho de
banda para que estas tengan una mejor respuesta en frecuencia

Multiplexación por división de onda


La multiplexación por división de onda (WDM, Wave Division Multiplexing) es conceptualmente la misma que FDM,
exceptuando que la multiplexación y la demultiplexación involucran señales luminosas transmitidas a través de canales
de fibra óptica. La idea es la misma: se combinan distintas señales sobre frecuencias diferentes. Sin embargo, la
diferencia es que las frecuencias son muy altas.

La técnica WDM consiste en transmitir por una misma fibra óptica varias señales, cada una en una longitud de onda
diferente y con la misma tasa binaria, sin que interfieran entre sí ya que están lo suficientemente separadas. De este
modo la capacidad del enlace se multiplica por el número de canales. Los transmisores están constituidos con láser
monomodos (SLM). Las señales de cada canal se combinan mediante un multiplexor WDM antes de ser introducidas
en la fibra óptica. En el receptor los canales son separados mediante un demultiplexor WDM y conducidos a un
receptor. Además, se puede extraer un canal específico en un punto intermedio del trayecto mediante multiplexores
ópticos de inserción/extracción.

Multiplexación por división del tiempo


La Multiplexación por división del tiempo (TDM, Time Division Multiplexing) es una técnica para compartir un canal de
transmisión entre varios usuarios. Consiste en asignar a cada usuario, durante unas determinadas "ranuras de tiempo",
la totalidad del ancho de banda disponible. Esto se logra organizando el mensaje de salida en unidades de información
llamadas tramas, y asignando intervalos de tiempo fijos dentro de la trama a cada canal de entrada.

De esta forma, el primer canal de la trama corresponde a la primera comunicación, el segundo a la segunda, y así
sucesivamente, hasta que el canal n+1 vuelva a corresponder a la primera. Esto implica que el TDM muestrea, o
explora, cíclicamente las señales de entrada (datos de entrada) de los diferentes usuarios, y transmite las tramas a
través de una única línea de comunicación de alta velocidad. Los multiplexores utilizados para TDM son dispositivos
de señal discreta y no pueden aceptar datos analógicos directamente, sino que deben ser modulados mediante un
módem. La TDM se puede implementar de dos formas, TDM síncrona o plesiócrona.

Jerarquía digital plesiócrona


La jerarquía digital plesiócrona (Plesiochronous Digital Hierarchy –PDH-) es una tecnología usada en telecomunicación
tradicionalmente para telefonía que permite enviar varios canales telefónicos sobre un mismo medio usando técnicas
de multiplexación por división de tiempo y equipos digitales de transmisión. Plesiocrono se origina del griego plesio
("cercano" o "casi") y cronos ("reloj"), el cual significa que dos relojes están cercanos uno del otro en tiempo, pero no
exactamente el mismo.

Están definidas las diferentes Jerarquías Digitales que establecen las distintas velocidades de transmisión digitales que
son preferidas o permitidas. Se define una Jerarquía Digital como un flujo digital que contiene multiplexados, en su
interior, otros flujos digitales de una tasa inferior. Aún no existe un estándar mundial en el formato digital, y si bien la
velocidad básica usada en las redes digital se encuentra estandarizada en 64 Kbps, las velocidades de los órdenes de
multiplexación forman varias jerarquías.

23
Las velocidades de cada orden son levemente superiores al producto de la velocidad de tributario por el número de
entradas, debido al agregado de información adicional (OverHead). A estas jerarquías se las denomina Plesiócronas
PDH porque el reloj usado en cada nivel de multiplexación es independiente de los otros niveles. En oposición se
encuentra la jerarquía Sincrónica SDH que adopta un solo reloj para toda la red.

Jerarquía digital síncrona


Existen múltiples razones que impulsan la introducción de una nueva jerarquía digital síncrona. Por ejemplo, se
necesitan sistemas de transmisión con alta capacidad de canales para satisfacer la demanda siempre creciente de las
comunicaciones. También, los costos de la conversión entre las distintas jerarquías plesiócronas son muy elevados.
Todo esto unido a las demás limitaciones mencionadas previamente de los sistemas plesiócronos en general, ha
llevado al estudio e introducción de una nueva jerarquía digital: la jerarquía digital síncrona.

La jerarquía digital síncrona (Synchronous Digital Hierarchy –SDH-) fue normalizada en EEUU en el año 1985, en
respuesta a la demanda de interfaces estandarizadas y para facilitar el acceso a las señales dentro de las tramas. Esta
tecnología gestiona el ancho de banda eficientemente mientras porta varios tipos de tráfico, detecta fallos y recupera
de ellos la transmisión de forma transparente para las capas superiores, como así también permite que las señales
analógicas sean portadas en formato digital sobre la red. El principal punto fuerte de la utilización de esta tecnología
es el hecho del sincronismo entre los datos que son enviados, garantizando no solo mayor velocidad, sino que asegura
que la información no se pierda. Permite alcanzar velocidades estandarizadas de hasta 40 Gb/s.

Las redes de alta velocidad de hoy en día son ópticas y están basadas principalmente en dos estándares conocidos
como SDH y SONET, los cuales consisten de anillos de fibra óptica en los cuales la información es intercambiada
electrónicamente en los nodos. Tanto SDH como SONET son las tecnologías de transporte dominantes en las redes de
los proveedores de servicios de telecomunicaciones en la actualidad. SONET es, al igual que SDH, un conjunto de
estándares para la transmisión o transporte de datos síncronos, que se da a través de redes de fibra óptica. SONET
significa por sus siglas en inglés, Synchronous Optical NETwork. Los estándares de SONET están definidos por la ANSI
(American Nacional Standards Institute) y los SDH por la ITU-T (International Telecommunicatios Union).

OTN (Redes de Transporte Óptico)


Comúnmente conocida como “digital wrapper”, es un protocolo estándar que provee una forma eficiente y
mundialmente aceptada de transportar, multiplexar de dos formas distintas: eléctrica a nivel de datos de canal óptico
(ODU) y óptica por longitud de onda para redes MAN o WAN de mediana y larga distancia. Permite la interacción con
redes que trabajen con distintos tipos de tráfico (Ethernet, SONET/SDH).

Además del servicio de Multiplexación, OTN se adapta a cualquier requerimiento del cliente y proporciona un manejo
efectivo de la red a través de la gestión y supervisión de las señales ópticas. Es un protocolo flexible en cuanto al
tamaño de los frames, y también se pueden agrupar varios frames en una sola entidad, que es manejada de forma
más eficiente.

24
Capas Inferiores
Los estándares son necesarios para facilitar la interoperatividad entre equipos de distintos fabricantes. Es evidente
que una sola normalización no es suficiente, ya que las tareas en las comunicaciones son muy complejas. Las funciones
se deberían dividir en tareas más manejables y organizarse como una arquitectura de comunicaciones.

Fue desarrollado por la Organización Internacional de Estandarización (ISO) como una arquitectura para
comunicaciones entre computadores, con el objetivo de ser el marco de referencia en el desarrollo de protocolos
estándares. OSI considera 7 capas:

Cada capa realiza un conjunto de funciones relacionadas entre sí, necesarias para comunicarse con otros sistemas.
Cada capa se sustenta de la capa inmediatamente inferior, la cual realizará funciones más primitivas, ocultando
detalles a las capas superiores. Las capas deben estar definidas para que los cambios en una, no impliquen cambios
en las otras capas.

Capa Física
Se encarga de la interfaz física entre los dispositivos,
además define las reglas que rigen en la transmisión de los
bits. Tiene 4 características importantes:
Mecánicas: relacionadas con las propiedades físicas de la
interfaz y con el medio de transmisión. Se incluye la
especificación del conector que transmite las señales
(circuitos).
Eléctricas: especifican como se representan los bits, así
como su velocidad de transmisión.
Funcionales: especifican las funciones que realiza cada uno
de los circuitos de la interfaz física entre el sistema y el
medio de transmisión.
Procedimientos: especifican la secuencia de eventos que se
llevan a cabo en el intercambio de bits a través del medio
físico.

Capa de Enlace
Intenta hacer que el enlace físico sea seguro, además
proporciona los medios para activar, mantener y desactivar
enlaces. El servicio principal que proporciona a las capas
superiores es la detección y control de errores. Así, si se
dispone de un protocolo en la capa del enlace de datos
completamente operativo, la capa superior puede suponer
que la transmisión está libre de errores.

25
Si la aplicación X desea enviar un
mensaje a la aplicación Y, invoca a la
capa de aplicación (capa 7). La capa 7
establece una relación paritaria con la
capa 7 del computador destino,
utilizando un protocolo de aplicación.
Este protocolo necesita servicios de la
capa 6, por lo tanto, las dos entidades de
la capa 6 utilizan un protocolo propio, y
así hacia abajo hasta llegar a la capa
física que transmite realmente los bits a
través del medio de transmisión.

En cada capa, a los datos se les añade


una cabecera que contiene información
necesaria para el protocolo de la misma.
Seguidamente, los datos originales más
la cabecera se pasan como una unidad a
la capa inferior. La entidad que recibe, trata la unidad completa como si de datos se tratara y añade su propia cabecera.
Este proceso continúa hasta llegar a la capa 2. La unidad de datos de la capa 2 se llama trama y se pasa al medio
mediante la capa física. En el destino al recibir la trama ocurre el proceso inverso. Conforme los datos ascienden, cada
capa elimina la cabecera más externa.

En cada nivel, se puede fragmentar en varias partes la unidad de datos que recibe de la capa superior, de acuerdo a
sus necesidades. Las unidades de datos deben ser ensambladas por la entidad correspondiente antes de pasarla a otra
capa.

Elementos clave para la normalización de cada capa


 Especificación del protocolo: el protocolo se debe especificar con precisión ya que están implicados dos
sistemas abiertos diferentes. Esto incluye al formato de la unidad de datos del protocolo, la semántica de los
campos, etc.
 Definición del servicio: es necesario normalizar los servicios que cada capa le ofrece a la capa superior
contigua. La definición de los servicios es equivalente a una descripción funcional de los mismos.
 Direccionamiento: las entidades se identifican mediante un punto de acceso al servicio. Así, un punto de
acceso al servicio de red indica una entidad de transporte que es usuaria del servicio de red.

Capa 1 – Capa Física


 Propósito: proveer procedimientos mecánicos, eléctricos y funcionales para activar mantener y desactivar
conexiones físicas para la transmisión de bits entre entidades de data link.
 Servicios (definidos en la recomendación x.211)
o Conexiones físicas.
o Unidad física de servicio de datos
o Criterios de valoración de conexiones físicas
o Identificaciones del circuito de datos
o La secuenciación
o La notificación de condición de fallos
o La calidad de los parámetros de servicio
 Funciones:
o Conexiones físicas: activación y desactivación.
o Transmisión de unidades de datos de servicios.
o Multiplexing.
o Gestión de la capa física.
26
Tipos de Transmisión
La transmisión de una cadena de bits desde un dispositivo a otro a través de una línea de transmisión implica un alto
grado de cooperación entre ambos extremos. Uno de los requisitos esenciales es la sincronización. El receptor debe
saber la velocidad a la que se están recibiendo los datos. Para este fin, se utilizan 2 técnicas:

Transmisión asíncrona
Cada carácter se trata independientemente. El primer bit de cada carácter es un bit de comienzo, que alerta al receptor
sobre la llegada del carácter. Esta técnica puede no funcionar correctamente para bloques de datos excesivamente
largos debido a que el reloj del receptor podría desincronizarse del reloj del emisor. Otro problema es que, si hubiera
un pulso de ruido en el bit de Start, el receptor no
reconocería el comienzo del frame y podría leer el mismo
en cualquier momento, generando esto un error de frame.

Cuando no se transmite ningún carácter, la línea entre el


emisor y el receptor estará en estado de reposo. Reposo
es equivalente al elemento de señalización
correspondiente al 1 binario.

El principio de cada carácter se indica mediante un bit de comienzo que corresponde al valor binario 0, luego se
transmite el dato, seguido del bit de paridad. El bit de paridad es utilizado para determinar errores. Se determina por
el número de unos dentro del carácter, incluyendo el bit de paridad, sea par (paridad par) o impar (paridad impar).
Por último, está el elemento de parada, que corresponde a un 1 binario.

No es muy exigente en cuanto a los requisitos de temporización. Generalmente los caracteres IRA se envían como
unidades de 8 bits, si el receptor es un 5% más lento o más rápido que el emisor, el octavo muestreo estará desplazado
un 45% lo que significa que todavía es aceptable.

Una desincronización entre los dos CLK generará 2


errores: primero, el último bit muestreado será
incorrecto, y segundo, la cuenta de bits puede estar
desalineado si el bit 7 es un 1 y el 8 es un 0. El bit 8 se
puede interpretar erróneamente como un bit de
comienzo. Este tipo de error se denomina “error de
delimitación de trama”.

Modo de Transmisión
 Balanceada: en las líneas balanceadas de dos alambres ambos conductores llevan corriente: el primero lleva
la señal y el segundo la regresa. La señal que se propaga por el alambre se mide como diferencia de potencial
entre los dos conductores.

 Desbalanceado: se utilizan dos líneas conductoras con la diferencia que una de ellas si está conectada al
potencial de tierra o nivel de referencia. El conductor conectado a tierra puede ser también el nivel de
referencia para otros conductores portadores de señal, esto origina a veces problemas debido a que se pueden
presentar inductancias y capacitancias y con ello el surgimiento de pequeñas diferencias de potencial entre
cualquiera de los conductores

Transmisión síncrona
Permite transmitir grandes bloques de dato. Cada bloque de datos forma una trama, que incluirá entre otros campos
los delimitadores de principio y de fin, y otros que se utilizan en los procedimientos de control de enlace.

Se transmite un bloque de bits como una cadena estacionaria sin utilizar códigos de comienzo o parada. El bloque
puede tener una longitud de muchos bits. El reloj del transmisor y el receptor se deberán sincronizar de alguna manera.

27
Una forma es mandar la señal de reloj a través de una línea independiente, donde uno de los dos enviará regularmente
un pulso de corta duración. Otra forma es incluir la información relativa a la sincronización en la propia señal de datos
mediante la codificación Manchester o Manchester Diferencial.

Para los bloques de datos que sean de suficiente tamaño, la transmisión síncrona es mucho más eficiente que la
asíncrona. La transmisión asíncrona requiere un 20 por ciento o más de bits suplementarios, mientras que, en la
Síncrona, para bloques de datos de 1.000 caracteres, cada trama contiene 48 bits de bits suplementarios y 1.000 x 8 =
8.000 bits de datos, lo que corresponde a un porcentaje de bits suplementarios igual a 48/8048 x 100 % = 0,6 %
solamente.

Modo de Operación y Tipo de Configuración


Con el término topología se hace referencia a Ja disposición física de las estaciones en el medio de transmisión. Si hay
sólo dos estaciones el enlace es punto a punto. Si hay más de dos estaciones, entonces se trata de una topología
multipunto.

Full Duplex y Semi Duplex


En la transmisión semi-duplex cada vez sólo una de las dos estaciones del enlace punto a punto puede transmitir. Esto
es comparable a un puente que tuviera un solo carril y con circulación en los dos sentidos.

En la transmisión full-duplex las dos estaciones pueden simultáneamente enviar y recibir datos, es comparable a un
puente que tuviera dos carriles con tráfico en ambos sentidos. Este tipo de transmisión es más eficiente que la
transmisión semi-duplex.

Para la señalización digital, en la que se requiere un medio guiado, la transmisión full-duplex normalmente exige dos
caminos separados, mientras que la transmisión semi-duplex necesita solamente uno. Para la señalización analógica,
dependerá de la frecuencia: si una estación transmite y recibe a la misma frecuencia, se deberá operar en modo semi-
duplex; aunque también se puede operar en full-duplex utilizando dos líneas de transmisión distintas.

Interfaces
Los dispositivos finales, normalmente terminales y computadores, se denominan generalmente equipo terminal de
datos (DTE, Data Terminal Equipmen). Un DTE hace uso del medio de transmisión mediante la utilización de un equipo
terminación del circuito de datos (DCE, Data Circuit-Terminating Equipment).

Por un lado, el DCE es responsable de transmitir y recibir bits, de uno en uno, a través del medio de transmisión o red.
Por el otro, el DCE debe interaccionar con el DTE.

Los dos DCEs que se intercambian señales a través de la línea de transmisión o red, deben entenderse el uno al otro.
Es decir, el receptor de cada DCE debe usar el mismo esquema de codificación (por ejemplo Manchester o PSK) y la
misma velocidad de transmisión que el transmisor del otro extremo.

Se han desarrollado normalizaciones que especifican exactamente la naturaleza de la interfaz entre el DTE y el DCE.
La interfaz tiene cuatro características importantes:

 Mecánicas: Tratan de la conexión física entre el DTE y el DCE. Deben tener conectores de distinto género a
cada extremo del cable.

28
 Eléctricas: relacionadas con los niveles de tensión y su temporización. Tanto el DTE como el DCE deben usar
el mismo código, los mismos niveles de tensión y la misma duración para los elementos de señal.
 Funcionales: funciones que se realizan a través de cada uno de los circuitos de intercambio. Se pueden
clasificar en cuatro grandes categorías: datos, control, temporización y masa.
 De Procedimiento: especifican la secuencia de eventos que se deben dar en la transmisión de los datos.

V.24 / EIA-232-F
El estándar más utilizado es el V.24 de la UIT-T, que sólo especifica aspectos funcionales y de procedimiento. En EEUU
está publicada la EIA-232-F, que es prácticamente idéntica a la V.24, pero cubre las 4 características mencionadas.

EIA232 fue establecida inicialmente como RS232 por la EIA (Electronic Industries Association) en 1962.
Actualmente está en su sexta versión EIA232F de 1997. Esta interfaz se utiliza para la conexión de
dispositivos DTE a modems, que a su vez están conectados a líneas de calidad telefónica.

 Especificaciones Mecánicas (ISO 2110): se usa un conector de 25 contactos metálicos (DB25) distribuidos de
una manera específica según se define en el ISO 2110. También es normal un encontrar la versión de 9 pines
(DB9)El cable va desde el DTE al DCE.
 Especificaciones Eléctricas (V.28): la señalización entre el DTE y el DCE. Se utiliza señalización digital en todos
los circuitos de intercambio. Los valores eléctricos se interpretarán como binarios. Esta normalización
especifica que, respecto a una referencia de tierra común, una tensión más negativa que 3 voltios se interprete
como un binario, mientras que una tensión mayor de 3 voltios se interprete como un O binario (código NRZL).
La interfaz se utiliza a una velocidad de transmisión < 20 kbps para cubrir distancias menores que 15 metros.
 Especificaciones Funcionales (V.24): Hay un circuito en cada dirección, por lo que es posible el funcionamiento
fullduplex. Hay dos circuitos de datos secundarios que son útiles cuando el dispositivo funciona en semiduplex.
Para este último caso, puede que en un momento dado se necesite enviar una petición de parada o un mensaje
de control de flujo al dispositivo transmisor. Para llevar a cabo esta funcionalidad, el enlace de comunicaciones
se dota de un canal en sentido inverso.
Hay 16 circuitos de control. Los 10 primeros, relacionados con la transmisión de datos. En la transmisión
síncrona se utilizan otros tres circuitos de control. El circuito detector de la calidad de la señal (Signal Quality
Detector) se pone a ON por el DCE para indicar que la calidad de la señal de entrada a través de la línea
telefónica se ha deteriorado por encima de un umbral. Si la línea se vuelve ruidosa, pueden solicitar una
reducción de la velocidad de transmisión.
El último grupo de señales de control está relacionado con la verificación o test de la conexión entre el DTE y
el DCE. Las señales de temporización proporcionan los pulsos de reloj en la transmisión síncrona, por lo tanto,
el DTE como el DCE pueden proporcionar los pulsos de temporización.
 Especificaciones de Procedimientos (V.24): Cuando el DTE está preparado para enviar datos (por ejemplo,
cuando el usuario de un terminal ha introducido un carácter), activará la línea Preparado para Enviar. El
DTE-DCE - - - DCE-DTE
Handshake

modem responde, cuando esté preparado, activando el circuito Preparado para Enviar, indicando que se
pueden transmitir datos por la línea de Transmisión de Datos. Si la transmisión es semiduplex, el circuito de
Petición para Enviar, a su vez, inhibe el modo de recepción. El DTE puede ahora transmitir datos a través de la
línea de Transmisión de Datos. Cuando se reciben datos del modem remoto, el modem local activa la línea
Detector de Señal Recibida para indicar que el modem remoto está transmitiendo, y además transfiere los
datos a través de la línea Recepción de Datos.

Para este caso, el que inicie la conexión debe llamar al destino a través de la red. Se necesitan dos circuitos adicionales:
DTE Preparado (108.2), Indicador de Llamada (125). Con estas dos líneas adicionales, el sistema formado por el modero
y el DTE podrá usar la red telefónica de una forma análoga a como se hace en una conversación convencional.

Cuando se realiza la llamada, tanto manualmente como automáticamente, el sistema telefónico envía Ja señal de
llamada. Un teléfono respondería a esta llamada haciendo sonar su timbre; un modem responde activando el circuito
Indicación de Llamada. Una persona responde a la llamada descolgando el auricular; el DTE responde activando el
circuito Terminal de Datos Preparado.

FXS/FXO
 Interface telefónica analógica.
29
 FXS (Foreign eXchange Station): Es la interface hacia el teléfono. Genera ring, voltaje y el tono de llamado.
 FXO (Foreign eXchange Office): Simula al teléfono para la central.
 Típicamente en conector RJ-11 .
 Ventaja: No se requieren tarjetas especiales en el lado de la planta telefónica ya que puedo usar troncales o
extensiones.

Recomendación AUI (attachment unit interface)


La “unidad de interfaz adjunta” es una conexión de 15 pines que proporciona una ruta de Ethernet
de la interfaz y el MAU (Medium Attachment Unit). Fue emitida por la IEEE(Institute of Electrical
and Electronics Engineers)

Recomendación G.703
Fue creada por la ITU para voz transmitida por sistemas digitales. Define el aspecto eléctrico y
funcional de la interface. Opera a 64 Kbps, 1.544 y 2 Mbps. 4 hilos. Se puede implementar sobre par
trenzado de 120 ohmios de forma balanceada y/o de forma desbalanceada con dos cables coaxiales
de 75 ohmios. T1: (1544 Kbps), AMI o B8ZS. 1 par para transmisión y otro para recepción. E1: (2048
Kbps), AMI o HDB3. Coaxial o 4 hilos simétricos por cada dirección.

Recomendación rs-449
Especifica las características mecánicas y funcionales de la interfaz entre DTE (equipo terminal de datos) y DCE (equipo
de comunicación de datos). Fue un sustituto al RS-232 y trabaja con interfaz balanceada. Los componentes estándar
para el uso junto con el RS-449 son RS-422 para señales balanceadas y RS-423 para señales no balanceadas.
Típicamente usa el conector DB-37.

Capa 2 – Capa de enlace


Para conseguir que la comunicación de datos sea efectiva, se necesita controlar y gestionar el intercambio de datos.
Para llevar a cabo el control necesario, se necesita una capa lógica adicional por encima de la interfaz física
denominada control del enlace de datos o protocolo de control del enlace de datos. Cuando se usa un protocolo del
enlace de datos el medio de transmisión se denomina enlace de datos.

Como todas las capas del modelo OSI, la capa de enlace también tiene su propósito, funciones y servicios:

 Propósito: La capa de enlace provee medios de procedimientos y funcionales para establecer, mantener y
liberar conexiones a través de la red, transferir unidades de servicios de datos a través de entidades de red y
para transferir unidades de datos del servicio de data link. Una conexión de data link puede ser construida
bajo conexiones físicas. La capa detecta y posiblemente corrige errores ocurridos en la capa física.
 Funciones:
o Sincronización de la trama: los datos se envían en bloques que se denominan tramas. El comienzo y
el final de cada trama deben ser identificables.
o Control del flujo: la estación emisora no debe enviar tramas a una velocidad más rápida de la que la
estación receptora pueda absorber.
o Control de errores: se debe corregir cualquier error introducido por el sistema de transmisión en los
bits.
o Direccionamiento: en una línea multipunto, como, por ejemplo, una red de área local (LAN), se debe
identificar a las dos estaciones involucradas en la transmisión.
o Gestión del enlace: El inicio, mantenimiento y la conclusión del intercambio de datos un alto grado de
coordinación y cooperación entre las estaciones.
 Servicios

30
o Conexión data-link
o Control de flujo.
o Parámetros de calidad del servicio.
o Identificador de los puntos finales de la conexión data link.
o Notificación de Error.
o Secuenciación

Control del flujo


El control del flujo es una técnica utilizada para asegurar que la entidad de transmisión no sobrecargue a la entidad
receptora con una excesiva cantidad de datos. La entidad receptora reserva generalmente una zona de memoria
temporal para la transferencia. Cuando se reciben los datos, el receptor debe realizar cierta cantidad de
procesamiento antes de pasar los datos al software de los niveles superiores. Si no hubiera procedimientos para el
control del flujo, la memoria temporal del receptor se podría llenar y potencialmente desbordarse mientras se
estuvieran procesando datos anteriores.

Los datos se envían usando una secuencia de tramas, en la que cada trama contiene un campo de datos más
información de control. Se define tiempo de transmisión como el tiempo empleado por una estación para emitir todos
los bits de una trama, que por definición será proporcional a la longitud de la trama. Se define como tiempo de
propagación al empleado por un bit en atravesar el medio de transmisión desde el origen hasta el destino.

Stop and Wait


El procedimiento más sencillo para controlar el flujo, denominado control de flujo mediante método Stop and Wait,
funciona de la siguiente manera. Una entidad fuente transmite una trama. Tras la recepción, la entidad destino indica
su deseo de aceptar otra trama enviando una confirmación de la trama que se acaba de recibir. La fuente antes de
transmitir la trama siguiente debe esperar hasta que se reciba la confirmación.

Este procedimiento funciona bien cuando el mensaje se envía usando un número reducido de tramas de gran tamaño.
No obstante, es frecuente que la fuente rompa el bloque de datos en bloques pequeños, transmitiendo los datos en
varias tramas. Esto se efectúa así por las siguientes razones:

 El tamaño de la memoria temporal del receptor puede ser limitado.


 Cuanto más larga sea la transmisión, es más probable que haya errores, necesitando en ese caso la
retransmisión de la trama completa. Si se usan tramas más pequeñas, los errores se detectarán antes, y en
ese caso se necesitará retransmitir una cantidad de datos menor.
 En un medio compartido, como, por ejemplo, en una LAN, es frecuente que no se permita que una estación
ocupe el medio durante un periodo largo, evitando así que las otras estaciones que intenten transmitir sufran
grandes retardos.

El principal problema de este método es que genera una utilización ineficiente del medio para el caso de velocidades
de transmisión muy altas entre emisores y receptores que estén separados por grandes distancias.

Ventana deslizante
El problema comentado con anterioridad radica fundamentalmente en el hecho de que cada vez sólo una trama puede
estar en tránsito. En todas aquellas situaciones en las que la longitud del enlace en bits sea mayor que la longitud de
la trama, aparecerán problemas de ineficiencia. Si se permite que varias tramas transiten al mismo tiempo en el enlace,
la eficiencia se podrá mejorar significativamente.

La estación B reserva memoria temporal suficiente para almacenar W tramas. Por lo tanto, B puede aceptar W tramas,
y a A se le permite enviar W tramas sin tener que esperar ninguna confirmación. Para mantener un seguimiento sobre
qué tramas se han confirmado, cada una de ellas se etiqueta con un número de secuencia. B confirma una trama
enviando una confirmación que incluye el número de secuencia de la siguiente trama que se espera recibir. Esta
confirmación implícitamente también informa de que B está preparado para recibir las W tramas siguientes, a partir
de la especificada. A mantiene una lista con los números de secuencia que se le permite transmitir, y B mantiene una
lista con los números de secuencia que está esperando recibir. Cada una de estas listas se puede considerar como una
ventana de tramas. De ahí que este procedimiento se denomine control de flujo mediante ventana deslizante
(sliding-window flow control).
31
El mecanismo que se ha descrito, de hecho, proporciona un procedimiento para controlar el flujo: el receptor sólo es
capaz de aceptar las siete tramas siguientes a última que haya sido confirmada. La mayoría de los protocolos también
permiten que una estación pueda interrumpir totalmente la transmisión de tramas desde el otro extremo enviando
un mensaje Receptor No Preparado (RNR, Receive Not Ready), con el que se confirman las tramas anteriores, pero
prohíbe la transmisión de tramas adicionales. Por tanto, RNR 5 significa: «He recibido todas las tramas hasta la número
4, pero soy incapaz de aceptar más». En algún momento posterior, la estación deberá transmitir una confirmación que
reabra la ventana.

Detección de errores
En todo sistema de transmisión habrá ruido, independientemente de cómo haya sido diseñado. El ruido dará lugar a
errores que modificarán uno o varios bits de la trama. Dada una trama de bits, se añaden bits adicionales por parte
del transmisor para formar un código con capacidad de detectar errores. Este código se calculará en función de los
otros bits que se vayan a transmitir. El receptor realizará el mismo cálculo y comparará los dos resultados. Se detectará
un error si y solamente si los dos resultados mencionados no coinciden. Existe también probabilidad de que no se
detecte un error, aunque se esté usando un esquema de detección de errores. A esta probabilidad se la denomina
tasa de error residual. Existen distintos métodos que dan lugar a la comprobación de errores.

Comprobación de paridad
El esquema más sencillo para detectar errores consiste en añadir un bit de paridad al final del bloque de datos. El valor
de este bit se determina de tal forma que el carácter resultante tenga un número impar de unos (paridad impar) o un
número par (paridad par). Así, por ejemplo, si el transmisor está transmitiendo una 1110001 y se utiliza paridad impar,
se añadirá un 1 y se transmitirá 11100011. El receptor examina el carácter recibido y, si el número total de unos es
impar, supondrá que no ha habido errores. Si un bit (o cualquier número impar de bits) se invierte erróneamente
durante la transmisión (por ejemplo, 11000011), entonces el receptor detectará un error. No obstante, si dos (o
cualquier número par) de bits se invierten debido a un error, aparecerá un error no detectado. Generalmente, se
utiliza paridad par para la transmisión síncrona y paridad impar para la asíncrona.

Checksum (Suma de Verificación)


En el emisor, el generador de suma de comprobación subdivide la unidad de datos en segmentos iguales de n bits
(habitualmente 16). Estos segmentos se suman juntos usando aritmética en complemento a uno de forma que la
longitud total de la suma sea también n. A continuación, se complementa ese total (suma) y se añade al final de la
unidad de datos originales como bits de redundancia, denominados campo de suma de comprobación. La unidad de
datos extendida se transmite a través de la red. Si la suma del segmento ele datos es T, la suma de comprobación sería
-T.

Comprobación de Redundancia Cíclica (CRC, Cyclic Redundancy Check)


La tercera y más potente técnica de verificación ele redundancia es la verificación de redundancia cíclica (CRC). A
diferencia de VRC y LRC, que se basan en la suma, la CRC se basa en la división binaria. Con la CRC, en lugar de sumar
los bits juntos para conseguir una paridad determinada, se añade una secuencia de bits redundantes, denominados
CRC o resto CRC, al final de la unidad de datos de forma que los datos resultantes sean divisibles exactamente por un
número binario predeterminado. En el destino, la unidad de datos que se recibe es dividida por este mismo número.
Si en este paso no hay resto, se asume que la unidad de datos es intacta y se acepta. La existencia de un resto indica
que la unidad de datos ha sufrido daños durante el tránsito y que debe ser rechazada.

Los bits de redundancia usados en la CRC se obtienen dividiendo la unidad de datos por un divisor determinado; el
resto es la CRC. Para que sea válida, una CRC debe tener dos cualidades: debe tener exactamente un bit menos que el
divisor y añadirlo al final de la lira de datos debe hacer que el resultado sea exactamente divisible por el divisor.

El generador de la CRC (el divisor) no se suele representar a


menudo como una tira de unos y ceros, sino como un polinomio
algebraico. El formato polinomial es útil por dos razones: es corto
y se puede usar para demostrar conceptos matemáticamente. Se
debería seleccionar un polinomio que tenga al menos las
siguientes propiedades: No debería ser divisible por x, o debería
ser divisible por (x+1). La primera condición garantiza que se
32
pueden detectar todos los errores de ráfaga de una longitud igual al grado del polinomio. La segunda condición
garantiza que se detectan tocios los errores de ráfaga que afectan a un número impar de bits

Control de errores
El control de errores hace referencia a los mecanismos necesarios para la detección y la corrección de errores que
aparecen en la transmisión de tramas. Se pueden presentar dos tipos de errores potenciales:

 Trama perdida: que se da cuando una trama enviada no llega al otro lado. Así, por ejemplo, una ráfaga de
ruido puede dañar a una trama de tal manera que el receptor no se dé cuenta incluso de que se haya recibido.
 Trama dañada: ocurre cuando llega una trama, pero con algunos bits erróneos (modificados durante la
transmisión).

Las técnicas usadas para el control de errores se basan en mecanismos denominados Solicitud De Repetición
Automática (ARQ, Automatic Repeat Request), o Correccion Posterior de Erroes (FEC Forward Error Correction)

ARQ
El objetivo del ARQ es convertir un enlace de datos no seguro en seguro. Hay tres variantes del ARQ que se han
normalizado:

 ARQ Stop and Wait


 ARQ con vuelta-atrás-N
 ARQ con rechazo selectivo

Stop and Wait ARQ


El Stop and Wait ARQ se basa en la técnica para el control del flujo con parada-y-espera mencionada anteriormente.
La estación fuente transmite una única trama debiendo esperar la recepción de una confirmación (ACK). No se podrá
enviar ninguna otra trama hasta que la respuesta de la estación destino vuelva al emisor.

Pueden ocurrir dos tipos de error. El primero, consistirá en que la trama que llega al destino puede estar dañada. El
receptor detectará esto mediante la utilización de las técnicas de detección de errores mencionadas anteriormente y
simplemente descartará la trama. Para llevar a cabo esto, la estación fuente utiliza un temporizador. Tras el envío de
una trama la estación fuente espera la recepción de una confirmación. Si no se recibe confirmación antes de que el
temporizador expire, la trama anterior se reenvía de nuevo. Obsérvese que este método exige que el transmisor
conserve una copia de la trama transmitida hasta que se reciba la correspondiente confirmación.

El segundo tipo de error puede originarse si la confirmación se deteriora. Considérese la siguiente situación. La
estación A envía una trama. La trama se recibe correctamente en la estación B, la cual responde con una confirmación
(ACK). La ACK se deteriora en el camino y se modifica tal que no es identificable por A como tal, en este caso se
producirá una expiración del temporizador y se reenviará la trama. La trama duplicada llega y se acepta por B. B ha
aceptado por tanto dos copias de la misma trama como si fueran distintas.

La ventaja principal del Stop and Wait ARQ es su sencillez. Su desventaja principal es que el parada-y-espera es un
procedimiento muy ineficiente a la hora de utilizar el medio.

Go-Back-N ARQ
La técnica de control de errores más frecuente está basada en el procedimiento para control del flujo mediante
ventanas deslizantes y se denomina ARQ con vuelta-atrás-N. En esta técnica, una estación puede enviar una serie de
tramas numeradas secuencialmente. Al utilizar la técnica para control del flujo mediante ventanas deslizantes el
número de tramas pendientes de confirmar se determina mediante el tamaño de la ventana. Mientras no aparezcan
errores, el destino confirmará (mediante una RR, «receive ready» o mediante la incorporación de la confirmación) las
tramas recibidas como es habitual. Si la estación destino detecta un error en una trama, enviará una confirmación
negativa (REJ, reject) para esa trama. La estación destino descartará esa trama y todas las que se reciban en el futuro
hasta que la trama errónea se reciba correctamente. Por tanto, cuando la estación fuente reciba un REJ, deberá
retransmitir la trama errónea más todas las tramas posteriores que hayan sido transmitidas entre tanto.

33
Selective Reject ARQ
En la ARQ con rechazo selectivo las únicas tramas que se retransmiten son aquellas para las que se recibe una
confirmación negativa, denominada en este caso SREJ, o aquellas para las que el temporizador correspondiente expira.
En la Figura 7.9b se muestra este esquema. Cuando la trama 5 se recibe fuera de orden, B envía un SREJ 4, indicando
que la trama 4 no se ha recibido. No obstante, B sigue aceptando tramas y las almacena en la memoria temporal hasta
que se reciba correctamente la trama 4. Llegados a este punto, B podrá proporcionar al software de las capas
superiores las tramas en el orden correcto.

El rechazo selectivo podría considerarse más eficiente que el procedimiento vuelta-atras-N, debido a que se minimiza
el número de retransmisiones. Por otra parte, el receptor deberá reservar una zona de memoria temporal lo
suficientemente grande para almacenar las tramas tras una SREJ, hasta que la trama errónea se retransmita, y además
debe tener lógica adicional para reinsertar la trama reenviada en la posición correspondiente. Igualmente, el
transmisor también necesita una lógica más compleja para con ello ser capaz de enviar tramas fuera de orden. Debido
a estas complicaciones, el ARQ con rechazo selectivo se utiliza mucho menos que el ARQ con vuelta-atrás-N.

FEC Forward Error Correction


Es un tipo de mecanismo de corrección de errores que permite su corrección en el receptor sin retransmisión de la
información original. Los FEC pueden ser clasificados dentro de 2 tipos de códigos: Bloques o convolucionales (son
cíclicos).

 Código bloque: La paridad en el codificador se introduce mediante un algoritmo algebraico aplicado a un


bloque de bits.
 Códigos convolucionales: Los bits se van codificando tal y como van llegando al codificador.

HDLC
El protocolo más importante para el enlace de datos es el HDLC, High-Level Data Link Control (ISO 3309, ISO 4335). No
sólo porque es el más utilizado, sino porque además es la base para otros protocolos importantes de esta capa, en los
que se usan formatos similares e iguales procedimientos a los que se usan en HDLC.

Características básicas
Para satisfacer las demandas de un buen número de aplicaciones, HDLC define tres tipos de estaciones, dos
configuraciones del enlace y tres modos de operación para la transferencia de los datos. Los tres tipos de estaciones
son:

 Estación primaria: se caracteriza porque tiene la responsabilidad de controlar el funcionamiento del enlace.
Las tramas generadas por la primaria se denominan órdenes.
 Estación secundaria: funciona bajo el control de la estación primaria. Las tramas generadas por la estación
secundaria se denominan respuestas.
 Estación combinada: es una mezcla entre las características de las primarias y las secundarias. Una estación
de este tipo puede generar tanto órdenes como respuestas.

Las dos posibles configuraciones del enlace son:

 Configuración no balanceada: está formada por una estación primaria y una o más secundarias. Permite tanto
transmisión «full-duplex» como «semi-duplex».
 Configuración balanceada: consiste en dos estaciones combinadas. Permite igualmente transmisión
«full-duplex» o «semi-dúplex».

Los tres modos de transferencia de datos son:

 Modo de respuesta normal (NRM, Normal Response Mode): se utiliza en la configuración no balanceada. La
estación primaria puede iniciar la transferencia de datos a la secundaria, pero la secundaria sólo puede
transmitir datos usando respuestas a las órdenes emitidas por la primaria.
 Modo balanceado asíncrono (ABM, Asynchronous Balanced Mode): se utiliza en la configuración balanceada.
En este modo cualquier estación combinada podrá iniciar la transmisión sin necesidad de recibir permiso por
parte de la otra estación combinada.
34
 Modo de respuesta asíncrono (ARM, Asynchronous Response Mode): se utiliza en la configuración no
balanceada. La estación secundaria puede iniciar la transmisión sin tener permiso explícito por parte de la
primaria. La estación primaria sigue teniendo la responsabilidad del funcionamiento de la línea, incluyendo la
iniciación, la recuperación de errores, y la desconexión lógica.

Estructura de la trama
HDLC usa transmisión síncrona. Todos los intercambios se realizan a través de tramas, HDLC utiliza un formato único
de tramas que es válido para todos los posibles intercambios: datos e información de control. Al campo de
delimitación, de dirección y de control, que preceden al campo de información se denominan cabecera. La FCS junto
con el otro campo de delimitación final que está a continuación del campo de datos de denomina cola.

Los campos de delimitación


Los campos de delimitación, o flags, están localizados en los dos extremos de la trama, y ambos corresponden a la
siguiente combinación de bits 01111110. Se puede usar un único delimitador como final y comienzo de la siguiente
trama simultáneamente. A ambos lados de la interfaz entre el usuario y la red, los receptores estarán continuamente
intentando detectar la secuencia de delimitación para sincronizarse con el comienzo de la trama.

Debido a que el protocolo permite cualquier combinación de bits (es decir, el protocolo no impone restricción alguna
en el contenido de los campos) no hay garantía de que la combinación 01111110 no aparezca en algún lugar dentro
de la trama, destruyendo de esta manera la sincronización de las tramas. Para evitar esta situación no deseable, se
utiliza un procedimiento denominado inserción de bits. En la transmisión de los bits que estén entre los dos
delimitadores de comienzo y final, el transmisor insertará un O extra siempre que se encuentre con la aparición de
cinco 1 consecutivos. El receptor, tras la detección del delimitador de comienzo, monitorizará la cadena de bits
recibida, de tal manera que cuando aparezca una combinación de cinco 1 seguidos, el sexto bit se examinará. Si dicho
bit es 0, se eliminará sin más. Si el sexto bit es un 1 y el séptimo es un 0, la combinación se considera como un
delimitador. Si los bits sexto y séptimo son ambos igual a 1 se interpreta como una indicación de cierre generada por
el emisor. A este proceso se lo denomina Bit Stuffing.

Campo de dirección
El campo de dirección identifica a la estación secundaria que ha transmitido o que va a recibir la trama. Este campo
no se necesita en enlaces punto a punto, si bien se incluye siempre por cuestiones de uniformidad. El campo de
dirección tiene normalmente 8 bits. El bit menos significativo de cada octeto será respectivamente 1 o 0, si es, o no,
el último octeto del campo de dirección. Los siete bits restantes en cada octeto formarán la dirección propiamente
dicha. Un octeto de la forma 11111111 se interpretará como una dirección que corresponde a todas las direcciones,
tanto en el formato básico como ampliado. Este tipo de direccionamiento se utiliza cuando la estación primaria quiere
enviar una trama a todas las secundarias.

Campo de control
En HDLC se definen tres tipos de tramas, cada una de ellas con un formato diferente para el campo de control. Las
tramas de información (tramas-I) transportan los datos generados por el usuario (esto es, por la lógica situada en la
capa superior, usuaria del HDLC). Además, en las tramas de información se incluye información para el control ARQ de
errores y del flujo. Las tramas de supervisión (tramas-S) proporcionan el mecanismo ARQ cuando la incorporación de
las confirmaciones en las tramas de información no es factible. Las tramas no numeradas (tramas-N) proporcionan
funciones complementarias para controlar el enlace. El primer o los dos primeros bits del campo de control se utilizan
para identificar el tipo de la trama.

35
Campo de información
El campo de información sólo está presente en las tramas-I y en algunas tramas-N. Este campo puede contener
cualquier secuencia de bits, con la única restricción de que el número de bits sea igual a un múltiplo entero de 8. La
longitud del campo de información es variable y siempre será menor que un valor máximo predefinido

Campo para la secuencia de comprobación de la trama


La secuencia de comprobación de la trama (FCS, Frame Check Sequence) es un código para la detección de errores
calculado a partir de los bits de la trama excluyendo los delimitadores. El código que se usa normalmente es el
CRC-CCITT de 16 bits. Se puede utilizar alternativamente una FCS de 32 bits, que use el polinomio CRC-32, si así lo
aconseja la longitud de la trama o las características de la línea.

El funcionamiento del HDLC implica tres fases. Primero, uno de los dos extremos inicia el enlace de datos, de tal manera
que las tramas se puedan intercambiar de una forma ordenada. Durante esta fase, se pactan las opciones que se
usarán en el intercambio posterior. Después de la iniciación, los dos extremos intercambian los datos generados por
los usuarios, así como información de control para llevar a cabo los procedimientos de control del flujo y de errores.
Finalmente, uno de los dos extremos comunicará la finalización de la transmisión.

Otros protocolos para el control de enlace de datos


Además del HDLC, hay una serie de otros protocolos relevantes para el control del enlace de datos. Estos pueden ser:

LAPB
El procedimiento de acceso al enlace balanceado (LAPB, Link Access Procedure Balanced) se desarrolló por la UIT-T
como una parte de la norma X.25 para la interfaz a redes de conmutación de paquetes. Es un subconjunto del HDLC
que proporciona solamente el modo balanceado asíncrono (ABM); se diseñó para enlaces punto a punto entre el
sistema del usuario y un nodo de una red de conmutación de paquetes. El formato de las tramas es igual que el de
HDLC.

LLC
El CONTROL DEL ENLACE LÓGICO (LLC, LOGICAL LINK CONTROL) es parte de la familia de estándares IEEE 802 para el
control el funcionamiento en redes de área local (LAN, local area network). En LLC no se usan todas las características
del HDLC y a la vez tiene algunas adicionales que no están en el anterior. La diferencia más evidente entre LLC y HDLC
está en el formato de las tramas. En LLC las funciones para controlar el enlace se dividen en dos capas: la capa de
control de acceso al medio (MAC, medium access control), y la capa LLC que funciona por encima de la capa MAC.

Retransmisión de tramas (FRAME RELAY)


La retransmisión de tramas es una utilidad para el control del enlace de datos diseñada para proporcionar una
utilización más eficiente de la capacidad de las redes de alta la capa de paquetes X.25). El protocolo para el control del
enlace de datos definido en la retransmisión de tramas es el LAPF («link access procedure for frame-mode bearer
service»). En realidad, hay dos protocolos: un protocolo de control, de similares características al HDLC y un protocolo
básico, que es un subconjunto del protocolo de control. En este caso, el LAPF no posee un campo de control, por lo
que no hay forma de realizar control de flujo ni de errores, consiguiendo así un funcionamiento más eficiente para su
utilización en redes de alta velocidad.

Modo de Transferencia Asíncrono (ATM, Asynchronous Transfer Mode)


Al igual que la retransmisión de tramas, ATM se ha diseñado para proporcionar un procedimiento de transferencia de
datos muy eficiente para su utilización en redes de alta velocidad. A diferencia de la retransmisión de tramas, ATM no
está basado en HDLC. En su lugar, ATM está basado en unas tramas con formato radicalmente diferente, llamadas
celdas, con las que se reduce el procesamiento adicional necesario. Cada celda tiene una longitud fija de 53 octetos,
es decir 424 bits.

Ethernet
La técnica de control de acceso al medio más ampliamente usada en las topologías en bus y en estrella es la de acceso
múltiple sensible a la portadora con detección de colisiones (CSMA/CD, Carrier Sense Multiple Access with Collision
Dctection). La versión original en banda base de esta técnica fue desarrollada por Xerox para redes LAN Ethernet, lo
que sirvió como base para la posterior especificación del estándar IEEE 802.3.
36
Control de acceso al medio en IEEE 802.3: CSMA/CD
La técnica CSMA/CD y sus precursoras pueden ser denominadas de acceso aleatorio o de contención. Se denominan
de acceso aleatorio en el sentido de que no existe un tiempo preestablecido o predecible para que las estaciones
transmitan; la transmisión se realiza aleatoriamente. Son de contención en el sentido de las estaciones compiten para
conseguir el acceso al medio.

La primera de estas técnicas, conocida como ALOHA, se desarrolló para redes de paquetes de radio, siendo, a pesar
de ello, aplicable a cualquier medio de transmisión compartido. En ALOHA cuando una estación tiene que transmitir
una trama lo hace, pasando después a escuchar el medio durante un tiempo igual al máximo retardo de propagación
posible de ida y vuelta a través de la red (igual a dos veces el tiempo de propagación de una trama entre las dos
estaciones más separas) más un pequeño incremento fijo de tiempo. Si durante este intervalo de escucha la estación
oye una confirmación, perfecto; si no, retransmitirá la trama. Si la estación no recibe una confirmación después de
varias retransmisiones, desistirá. La estación receptora determina si una trama recibida es correcta examinando el
campo de la secuencia de comprobación de la trama, al igual que se hace en HDLC. Si la trama es válida y la dirección
de destino en la cabecera de la trama coincide con la de la receptora, la estación devuelve inmediatamente una
confirmación.

El problema de ALOHA es que presentan una utilización baja del canal, no aprovechando, tampoco, una de las
propiedades más importante en las redes de paquetes de radio y redes LAN, consistente en que el retardo de
propagación entre las estaciones es generalmente muy pequeño en comparación con el tiempo de transmisión de las
tramas. En este caso, cuando una estación transmita una trama, el resto de estaciones lo sabrán casi inmediatamente.
De esta manera, si pueden constatar esta circunstancia de algún modo, no intentarán transmitir hasta que lo haya
hecho la primera. Las colisiones no serán habituales ya que sólo ocurrirán cuando dos estaciones comiencen a
transmitir casi simultáneamente. Otra forma de verlo es que un tiempo de retardo pequeño proporciona a las
estaciones una mejor realimentación sobre el estado de la red; esta información se puede usar para mejorar la
eficiencia.

Estas observaciones condujeron al desarrollo de la técnica de acceso múltiple sensible a la portadora (CSMA). Con
CSMA, una estación que desee transmitir, primero escuchará el medio para determinar si existe alguna otra
transmisión en curso (sensible a la portadora). Si el medio se está usando, la estación deberá esperar. En cambio, si
éste se encuentra libre, la estación podrá transmitir. Puede suceder que dos o más estaciones intenten transmitir
aproximadamente al mismo tiempo, en cuyo caso se producirá colisión: los datos de ambas transmisiones interferirán
y no se recibirán con éxito. Para solucionar esto, las estaciones aguardan una cantidad de tiempo razonable después
de transmitir en espera de una confirmación, teniendo en consideración el retardo de propagación máximo del
trayecto de ida y vuelta y el hecho de que la estación que confirma debe competir también por conseguir el medio
para responder. Si no llega la confirmación, la estación supone que se ha producido una colisión y retransmite. Se
producirá colisión, siempre que dos o más estaciones estén en espera de transmitir.

CSMA, aunque más eficiente que ALOHA, es también claramente ineficiente. Cuando colisionan dos tramas, el medio
estará inutilizado mientras dure la transmisión de ambas. La capacidad desaprovechada, en comparación con el
tiempo de propagación puede ser considerable para tramas largas. Este desaprovechamiento puede reducirse si una
estación continúa escuchando el medio mientras dura la transmisión, lo que conduce a las siguientes reglas para la
técnica CSMA/CD:

1. La estación transmite si el medio está libre, si no, se aplica la regla 2.


2. Si el medio se encuentra ocupado, la estación continúa escuchando hasta que encuentra libre el canal, en cuyo
caso transmite inmediatamente.
3. Si se detecta una colisión durante la transmisión, las estaciones transmiten una señal corta de alerta para
asegurarse de que todas las estaciones constatan la colisión y cesan de transmitir.
4. Después de transmitir la señal de alerta se espera un intervalo de tiempo de duración aleatoria, tras el cual se
intenta transmitir de nuevo (volviendo al paso 1).

La capacidad desaprovechada en CSMA/CD se reduce al tiempo que se tarda en detectar la colisión. Una regla
importante aplicada en la mayor parte de los sistemas CSMA/CD, incluyendo a las normalizaciones IEEE, consiste en
que la trama debe ser lo suficientemente larga como para permitir la detección de la colisión antes de que finalice la
37
transmisión. Si se usan tramas más cortas, no se produce la detección de la colisión, presentando la técnica CSMA/CD
las mismas prestaciones que el protocolo CSMA menos eficiente.

Trama
Start-of-Frame- MAC MAC Payload (Data and Interframe
Preamble Type/Length FCS
Delimiter destination source padding) gap
7 octets of 4
1 octet of 10101011 6 octets 6 octets 2 octets 46–1500 octets 12 octets
10101010 octets
 Dirección de destino (MAC, destination address): especifica la estación o estaciones a las que va dirigida la
trama. Esta estación puede ser una única dirección física, una dirección de grupo o una dirección global.
 Dirección de origen (MAC, source address): especifica la estación que envió la trama.
 Longitud/tipo: contendrá la longitud del campo de datos LLC expresado en octetos, o el campo Tipo de
Ethernet, dependiendo de que la trama siga la norma IEEE 802.3 o la especificación primitiva de Ethernet. En
cualquier caso, el tamaño máximo de la trama, excluyendo el preámbulo y el SFD, es 1.518 octetos.
 Datos LLC: unidad de datos proporcionada por el LLC.
 Relleno: octetos añadidos para asegurar que la trama sea lo suficientemente larga tal que la técnica de
detección de colisiones (CD) funcione correctamente.
 Secuencia de comprobación de trama (FCS, frame check sequence): comprobación redundante cíclica de 32
bits, calculada teniendo en cuenta todos los campos excepto el de preámbulo, el SFD y el FCS.

Hub y Switch
Ambos, son herramientas para conectar redes LAN, o para conectar una red LAN con una red WAN. Su diferencia está
en que, mientras que el Hub es un simple repetidor (al estilo de una zapatilla conectada a 220v), el switch no lo es. El
switch es capaz de establecer múltiples comunicaciones en simultáneo, independiente de las demás, generando
distintos canales por medio del backplane. Esto ocurre porque el switch tiene en cada boca o salida, un bridge que
permite que las áreas de colisión de cada red se mantengan, mientras que el área de broadcast si sea global.

Bridge

En la imagen inferior se ve lo que ocurre al conectar dos redes con un Hub, en donde, todas las terminales conectadas
al hub conocerán si sucedió, o no, una colisión. Si fuera un switch, las áreas de colisión se mantendrían solo para las
computadoras conectadas al switch, mientras que el área de broadcast sería como con el Hub.

38
Cuando un switch tiene que enviar una trama o paquete se utiliza alguno de estos métodos. En el método Store and
Foward se retransmite recién luego de que se comprueba la integridad del paquete que se busca transimitir. Mientras
que en el segundo Cut-Through Switching se comienza la retransmisión en el momento en que llega la dirección de
destino de dicho paquete.

Técnica del árbol de expansión


El método del árbol de expansión es un mecanismo en el que los puentes desarrollan automáticamente una tabla de
encaminamiento y la actualizan en respuesta a cambios en Ja topología. El algoritmo consta de tres mecanismos:
retransmisión de tramas, aprendizaje de direcciones y mecanismo para evitar bucles.

Retransmisión de tramas
En este esquema, un puente mantiene una base de datos de retransmisión para cada puerto de conexión a una LAN.
La base de datos indica las direcciones de estación para las que las tramas deben transmitirse sobre un puerto dado.
Cuando se recibe una trama por uno de los puertos, el puente debe decidir si la trama se enviará a través suyo y sobre
cuál de los otros puertos se realizará la retransmisión. Suponiendo que un puente recibe una trama MAC a través del
puerto x, se aplican las siguientes reglas:

1. Búsqueda en la base de datos de retransmisión para determinar si la dirección MAC se asocia a un puerto
distinto de x.
2. Si no se encuentra la dirección MAC de destino, la trama se envía a través de todos los puertos excepto por el
que llegó. Esto es parte de la técnica de aprendizaje que se describe más adelante.
3. Si la dirección de destino se encuentra en la base de datos para algún puerto y, se determina si ese puerto se
encuentra en estado de bloqueo o de envío. Por razones que se explicarán más adelante, un puerto puede
estar a veces bloqueado, lo que le impide emitir o recibir tramas.
4. Si el puerto y no está bloqueado, se transmite la trama a través de ese puerto sobre la LAN a la que se
encuentra conectado.

Árbol de expansión
La estación A transmite una trama destinada a la estación B en el instante de tiempo t0. Ambos puentes capturan esta
trama y actualizan sus bases de datos para indicar que la estación A se encuentra en la dirección de la LAN X, y
retransmiten la trama a través de la LAN Y. Supongamos que el puente X la retransmite en el instante de tiempo t, y
el puente β un poco después, en t2. Así, B recibirá dos copias de la trama. Además, cada puente recibirá las
transmisiones de los otros a través de la LAN Y.

Para solucionar este problema se utiliza un sencillo resultado de la


teoría de grafos: para cualquier grafo conectado, compuesto de
nodos y de terminales que conectan cada par de nodos, existe un
árbol de expansión de terminales que mantiene la conectividad del
grafo, pero no contiene bucles cerrados. En términos de
interconexión, cada red LAN se corresponde con un nodo del grafo y
cada puente con un terminal.

El algoritmo del árbol de expansión desarrollado por IEEE 802.1,


como su propio nombre sugiere, puede desarrollar dicho árbol de
expansión. Todo lo que se precisa es que cada uno de los puentes
tenga asignado un identificador único y se asocien costes a cada uno
de los puertos de los puentes. El algoritmo implica el intercambio de un número reducido de mensajes entre todos los
puentes para obtener el árbol de expansión de mínimo coste. Cuando se produzca un cambio en la topología los
puentes recalcularán automáticamente el árbol de expansión.

39
Protocolos
En general, la palabra protocolo designa un conjunto de reglas o convenios para llevar a cabo una tarea determinada.
En la transmisión de datos, protocolo se usa en un sentido menos amplio para indicar el conjunto de reglas o
especificaciones que se usan para implementar uno o más niveles del modelo OSI.

Los protocolos de enlace de datos son un conjunto de especificaciones que se usan para implementar el nivel de enlace
de datos. Para conseguir este fin, contienen reglas para especificar la disciplina de línea, el control de flujo y la gestión
de errores, entre otras cosas.

La velocidad de la transmisión síncrona hace de ella una mejor elección que la transmisión asíncrona cuando se usa
tecnología LAN, MAN y WAN. Los protocolos que gobiernan la transmisión síncrona se pueden dividir en dos clases:
protocolos orientados a carácter y protocolos orientados a bit. Los protocolos orientados a carácter (también
denominados protocolos orientados a byte) interpretan un paquete o trama de transmisión como una sucesión de
caracteres, cada uno de los cuales está habitualmente compuesto por un byte (ocho bits). Toda la información de
control está en un formato de cualquier sistema de codificación ele carácter existente (por ejemplo, caracteres ASCII).
Los protocolos orientados a bit interpretan la trama o paquete de transmisión como una sucesión de bits individuales,
cuyo significado se extrae por su posición dentro de la trama y por su yuxtaposición con otros bits. La información de
control en un protocolo orientado a bit puede venir dada por uno o varios bits dependiendo de la información incluida
en el patrón.

Protocolos orientados a caracter


Los protocolos orientados a carácter no son tan eficientes como los protocolos orientados a bit y por tanto se usan
más raramente en Ja actualidad. Sin embargo, son fáciles de comprender y emplean la misma lógica de organización
que los protocolos orientados a bit. En todos los protocolos ele enlace de datos, se inserta la información de control
dentro del flujo de datos en lugar de usar tramas de control separadas o añadidos a las tramas de datos existentes. En
los protocolos orientados a carácter, esta información se añade en forma de palabras claves tomadas de los conjuntos
de caracteres existentes tales como ASCII o EBCDIC. Estos caracteres multibit transportan información acerca de la
disciplina de línea, el control ele flujo, el control de errores. De los distintos protocolos existentes orientados a
carácter, el más conocido es el protocolo de comunicación síncrona binaria (BSC, Binary Synchronous Communication)
de IBM.

El protocolo de comunicación síncrona binaria (BSC, Binary Synchronous Communication) es un protocolo ele enlace
ele datos orientado a carácter muy popular, desarrollado por IBM en 1964. Se puede usar tanto en configuraciones
punto a punto como en configuraciones multipunto, proporciona transmisión semidúplex usando control de flujo de
tipo parada y espera con ARQ y corrección ele errores. El BSC no soporta la transmisión dúplex o protocolos de ventana
deslizante.

Protocolos orientados al BIT


En los protocolos orientados a carácter, las regiones se agrupan en patrones predefinidos que forman caracteres. Por
comparación, los protocolos orientados a bit pueden empaquetar más información en tramas más cortas y evitar los
problemas de transparencia de los protocolos orientados a carácter.

Dadas las ventajas de los protocolos orientados a bit y la falta de cualquier sistema de codificación preexistente (como
el ASCII) a la que adherirse, no hay que sorprenderse de que en las últimas dos décadas se hayan desarrollado muchos
protocolos orientados a bit distintos, todos ellos queriendo convertirse en un estándar. La mayoría de estas ofertas
han sido de propietarios particulares, diseñados por los fabricantes para soportar sus propios productos. Uno de ellos,
el HDLC, es el diseño ele ISO y se ha convertido en la base de todos los protocolos orientados a bit que se usan en la
actualidad.

En una transmisión orientada a bit, los datos son transmitidos como constantes ráfagas de bits. Antes de que la
transmisión de datos empiece, caracteres especiales de sincronía son transmitidos por el transmisor, así el receptor
puede sincronizarse a sí mismo con la ráfaga de bits. Este patrón de bits es comúnmente representado en una cadena
de 8 bits.

40
SDLC (Synchronous Data Link Control) de IBM es un protocolo orientado a bits. Su caracter de sincronia (sync) es la
cadena de bits 01111110, y esto es seguido por una dirección de 8 bits, un campo de control y por por los datos
(información útil). Una vez que el sistema receptor recibe esas tramas iniciales, empieza a leer 8 bits a la vez (1 byte)
desde la cadena de bits hasta que aparezca un error o una bandera de término.

Los protocolos SDLC y HDLC (High-level Data Link Control) de IBM son orientados a bit. HDLC es usado comúnmente
en las redes de conmutación de paquetes X.25, SDLC es un subconjunto de HDLC.

Se han desarrollado varios protocolos bajo la categoría general ele procedimientos de acceso al enlace (LAP, link access
prodecure). Todos estos protocolos son subconjuntos de HDLC adaptados para suplir objetivos específicos. Los más
frecuentes de entre ellos son LAPB, LAPD y LAPM.

 LAPB: El procedimiento balanceado de acceso al enlace (LAPB) es un subconjunto simplificado de HDLC que se
usa únicamente para conectar una estación a una red. Por tanto, proporciona únicamente aquellas funciones
básicas de control necesarias para la comunicación entre un DTE y un DCE. Por ejemplo, no incluye los
caracteres de sondeo y de selección). LAPB se usa únicamente en las configuraciones balanceadas de dos
dispositivos, donde ambos dispositivos son de tipo combinado. La comunicación se realiza siempre en modo
balanceado asíncrono. El LAPB se usa actualmente en Ja Red Digital de Servicios Integrados (RDSI) con canales
B. (Véase el Capítulo 16 donde se trata RDSI.)
 LAPD: El procedimiento de acceso a enlace para canales D. LAPD es otro subconjunto simplificado de HDLC
que se usa en la Red Digital de Servicios Integrados (RDSl). Se usa para señalización (control) fuera ele banda.
Usa modo balanceado asíncrouo (ABM).
 LAPM: El procedimiento de acceso al medio para módems (LAPM) es un subconjunto simplificado de HDLC
para módems. Se ha diseñado para realizar la conversión asíncrono síncrono, detección de errores y
retransmisión. Se ha desarrollado para aplicar las caracteristicas de HDLC a los módems.

Proyecto 802
En 1985, la Computer Society del IEEE comenzó el proyecto, denominado Proyecto 802, para definir estándares que
permitieran la intercomunicación entre equipos de distintos fabricantes. El Proyecto 802 no busca reemplazar ninguna
parte del modelo OSI. En lugar de eso, es una forma de especificar funciones del nivel físico, el nivel de enlace de datos
y, en menor extensión, el nivel de red para permitir la interconectividad de los principales protocolos LAN.

El lEEE ha subdividido el nivel de enlace de datos en dos subniveles: control del enlace lógico (LLC, Logical Link Control)
y control de acceso al medio (MAC, Mediuni Access Control). El LLC no es específico para cada arquitectura; es decir,
es el mismo para todas las LAN definidas por el IEEE. Por otra parte, el subnivel MAC contiene un cierto número de
módulos diferentes, cada uno de los cuales contiene información específica del propietario para el tipo del producto
LAN que se quiere utilizar.

IEEE 802.1
El IEEE 802.1 es la parte del Proyecto 802 dedicada a los aspectos de comunicación entre redes LAN y MAN. Aunque
todavía no está completo, intenta resolver las incompatibilidades entre arquitecturas de redes sin que sea necesario
hacer modificaciones en las direcciones existentes, los medios de acceso y los mecanismos ele recuperación de errores,
entre otros.

LLC
En general, el modelo del Proyecto 802 del IEEE toma la estructura ele una trama HDLC y la divide en dos conjuntos
de funciones. Un conjunto contiene las porciones de usuario final de la trama: las direcciones lógicas, la información
de control y los elatos. Estas funciones son gestionadas por el protocolo de control ele enlace lógico (LLC) del IEEE
802.2. Se considera que el LLC es la capa superior del nivel de enlace ele datos del IEEE 802 y es común a todos los
protocolos LAN.

MAC
El segundo conjunto de funciones, el subnivel de control de acceso al medio (MAC), resuelve la contención en el acceso
al medio compartido. Contiene especificaciones de sincronización, indicadores, flujo y control de error necesarias para
llevar Ja información de un lugar a otro, así como las direcciones físicas de la siguiente estación que debe recibir y
41
enrutar un paquete. Los protocolos MAC son específicos de Ja LAN que los usa (Ethernet, Red en anillo con paso de
testigo, Bus con paso de testigo, etc.)

802.5
La norma IEEE 802.5 o también llamada Token Ring, es un protocolo de LAN de IEEE que especifica una
implementación de la capa física y la subcapa MAC de la capa de enlace de datos. IEEE 802.5 usa acceso de transmisión
de tokens a 4 ó 16 Mbps en cableado STP y es similar a Token Ring de IBM. Una de sus características es que el anillo
no representa un medio de difusión, sino que una colección de enlaces punto a punto individuales. Fue seleccionada
por la IBM como su anillo LAN.

Las redes Token Ring son redes de tipo determinista, al contrario de las redes Ethernet. En ellas, el acceso al medio
está controlado, por lo que solamente puede transmitir datos una máquina por vez, implementándose este control
por medio de un token de datos, que define qué máquina puede transmitir en cada instante. Token Ring e IEEE 802.5
son los principales ejemplos de redes de transmisión de tokens.

Las redes de transmisión de tokens se implementan con una topología física de estrella y lógica de anillo, y se basan
en el transporte de una pequeña trama, denominada token, cuya posesión otorga el derecho a transmitir datos. Si un
nodo que recibe un token no tiene información para enviar, transfiere el token al siguiente nodo. Cada estación puede
mantener al token durante un período de tiempo máximo determinado, según la tecnología específica que se haya
implementado.

Cuando una máquina recibe un token y tiene información para transmitir, toma el token y le modifica un bit,
transformándolo en una secuencia de inicio de trama. A continuación, agrega la información a transmitir a esta trama
y la envía al anillo, por el que gira hasta que llega a la estación destino.

Mientras la trama de información gira alrededor del anillo no hay ningún otro token en la red, por lo que ninguna otra
máquina puede realizar transmisiones. Cuando la trama llega a la máquina destino, ésta copia la información contenida
en ella para su procesamiento y elimina la trama, con lo que la estación emisora puede verificar si la trama se recibió
y se copió en el destino. Como consecuencia de este método determinista de transmisión, en las redes Token Ring no
se producen colisiones, a diferencia de las redes CSMA/CD como Ethernet.

802.6
Una red de área metropolitana (MAN) es una red que cubre una gran área geográfica y que promete alta velocidad de
comunicación a grandes distancias que una red de área local (LAN) no podría manipular. La IEEE desarrollo el 802.6
que se encarga específicamente de lo concerniente a las redes de área metropolitana. Define un protocolo de alta
velocidad donde las estaciones enlazadas comparten un bus dual de fibra óptica usando un método de acceso llamado
Bus Dual de Cola Distribuida (DQDB). El bus dual provee tolerancia de fallos para mantener las conexiones si el bus se
rompe.

La capa física especifica cómo utilizar los diferentes medios físicos y velocidades subyacentes. El estándar soporta
diversos medios de transmisión, como los niveles 3 y 4 de Europa (34,368 y 139,264 Mbps, respectivamente), SONET
Y SDH (51,84 y 155,52 Mbps para SONET y 155,52 para SDH, synchronnous Data Hierarchy) y Ds-3 (44,736 Mbps).

La capa DQDB se corresponde con el MAC y proporciona los servicios no orientados a conexión (datagramas), servicios
orientados a conexión (canales virtuales y servicios isócronos (conmutacion de circuitos). Esto implica que la capa
DQDB establece la interface entre el nivel físico y los servicios de datos de la subred DQDB. Es la responsable de las
funciones típicas de encadenamiento de datos de una red LAN.

FDDI
FDDI, (Fiber Distributed Data Interface, interface de datos distribuidos por fibra) es un estándar para transmitir datos
por cable de fibra óptica a la velocidad de alrededor 100 millones de bits por segundo (10 veces más rápido que
Ethernet. La FDDI es una interfaz de red en configuración de simple o doble anillo, con paso de testigo, que puede ser
implementada con fibra óptica, cable de par trenzado apantallado (STP-Shielded Twisted Pair), o cable de par trenzado
sin apantallar (UTP-Unshielded Twisted Pair).

42
La tecnología FDDI permite la transmisión de los datos a 100 Mbps., según la norma ANSI X3T9.5, con un esquema
tolerante a fallos, flexible y escalable. El estándar FDDI especifica un troncal de fibra óptica multimodo, que permite
transportar datos a altas velocidades con un esquema de conmutación de paquetes y paso de testigo en intervalos
limitados. En cada "oportunidad de acceso" a la red, por parte de una estación, se transmite una o varias tramas FDDI,
de longitud variable hasta un máximo de 4.500 bytes.

La redundancia se realiza mediante una topología de anillo doble paralelo con rotación de los datos en sentidos
inversos. Al anillo primario se le denomina "A", y "B" al secundario. El anillo A es la ruta usada normalmente por los
datos que viajan a través de la red; se emplea el anillo secundario como backup, en caso de algún fallo en el anillo A,
de una forma totalmente automática, y sin intervención por parte del usuario.

Paso de testigo: El testigo es un paquete de datos, especial de las redes Token Ring, y la interface de datos distribuida
de fibra óptica que controla el acceso a la red. Una estación de trabajo toma el control del paquete de datos testigo y
tiene derecho de comunicar con la red. La diferencia con ethernet es que las estaciones no acceden simultáneamente
a la red. Solamente transmite una estación de trabajo que obtiene el paso de testigo disponible.

802.11
El estándar IEEE 802.11 define el uso de los dos niveles inferiores de la arquitectura o modelo OSI (capa física y capa
de enlace de datos), especificando sus normas de funcionamiento en una red de área local inalámbrica (WLAN).

La especificación IEEE 802.11 (ISO/IEC 8802-11) es un estándar internacional que define las características de una red
de área local inalámbrica (WLAN). Wi-Fi (que significa "Fidelidad inalámbrica", a veces incorrectamente abreviado
WiFi) es el nombre de la certificación otorgada por la Wi-Fi Alliance, anteriormente WECA (Wireless Ethernet
Compatibility Alliance), grupo que garantiza la compatibilidad entre dispositivos que utilizan el estándar 802.11. Por
el uso indebido de los términos (y por razones de marketing) el nombre del estándar se confunde con el nombre de la
certificación. Una red Wi-Fi es en realidad una red que cumple con el estándar 802.11.

El estándar 802.11 en realidad es el primer estándar y permite un ancho de banda de 1 a 2 Mbps. El estándar original
se ha modificado para optimizar el ancho de banda (incluidos los estándares 802.11a, 802.11b y 802.11g, denominados
estándares físicos 802.11) o para especificar componentes de mejor manera con el fin de garantizar mayor seguridad
o compatibilidad.

802.11a
El estándar 802.11 tiene en teoría un flujo de datos máximo de 54 Mbps, cinco veces el del 802.11b y sólo a un rango
de treinta metros aproximadamente. El estándar 802.11a se basa en la tecnología llamada OFDM (multiplexación por
división de frecuencias ortogonales). Transmite en un rango de frecuencia de 5 GHz y utiliza 8 canales no superpuestos.
Es por esto que los dispositivos 802.11a son incompatibles con los dispositivos 802.11b.

Dado que la banda de 2.4 GHz se utiliza mucho, la utilización de la banda de 5 GHz le proporciona al 802.11a la ventaja
de tener menor interferencia. Sin embargo, esta frecuencia portadora también ofrece desventajas, como lo son que
limita la utilización de 802.11a a casi la línea de visión, lo cual requiere la utilización de más puntos de acceso. También
significa que 802.11a no puede penetrar tan lejos como 802.11b/g dado que se absorbe más fácilmente, mientras que
otras cosas (como la alimentación) son iguales.

802.11b
El estándar 802.11b permite un máximo de transferencia de datos de 11 Mbps en un rango de 100 metros
aproximadamente en ambientes cerrados y de más de 200 metros al aire libre (o incluso más que eso con el uso de
antenas direccionales). 802.11b utiliza el mismo método de acceso definido en el estándar original CSMA/CA, y
funciona en la banda de 2,4 GHz. Debido al espacio ocupado por la codificación del protocolo CSMA/CA, en la práctica,
la velocidad máxima de transmisión con este estándar es de aproximadamente 5,9 Mbit/s sobre TCP.

802.11g
En junio de 2003, se ratificó un tercer estándar de modulación: 802.11g, que es la evolución de 802.11b. Este utiliza la
banda de 2,4 Ghz (al igual que 802.11b) pero opera a una velocidad teórica máxima de 54 Mbit/s, que en promedio es

43
de 22,0 Mbit/s de velocidad real de transferencia, similar a la del estándar 802.11a. Es compatible con el estándar b y
utiliza las mismas frecuencias.

802.11n
El estándar 802.11n fue ratificado por la organización IEEE el 11 de septiembre de 2009, en donde se definio que la
velocidad real de transmisión podría llegar a los 600 Mbps (lo que significa que las velocidades teóricas de transmisión
serían aún mayores), y debería ser hasta diez veces más rápida que una red bajo los estándares 802.11a y 802.11g, y
unas cuarenta veces más rápida que una red bajo el estándar 802.11b. También se espera que el alcance de operación
de las redes sea mayor con este nuevo estándar gracias a la tecnología MIMO (Multiple Input – Multiple Output), que
permite utilizar varios canales a la vez para enviar y recibir datos gracias a la incorporación de varias antenas.

A diferencia de las otras versiones de Wi-Fi, 802.11n puede trabajar en dos bandas de frecuencias: 2,4 GHz (la que
emplean 802.11b y 802.11g) y 5 GHz (la que usa 802.11a). Gracias a ello, 802.11n es compatible con dispositivos
basados en todas las ediciones anteriores de Wi-Fi. Además, es útil que trabaje en la banda de 5 GHz, ya que está
menos congestionada y en 802.11n permite alcanzar un mayor rendimiento.

802.16
WiMAX (Worldwide Interoperability for Microwave Access), es la denominación de una marca de referencia para
productos que pasan la conformidad y los test de interoperatividad de los estándares 802.16. IEEE802.16 es el grupo
de trabajo del IEEE especializado en acceso punto a multipunto de banda ancha. La ventaja principal se centra en la
posibilidad de realizar comunicaciones sin disponer de línea de vista, haciendo un uso eficiente de las tecnologías
existentes, pero sin desafiar a las leyes de la física.

Una característica importante del estándar es que define una capa MAC que soporta múltiples especificaciones físicas
(PHY). Esto es vital a la hora de permitir a los fabricantes su diferenciación respecto a la competencia y por lo que se
considera el estándar como un marco de trabajo para la evolución de tecnologías inalámbricas.

802.20
Mobile FI (o también Mobile Broadband Wireless Access, Mobile BWA) es el nombre por el que se conoce al estándar
IEEE 802.20 cuyo objetivo es el desarrollo de un protocolo de acceso inalámbrico de conmutación de paquetes y
optimizado para el soporte de servicios IP que posibilite el desarrollo de redes inalámbricas de acceso móvil asequibles,
interoperables y con la característica de “permanentemente conectado.

Este sistema proporcionará anchos de banda simétricos entre 1 y 4 Mbps en bandas de frecuencia reguladas por
debajo de los 3,5 GHz y a distancias de la estación base de unos 15 km. Cabe destacar que ha sido diseñado desde un
principio para el uso intensivo de IP y en particular orientado a la VoIP y aplicaciones IP.

44

Das könnte Ihnen auch gefallen