Sie sind auf Seite 1von 11

Existen dos tipos principales de esquemas de codificación de corrección de error

sin retorno (FEC):


• Codificación por bloques –donde un
grupo (bloque) de bits se procesa en
conjunto a fin de generar un nuevo
bloque codificado (más largo) para
transmisión. En el receptor se utiliza
un decodificador por bloques com-
plementario. La codificación por
bloques se describe detalladamente
en la sección siguiente.
• Codificación convolucional –que
funciona sobre el flujo de bits en se-
rie entrante generando un flujo de
salida en serie codificado en tiempo
real. En el receptor se utiliza un de-
codificador en serie complementario
(convolucional). La codificación convolucional se describe en detalle en la sec-
ción 7.5.

 &RGLILFDFLyQSRUEORTXHV

Se aplica el término codificación por bloques cuando un bloque de entrada de k


bits ocasiona un bloque de salida de n bits, y a
esto se le denomina código (n, k). Este au-
mento en la longitud del bloque significa que
la velocidad de datos útil (la velocidad de
transferencia de información) se reduce en un
factor k/n. Esto se llama coeficiente del código.
Copyright © 2003. Marcombo. All rights reserved.

Coeficiente del código R = k/n

Los bits de datos adicionales se eligen cuidadosamente de manera que ayuden a


diferenciar una configuración de k bits en un bloque de una configuración diferente
de k bits de entrada. El factor 1 – k/n es denominado usualmente redundancia del có-
digo por bloques.

Como analogía, considérense los bloques de datos de entrada como si estuvieran


representados por bolas de diferentes tamaños. Después de la codificación, las bolas

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
de diferentes tamaños se han pintado con distintos colores. Ahora el decodificador se
optimiza para comprobar tanto el tamaño como el color. Si el receptor detecta una
bola de un tamaño particular, con el color incorrecto, ahora puede detectar el error.
También puede ser posible corregir el error a partir de su conocimiento almacenado
de todos los tamaños y colores de bolas válidos.
Si los errores de canal fueran tan numerosos que el tamaño y color de la bola fue-
ran transformados en otro tamaño y color de bola válidos, entonces el error sería in-
detectable e incorregible.

El rendimiento de un código es una medida de lo bien que pueden detectarse o


corregirse errores frente a la carga general de bits requerida para realizar el código.
En la analogía de las bolas, la codificación de colores de las mismas puede ser muy
efectiva, pero añadir color puede introducir una muy alta carga general de datos, y
quizás cambiar la forma de las bolas puede proporcionar la misma capacidad de de-
tección o corrección de errores, pero utilizando menos bits de datos adicionales. Por
consiguiente, este sería clasificado como un esquema de codificación más eficiente o
con mayor rendimiento.
Copyright © 2003. Marcombo. All rights reserved.

Ciertos tipos de códigos son mejores en la detección que en la corrección de erro-


res, y éstos están, así, mejor adaptados a esquemas ARQ en los que necesitamos sa-
ber que ha ocurrido un error, y nuestra acción correctora es requerir una retransmi-
sión. Igualmente, existen códigos más adecuados para corregir errores y éstos se uti-
lizarían donde no fuese posible la retransmisión. Un buen ejemplo para este tipo de
código serían los dispositivos buscapersonas, o los ¡sistemas de control de misiles!

Los códigos de Hamming, cuyo nombre procede de su descubridor, R.W. Ham-


ming, son un tipo bien conocido de código por bloques.
Aquí se ilustra un código de Hamming con un coeficiente R = 4/7, con cada uno
de los 16 posibles bloques de entrada de cuatro bits, codificados como bloques de

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
salida de siete bits. Este conjunto
Código de Hamming R = 4/7
de 16 bloques de salida se ha
seleccionado a partir de las 27 = Número Datos del bloque Datos del bloque
= 128 posibles configuraciones de bloque de entrada de salida
de siete bits como las más dife- 0 0000 000 + 0000
rentes. En este caso, puede verse 1 1000 110 + 1000
que cada uno de los bloques de 2 0100 011 + 0100
salida difiere de los otros bloques
3 1100 101 + 1100
por lo menos en tres bits. De
4 0010 111 + 0010
aquí, si ocurren uno o dos errores
en la transmisión de un bloque, el 5 1010 001 + 1010
decodificador se dará cuenta que 6 0110 100 + 0110
este bloque no es válido y señali- 7 1110 010 + 1110
zará un error. En el caso de que 8 0001 101 + 0001
sólo exista un bit erróneo, tam- 9 1001 011 + 1001
bién es posible para el receptor 10 0101 110 + 0101
adaptar el bloque recibido con el 11 1101 000 + 1101
bloque válido más cercano y, por 12 0011 010 + 0011
consiguiente, corregir el error 13 1011 100 + 1011
único. Si tienen lugar tres errores
14 0111 001 + 0111
en un bloque, el bloque original
15 1111 111 + 1111
puede ser transformado en un
nuevo bloque válido y todos los
errores volverse indetectables.

El número de diferencia de bits entre pares de bloques codificados (palabras de


código) es una propiedad muy importante del código, y se conoce como distancia de
Hamming. Cuanto mayor sea la distancia de Hamming, más diferentes serán las pa-
labras o bloques de código y mejor la oportunidad de detectar o corregir errores.

Un código por bloques con una distancia de Hamming de p puede detectar


hasta p – 1 errores, y corregir (p – 1)/2 errores.
Copyright © 2003. Marcombo. All rights reserved.

Aquí se muestra un subcon-


junto de palabras de código a
partir de un código (4, 7) que 4 0010 111 + 0010
puede observarse que tienen una 5 1010 001 + 1010
distancia de Hamming de 3 entre 6 0110 100 + 0110
cada palabra de código. Si esta
7 1110 010 + 1110
fuera la mínima distancia entre
8 0001 101 + 0001
todas las palabras de código en el
conjunto, entonces este código se
clasificaría como de mínima dis-
tancia de Hamming dmín.= 3. Así,
el código podría detectar hasta
dos errores y corregir un error.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
Aquí se muestran las curvas BER para BPSK
sin codificar y codificada para el código de
Hamming k = 4, n = 7. Las curvas se han nor-
malizado para igual energía por bit de informa-
ción (precodificación), teniendo presente que la
energía por bit transmitido es menor que la ener-
gía por bit de información en un factor igual al
coeficiente del código R. Las matemáticas reque-
ridas para calcular el comportamiento de algunos
de estos códigos son muy complejas y a menudo
sólo es posible deducir resultados aproximados o
ejecutar simulaciones sobre períodos de tiempo
muy largos.
La mejora en el comportamiento de Eb/N0 de los sistemas codificados frente a los
sin codificar, a una BER especificada, se denomina ganancia de codificación.
Obsérvese que:

Eb(precodificado) = Eb (postcodificado)/R

k n R = k/n
Existe una familia completa de códigos de
4 7 0,57
Hamming, algunos de los cuales se muestran aquí. A
11 15 0,73
medida que aumenta la longitud, los códigos dan un
26 31 0,84
comportamiento similar de corrección a una determi-
57 63 0,91
nada BER, pero con una carga general de codifica-
120 127 0,94
ción siempre reducida. Además, la ganancia de codi-
247 255 0,968
ficación asintótica aumenta con el incremento de la
502 511 0,982
longitud de código.
Por ejemplo, el código de Hamming (4, 7) tiene
una ganancia de codificación asintótica de unos 0,5 dB mientras el código de
Hamming (120, 127) tiene una ganancia de codificación del orden de 1,5 dB. El coe-
Copyright © 2003. Marcombo. All rights reserved.

ficiente del código es más alto para el código (120, 127), R = 120/127, que el código
(4, 7), R = 4/7, y así tiene menos redundancia.

A medida que se incrementa la longitud de


un código por bloques, empiezan a aparecer
dos problemas:
• El tiempo ocupado en reunir k bits para
formar un bloque se incrementa con el au-
A

mento de la longitud del bloque, introdu-


ciendo un retardo en el proceso de transmi-

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
sión que puede no ser aceptable para aplicaciones en tiempo real tales como
transmisión de voz.
• La complejidad del decodificador se incrementa casi exponencialmente con la
longitud de los bloques cuando el decodificador busca a través de 2k palabras de
código válidas para encontrar la que mejor se adapte con los 2n bloques codifica-
dos posibles entrantes. Además de la complejidad, el retardo de la decodificación
puede ser significativo.

 &RGLILFDFLyQSRUEORTXHVDYDQ]DGD

Coeficiente
Los códigos de Hamming son, de del código Núm. de bits
hecho, un subconjunto de una familia de k n R = k/n corregidos
códigos más general llamada códigos 4 7 0,57 1
BCH (Bose-Chaudhuri-Hocquenghem) 5 15 0,33 3
descubierta en 1959 y 1960. 24 63 0,38 7
Mientras que los códigos de Ham- 64 127 0,5 10
ming sólo detectan hasta dos errores o 247 255 0,97 1
corrigen uno, la familia de códigos ge- 171 255 0,67 11
neral BCH puede detectar y corregir 11 1023 0,01 255
cualquier número de errores si la pala-
bra de código es suficientemente larga.
Por ejemplo, el código de Hamming (4, 7) sólo corrige un error, mientras que el
código BCH (64, 127) corrige 10 errores. Para una potencia real de corrección de
errores, el código (11, 1023) puede corregir la asombrosa cantidad de 255 errores pe-
ro verdaderamente con una carga general de codificación muy alta. Esto se utilizaría
cuando la fiabilidad de la transmisión es fundamental y el rendimiento de los datos es
menos importante.

Los códigos por bloques


descritos hasta ahora funcio-
Copyright © 2003. Marcombo. All rights reserved.

nan mejor cuando los errores


están distribuidos uniforme y
aleatoriamente entre los blo-
ques entrantes. Este es el caso
usualmente para canales co-
rruptos principalmente por
AWGN, tal como un enlace
telefónico de línea terrestre.
Sin embargo, en un entorno de radio móvil, los errores ocurren a menudo por rá-
fagas cuando la señal recibida se desvanece y aparece debido a la propagación mul-
titrayectoria y al movimiento del usuario. A fin de distribuir estos errores más uni-
formemente entre bloques codificados, se utiliza un proceso conocido como entrela-
zado.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
Una manera de conseguir el entrelazado es leer los
A

bloques de datos codificados como filas en una matriz.


Una vez está llena la matriz (incurriendo en una penaliza-
ción de retardo de tiempo), los datos pueden leerse en
columnas, redistribuyendo los datos para la transmisión.
En el receptor, se realiza un proceso de desentrelazado
utilizando un proceso similar de vaciar y llenar una ma-
triz, reconstituyendo los bloques originales. Al mismo
tiempo los errores de ráfagas son redistribuidos uniformemente a través de los blo-
ques.
El número de filas o columnas en la matriz algunas veces es referida como pro-
fundidad de entrelazado. A mayor profundidad de entrelazado, mayor resistencia a
largos desvanecimientos, pero también mayor latencia en el proceso de decodifica-
ción debido a que tanto la matriz del transmisor como del receptor deben estar llenas
antes de que pueda tener lugar la codificación o la decodificación.

EJEMPLO 7.3
Un enlace de datos de radio móvil utiliza entrelazado
para dispersar los errores de datos en recepción. Si la
profundidad de entrelazado usada es una matriz de 10 × 8,
y la velocidad de transmisión de bits para la señal es de
9600 bps, ¿cuál es la latencia introducida por el proceso
de entrelazado?

El proceso de desentrelazado requiere que las filas de


la matriz estén completamente llenas antes de que los
datos puedan leerse desde las columnas, de este modo,
deben leerse en la matriz 8 × 10 bits = 80 bits antes de
que pueda ser extraído el desentrelazado de datos. La velocidad de transmisión de
datos es de 9600 bps, de este modo el tiempo ocupado en cargar la matriz es
80/9600 = 8,3 ms. Un período adicional de 8,3 ms se utilizará en cargar la matriz de
Copyright © 2003. Marcombo. All rights reserved.

entrelazado en el transmisor, dando una latencia total de 16,6 ms.

Los códigos RS son un subconjunto de códigos BCH que funcionan al nivel de


bloque en vez de a nivel de bit. En otras palabras, el flujo de datos entrante es empa-
quetado primero en pequeños bloques, y estos bloques son después tratados como un

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
nuevo conjunto de k símbolos que han de ser empaquetados en un bloque sobrecodi-
ficado de n símbolos. El resultado es que el decodificador puede detectar y corregir
bloques completos con errores. Así, es posible para un bloque entero estar corrupto
debido a una ráfaga de errores en un desvanecimiento profundo, por ejemplo, y el re-
ceptor todavía poder rehabilitar la información correcta.
Los códigos RS se utilizan a menudo en sistemas de radio móviles en los que son
comunes errores de ráfagas, ya sea como una alternativa a, o en adición a, entrelaza-
do. Los códigos RS también se utilizan como parte del mecanismo corrector de erro-
res en reproductores de CD. Los inevitables rasguños sobre la superficie del disco
dan por resultado ráfagas de errores procedentes del disco, haciendo que el código
RS esté idealmente adaptado a esta tarea.

 &RGLILFDFLyQFRQYROXFLRQDO

En contraste con los códigos por


bloques, un código convolucional se
realiza sobre una base bit a bit (en
serie) para el flujo de datos de fuente
entrante. El codificador tiene memo-
ria y ejecuta un algoritmo utilizando un número predefinido de los bits más recientes
para producir la nueva secuencia de salida codificada.
El proceso de decodificación usualmente también es un proceso en serie que se
basa en los bits (o símbolos) de datos recibidos, actuales y previos. Tanto el codifica-
dor como el decodificador pueden realizarse utilizando motores recursivos, con uno
de los más eficientes y bien conocido decodificador convolucional de Viterbi, nom-
bre debido a su inventor Andrew Viterbi (Viterbi, 1967).

Hasta ahora en este capítulo,


se ha sobreentendido que el pro-
ceso de decodificación se realiza
Copyright © 2003. Marcombo. All rights reserved.

en el flujo de bits demodulado a


la salida del receptor –los llama-
dos datos de decisión hard. Una
decisión hard significa que el
decodificador no recibe infor-
mación de lo próximos que estaban los símbolos al límite de decisión, antes de que
ésta fuese tomada.
Proporcionando un decodificador con información “marginal” sobre la proximi-
dad de cada símbolo al límite de decisión, el decodificador puede aplicar en su pro-
ceso de decodificación mayor o menor énfasis en la validez de cualquier símbolo da-
do. En esencia, el decodificador intenta ponderar las decisiones y formar una visión
general sobre muchos símbolos en cuanto a la secuencia más probable de símbolos
transmitida. Este proceso de decodificación mejorado se llama decodificación de de-
cisión soft.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
Una representación gráfica frecuentemente utilizada del proceso de codificación y
decodificación convolucional es el diagrama “trellis” (estructura enrejada). En cada
etapa en la estructura “trellis”, existe cierto número de símbolos válidos o configura-
ciones de bits, y a través del tiempo, el decodificador desarrolla una imagen del tra-
yecto exhibido por los datos recibidos a través de la estructura “trellis”.

Con decodificación de decisión soft, cada elemento en el trayecto puede ser pon-
derado con un factor de confianza utilizando la información “marginal”. El trabajo
del decodificador es, en efecto, comprobar todos los posibles trayectos a través de la
estructura “trellis” (no justamente el más aparente) y suma todas las ponderaciones
sobre N secciones, para ver qué trayecto, de hecho, da el índice de confianza más al-
to. Este trayecto es entonces elegido como el conjunto correcto de símbolos recibidos
y es decodificado para dar el flujo de bits de salida.
El algoritmo de Viterbi es muy efectivo en la ejecución de este proceso de bús-
queda del trayecto y en años recientes ha sido fabricado eficazmente en un chip. En
Ziemer y Peterson (1992) puede encontrarse más información sobre codificación
“trellis” y el algoritmo de Viterbi.
Copyright © 2003. Marcombo. All rights reserved.

Como sería de esperar, un esquema de decodificación de decisión soft tiene una


mayor posibilidad de detectar y corregir errores que un esquema de decisión hard.
Si hay disponible información de ponderación ilimitada y no cuantificada para el
decodificador, entonces el decodificador de decisión soft debería proporcionar hasta
3 dB de mejora en la ganancia de codificación sobre un decodificador de decisión
hard para la misma longitud de código. Si la información de ponderación es cuantifi-
cada a sólo ocho niveles, la ganancia de codificación es reducida aproximadamente a
2,75 dB.
Es común para decodificadores de decisión soft utilizar ocho niveles de pondera-
ción o menos para evitar complejidad indebida en el hardware/software del decodifi-
cador.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
 &RGLILFDFLyQ\PRGXODFLyQFRPELQDGDV

El problema con todos los esquemas de codificación descritos hasta ahora es que
todos ellos incrementan la cantidad de datos a transmitir, lo que requiere un aumento
del ancho de banda de transmisión o bien una reducción de la capacidad del canal si
el ancho de banda se mantiene fijo.

Sin embargo, existe un método obvio para recuperar cualquier pérdida de capaci-
dad y que consiste en incrementar el número de estados de símbolo en el esquema de
modulación. Sabemos que esto ocasionará una gran penalización de Eb /N0, pero, ¿es
ésta mayor o menor que la ganancia de codificación que podemos conseguir con la
capacidad extra de canal obtenida?

En 1976, G. Ungerboeck e I. Csajka publicaron un artículo muy famoso sobre


este tema (Ungerboeck y Csajka, 1976), donde mostraban que, de hecho, la ganancia
de codificación potencial podía en realidad exceder la penalización de Eb /N0 debida
al incremento de estados de símbolo, ¡en 3-4 dB! En un trabajo posterior (Unger-
boeck, 1982) se presentaron ejemplos de esquemas PSK M-aria y QAM M-aria con
Copyright © 2003. Marcombo. All rights reserved.

ganancias de codificación mayores de 6 dB.


La realización eficiente de estos esquemas de codificación a menudo utilizan co-
dificación convolucional y los algoritmos de decodificación de Viterbi basados en
estructuras “trellis” mencionados anteriormente. Por esta razón, este tipo de codifica-
ción es referida como modulación codificada “trellis” o enrejada (TCM).

En la actualidad TCM se utiliza extensamente


en los modem de alta velocidad telefónicos y de ra-
dio. Por ejemplo, un modem telefónico de 28,8
kbps (estándar V.34) puede usar hasta 1408-QAM,
con un código de 16 estados, coeficiente 2/3.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
Existen más cuestiones prácticas a observar con TCM:
• Incrementar el número de estados de símbolo puede ocasionar una penalización
de la realización además de la penalización de Eb /N0 teórica, lo que requiere ma-
yor precisión de amplitud y fase en el sistema transmisor/receptor.
• Más estados de símbolo pueden dar lugar a un aumento de la relación pico/media
que ha de afrontar el hardware de transmisión.
• Cuando se hacen funcionar sistemas TCM en condiciones de señal muy pobres,
se “caen” mucho más rápidamente que los sistemas sin codificar de rendimiento
equivalente.

La significativa ganancia de codificación de los


modem basados en TCM significa que ahora es
posible acercarse mucho al límite de Shannon para
ciertos tipos de modulación y niveles de codifica-
ción. La complejidad de la realización podía algu-
na vez haber parecido intimidatoria y casi imprac-
ticable antes de 1976 en que la técnica fue publi-
cada inicialmente (Ungerboeck y Csajka, 1976),
pero los modem TCM actuales están completa-
mente integrados en un solo CI y disponibles como
“plug-ins” del tamaño de tarjeta de crédito
(PCMCIA) para PC.

Una vez puestas de relieve las principales ventajas de la codificación de canal (a


nivel de bit) y de modulación (a nivel de símbolo) combinada, se plantea la cuestión
de si añadir codificación inteligente de fuente producirá ventajas adicionales.
Indudablemente la respuesta es afirmativa, con algunos esquemas ya en uso. Mo-
dernos codificadores de voz, por ejemplo, asignan prioridad a ciertas configuraciones
de bits que a su vez son asignadas a protección extra dentro del código de canal. Si-
milarmente, en los más recientes
Copyright © 2003. Marcombo. All rights reserved.

sistemas de transmisión de imagen


se está dando prioridad a bits clave
de información en una imagen.
Determinados grupos de inves-
tigación también están consideran-
do la viabilidad de la aplicación de
la información de fuente directa-
mente a símbolos M-arios, evitan-
do completamente el nivel de codi-
ficación de bits, en un intento
posterior de integrar y optimizar
las tareas de procesado de fuente,
canal y modulación.

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.
PREGUNTAS

7.1 Un sistema PCM utiliza una velocidad de muestreo de 8000 muestras por se-
gundo. ¿Cuál es la máxima frecuencia de la señal de entrada que puede so-
portar este sistema sin que exista “aliasing”? ¿Cuál es la mínima frecuencia
de entrada que se puede soportar?

7.2 ¿Cuál será la salida desde convertidores A/D y D/A adosados mutuamente,
para una señal de entrada consistente en dos tonos, uno de 5000 Hz y otro de
9000 Hz? La velocidad de muestreo para el sistema es de 12 000 mues-
tras/segundo.

7.3 ¿Qué margen se requiere en el convertidor A/D para soportar una señal de
fuente que tenga un margen dinámico hasta 120 dB?

7.4 ¿Cuál será la relación señal de pico/ruido de cuantificación para un converti-


dor de 16 bits, expresada en decibelios?

7.5 Determinar los bits de comprobación de paridad para las siguientes palabras
de datos, suponiendo paridad impar:

(a) 101100111
(b) 0010100
(c) 0111011110

7.6 Una palabra de datos con un único bit de paridad par es recibida con tres bits
erróneos. ¿Detectará estos errores el proceso de comprobación de paridad?

7.7 Un flujo de datos con una velocidad de transmisión de bits de 12 kbps se co-
difica utilizando un código por bloques previo a la transmisión que da por re-
sultado una velocidad de bits codificados de 20 kbps. ¿Cuál es el coeficiente
del código que está utilizando este sistema, y cuál es la redundancia de este
código por bloques particular?

7.8 Un código por bloques (127, 120) se utiliza para proveer detección de errores
Copyright © 2003. Marcombo. All rights reserved.

en un enlace por satélite. Si la velocidad de transmisión en el aire (emitiendo)


de datos codificados es de 254 kbps, ¿cuál es la velocidad de transferencia
de información para el enlace?

7.9 Un código por bloques está diseñado con una distancia de Hamming de 5.
¿Cuántos errores puede detectar el código, y cuántos errores puede corregir?

7.10 ¿Qué distancia de Hamming se requiere para un código por bloques que debe
corregir hasta cuatro errores en cada bloque?

Bateman, Andy. Comunicaciones digitales, Marcombo, 2003. ProQuest Ebook Central,


http://ebookcentral.proquest.com/lib/bibliotecaupssp/detail.action?docID=3173537.
Created from bibliotecaupssp on 2017-12-14 04:24:57.

Das könnte Ihnen auch gefallen