Sie sind auf Seite 1von 11

CLAUDE ELWOOD SHANNON

FUE UN MATEMÁTICO, INGENIERO ELÉCTRICO Y CRIPTÓGRAFO


ESTADOUNIDENSE RECORDADO COMO: “EL PADRE DE LA TEORÍA DE LA
INFORMACIÓN”.
SHANNON ES ANTE TODO CONOCIDO COMO PIONERO DE LA ERA DE LA
INFORMACIÓN A RAÍZ DE HABER DEMOSTRADO EN SU ARTÍCULO GERMINAL “A
MATHEMATICAL THEORY OF COMMUNICATION” (1948) [“UNA TEORÍA MATEMÁTICA
DE LA COMUNICACIÓN”] QUE LA INFORMACIÓN PODÍA DEFINIRSE Y MEDIRSE
COMO NOCIÓN CIENTÍFICA. EL ARTÍCULO HIZO NACER LA “TEORÍA DE LA
INFORMACIÓN” QUE ABARCA, POR UN LADO, APLICACIONES METAFÓRICAS EN
MUY DIFERENTES DISCIPLINAS QUE VAN DESDE LA BIOLOGÍA A LA LINGÜÍSTICA,
PASANDO POR LA TERMODINÁMICA O LA FÍSICA CUÁNTICA, Y POR OTRO, UNA
DISCIPLINA TÉCNICA DE ESENCIA MATEMÁTICA, BASADA EN CONCEPTOS
CRUCIALES COMO EL DE CAPACIDAD DE CANAL. S. EN NINGÚN MOMENTO
DEMOSTRÓ ESPECIAL ENTUSIASMO POR EL PRIMER TIPO DE APLICACIONES
INFORMACIONALES, CENTRANDO SU INTERÉS EN LOS ASPECTOS TÉCNICOS Y
HACIENDO TAMBIÉN CONTRIBUCIONES SIGNIFICATIVAS A OTROS CAMPOS COMO
LA CRIPTOGRAFÍA, LA INTELIGENCIA ARTIFICIAL Y CAMPOS EN LOS SUS IDEAS
ESTABAN ENRAIZADAS Y QUE PUDIERON APLICARSE FÁCIL Y RIGUROSAMENTE,
COMO FUERON LA TELECOMUNICACIÓN Y LA TEORÍA DE CÓDIGO.
PERFIL BIOLOGICO Y ACADEMICO:
Nació el 30 de abril de 1916 en Petoskey,
Michigan, Estados Unidos. Hijo del juez de Gaylord
y una profesora de secundaria. Los primeros años
de su vida los pasó en Gaylord, donde se graduó
de la secundaria en 1932. Desde su juventud se
destacó por su inquietud investigadora y su
habilidad en la creación de prototipos técnicos, tal
vez dando continuidad al talento creativo de su
abuelo. Se graduó con premio extraordinario en la
Universidad de Michigan en Ingeniería Eléctrica y
en Matemáticas. En 1936 obtuvo los títulos de
ingeniero electricista y matemático. Su interés por
la matemática y la ingeniería continuó durante toda
su vida. En 1936 aceptó la posición de asistente de
investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de
Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por
horas para el departamento, donde trabajó en el Computador analógico más avanzado de
esa era, el Differential Analyzer de Vannevar Bush. En ese momento surgió su interés hacia
los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés
se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por
la lógica y el álgebra booleana pudo desarrollar esta idea durante el verano de 1937, que
pasó en los Laboratorios Bell en la ciudad de Nueva York. En su tesis de maestría en el
MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la
conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando
apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio
a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una
concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más
tarde H. H. Goldstine, en su libro "Las computadoras desde Pascal hasta Von Neumann",
citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño
de circuitos digitales. Durante el verano de 1938 realizó trabajos de investigación en el MIT
y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras
realizaba un doctorado en matemática. En 1940 estudió una maestría en ingeniería
eléctrica y se doctoró en filosofía matemática.
Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con
muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser
Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George
Stibitz, quien construyó computadoras basadas en relevadores, Warren Weaver, quien
escribió una larga y clarificadora introducción a su The Mathematical Theory of
Communication y muchos otros más.
Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo
referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el
nombre de "Una Teoría Matemática de la Comunicación". En este trabajo se demostró que
todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las
cámaras de televisión, etc..) se pueden medir y que los canales de comunicación tienen
una unidad de medida similar. Mostró también que la información se puede transmitir sobre
un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión
del canal que la conduce, y sentó las bases para la corrección de errores, supresión de
ruidos y redundancia.
Claude E. Shannon falleció a la edad de 84 años, después de una larga lucha contra la
enfermedad de Alzheimer.
Sus importantes publicaciones fueron:
- Shannon, Claude Elwood (1948). «A mathematical theory of communication». Bell
System Technical Journal 27 (379-423 and 623-656).
- Shannon, Claude Elwood (1949). «Communication theory of secrecy systems». Bell
System Technical Journal 28 (656-715).
El teorema de Shannon:
En la revista de los
laboratorios Bell (EEUU) fue
publicado en 1948 un artículo
titulado “A Mathematical
Theory of
Communication” por el
investigador de dicho
laboratorio Claude E. Shannon.
Dicho artículo, de
aproximadamente 50 páginas de extensión, es un complejo análisis matemático de los
aspectos que intervienen en cualquier comunicación y de la cantidad de información que se
puede transmitir en función del canal empleado para ello y de las interferencias o ruido
presentes en dicho canal. Claude E. Shannon realizó dicho estudio sobre un sistema de
comunicación en general, sin particularizar en ningún medio de transmisión en concreto,
por lo que a lo largo de todo el artículo no aparece ninguna mención a componentes o
circuitos eléctricos, electrónicos, ópticos o cualquier otro sistema susceptible de emplearse
en comunicaciones digitales. Es, como su propio título indica, una teoría matemática de la
comunicación. En la siguiente imagen se muestra un fragmento del teorema de
Shannon
Como se ha
indicado anteriormente, Shannon estudia el caso general de un sistema de comunicación,
compuesto por un emisor, un receptor, un canal de transmisión y una fuente de ruido, que
en todo sistema real de transmisión existe en mayor o menor medida. En la siguiente
imagen se muestra la representación del propio Shannon de dicho sistema general de

partir del esquema anterior y a lo largo de más de cincuenta páginas, Claude E. Shannon
demuestra mediante complejos cálculos matemáticos su famoso teorema de las
comunicaciones. En la siguiente figura se muestra un ejemplo de dichos cálculos
Afortunadamente el resultado final del teorema de las
comunicaciones de Shannon es la siguiente pequeña fórmula, fácil de aplicar y de recordar,
pero de consecuencias fundamentales para todos los sistemas de comunicaciones
modernas.

En la fórmula de Shannon, C es la velocidad máxima en bps, B es el ancho de banda en Hz


y S/N es la relación señal a ruido (signal/noise). Y para cualquier sistema de transmisión
con un determinado ancho de banda y con una relación dada de señal a ruido, limita la
velocidad máxima en bps que se puede obtener, sea cual sea la técnica de transmisión que
se emplee. El límite de velocidad que impone el teorema de Shannon a cualquier sistema
real de transmisión hay que entenderlo de la misma manera que existe una temperatura de
cero absoluto y por debajo de la cual no se puede bajar o el límite de la velocidad de la luz.
Y esto es válido para cualquier sistema de transmisión (fibra óptica, radio, cable UTP, etc).
Ni se puede sobrepasar hoy en día ese límite ni se podrá en el
futuro.

Por ejemplo, en un sistema de comunicaciones como es la telefonía analógica, que utiliza


un ancho de banda de 3100 Hz (300-3400) y tiene una relación de señal a ruido de unos
35,5 dB (la señal es aproximadamente 3548 veces mayor que el ruido), la velocidad
máxima que se podrá obtener será de:

Que
es aproximadamente la velocidad máxima que se
puede obtener en las líneas analógicas y que
ocasiona que los modems sobre línea analógica no
superen en ningún caso los 33600 bps.
Tratamos de explicar de la mejor forma el Teorema de Shannon-Hartley
El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal
con ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el
resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma
que es equivalente a especificar la M en la fórmula de Hartley de la tasa de información en
términos de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación
correctora de errores, más fiable, que los niveles de pulso distinguibles.
Si existiera una cosa tal como un canal analógico con ancho de banda infinito y sin
ruido, uno podría transmitir cantidades ilimitadas de datos sin error, sobre este, por cada
unidad de tiempo. Sin embargo, los canales de comunicación reales están sujetos a las
limitaciones impuestas por el ancho de banda finito y el ruido.
Entonces, ¿cómo el ancho de banda y el ruido afectan a la tasa en la que la información
puede ser transmitida sobre un canal analógico?
Aunque parezca sorprendente, las limitaciones del ancho de banda, por sí solas, no
imponen restricciones sobre la tasa máxima de información. Esto es porque sigue siendo
posible, para la señal, tomar un número infinitamente grande de valores distintos de voltaje
para cada pulso de símbolo, siendo cada nivel levemente distinto del anterior que
representa a un determinado significado o secuencia de bits. Sin embargo, si combinamos
ambos factores, es decir, tanto el ruido como las limitaciones del ancho de banda,
encontramos un límite a la cantidad de información que se puede transferir por una señal
de potencia limitada, aun cuando se utilizan técnicas de codificación de niveles múltiples.
En el canal considerado por el teorema de Shannon-Hartley, el ruido y la señal se
suman. Es decir, el receptor mide una señal que sea igual a la suma de la señal que
codifica la información deseada y una variable aleatoria continua que represente el ruido.
Esta suma crea incertidumbre en cuanto al valor de la señal original.
Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se
puede, en principio, recuperar la información de la señal original considerando todos los
posibles estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se
asume que el ruido es generado por un proceso gaussiano con una varianza conocida.
Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente
se llama a esta varianza la potencia de ruido.
Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano
es añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias
dentro del ancho de banda del canal.3
De tal forma tenemos las Implicaciones del teorema
Comparación de la capacidad de Shannon con la ley de Hartley
Comparando la capacidad del canal con la tasa de información de la ley de Hartley,
podemos encontrar el número eficaz de los niveles distinguibles M:
La raíz cuadrada convierte con eficacia el cociente de potencias de nuevo en un
cociente de voltaje, así que el número de niveles es aproximadamente proporcional al
cociente entre el valor de la raíz cuadrada media de la amplitud de la señal y la desviación
estándar del ruido.
Esta semejanza entre la capacidad de Shannon y la ley de Hartley no se debe
interpretar como {\displaystyle M} M niveles de pulsos pueden enviarse literalmente sin
ninguna confusión. Se necesitan más niveles, para permitir codificación redundante y la
corrección de errores, pero la tasa de datos neta que puede acercarse con la codificación
es equivalente a usar M en la ley de Hartley.
Y aunque no lo conocieran en su momento, también ha afectado a todas las
comunicaciones en el pasado, por ejemplo, a las comunicaciones mediante tambores: en
este caso se ve con claridad que el límite de velocidad vendrá dado por la velocidad con la
que el emisor puede golpear el tambor produciendo sonidos lo suficientemente separados
para que los pueda identificar el receptor. Suponiendo que el tambor se comporta como
una fuente de sonido ideal, el medio, que en este caso es el aire, no se comporta en
absoluto con un sistema de transmisión ideal, ya que los pulsos de sonido se transmiten
sufriendo un cierto retraso y sufriendo también diversas reflexiones y ecos en las propias
capas de aire y en los distintos obstáculos que se encuentran en el camino. Los pulsos de
sonido llegan al receptor por varios caminos diferentes y por tanto con diferentes retardos
entre sí, por lo que el receptor no percibe los diferentes golpes de tambor separados de
forma nítida, sino con una cierta mezcla entre ellos. A medida que aumenta la velocidad de
envío de sonidos el efecto de mezcla en el receptor aumenta, llegando un momento en el
que no es posible diferenciar los golpes individuales en el tambor y por tanto, no es posible
interpretar la información recibida.

Y aunque es cierto es que los medios de transmisión continuamente están aumentando


las velocidades máximas disponibles, la forma en que lo consiguen es o bien mejorando el
ancho de banda o bien mejorando la relación señal a ruido, es decir, cumpliendo con lo
establecido en el teorema de Shannon. Cuando en un medio de comunicación mejoramos
el ancho de banda, por ejemplo, al pasar del par de cobre del viejo sistema telefónico
analógico a la fibra óptica o los cables coaxiales empleados en las redes FTTH y en HFC,
directamente se pueden enviar señales de más bits por segundo, aun empleando el mismo
sistema de codificación. En cambio, cuando ya no es posible aumentar el ancho de banda,
todavía podemos mejorar la relación señal a ruido, como por ejemplo utilizando cables
apantallados o trenzando los pares para evitar la influencia entre ellos. Con este sistema
podemos utilizar codificaciones multinivel más complejas de tal manera que, aunque la
señal transmitida no aumenta los cambios en la línea por segundo (baudios), sí que se
aumentan los bits por segundo transmitidos. En la siguiente imagen se observan las
codificaciones MLT-3, PAM 5 y PAM 16 utilizadas respectivamente en los sistemas Ethernet
100 BASE-TX, 1000 BASE-T y 10GBASE-T

Evidentemente, cuantos más niveles de señal se puedan transmitir, más bits se podrán
codificar en cada cambio de la señal. Así, con el sistema PAM16 se pueden transmitir hasta
4 bits en cada cambio de la señal (2^4=16). Por supuesto, para que todo esto pueda
funcionar es necesario que el nivel de ruido en cada uno de los pares del cable del sistema
10GBASE-T debe de ser muy inferior al ruido que puede haber en los pares de un cable
que se utiliza para transmitir señales de 100-BASE-TX o 1000-BASE-T, ya que de otra
forma la señal PAM16 quedaría absolutamente enmascarada por el ruido y sería imposible
la comunicación.
BIBLIOGRAFIA:
http://telefonia.blog.tartanga.eus/shannon-nyquist-fourier-y-otros/el-teorema-de-
shannon/
https://www.biografiasyvidas.com/biografia/s/shannon.htm
https://www.lavozdegalicia.es/noticia/informacion/2016/04/30/claude-shannon-
ideo-teoria-informacion-crear-ajedrez-ordenador-sentar-bases-
comunicacion/00031461974649557666597.htm
https://www.infoamerica.org/teoria/shannon1.htm
“EL AÑO DEL DIÁLOGO Y LA RECONCILIACIÓN
NACIONAL”

UNIVERSIDAD NACIONAL DE SAN AGUSTIN

FACULTAD DE INGENIERIA DE PRODUCCIÓN Y


SERVICIOS

ESCUELA PROFESIONAL DE INGENIERIA ELECTRÓNICA

SISTEMAS DE CONTROL DIGITAL

TEOREMA DE SHANNON

Arequipa – Perú

2018

Das könnte Ihnen auch gefallen