Sie sind auf Seite 1von 35

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA


UNIDAD ZACATENCO
INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

COMUNICACIONES ANALÓGICAS

Unidad II:
Análisis de Señales Aleatorias
2.1 Probabilidad y estadística en comunicaciones.
2.2 Definición de procesos aleatorios.
2.3 Procesos estacionarios
2.4 Distribuciones multivariables
2.5 Teorema del límite central

EQUIPO: 1
INTEGRANTES:

Flores Espinosa Itzel Mayenzy 5CV2


Gallardo Uriarte Antonio de Jesús 5CV1
González de la Luz Fernando 5CV1
López Morales Janis Malevnova 5CV2
Lujano Solis Elizabeth 5CV2
Pérez Martínez Edgar 5CV1

PROFESORA: MARÍA GUADALUPE BENÍTEZ CHÁVEZ

FECHA DE EXPOSICIÓN: 18 DE OCTUBRE DE 2016

CICLO ESCOLAR:
2017-1
ÍNDICE 1

INTRODUCCIÓN 2

2.1. PROBABILIDAD Y ESTADÍSTICA EN COMUNICACIONES 3

2.2. DEFINICIÓN DE PROCESOS ALEATORIOS 9

2.3 PROCESOS ESTACIONARIOS 13

2.4 DISTRIBUCIONES MULTIVARIABLES 20

2.5 TEOREMA DEL LIMITE CENTRAL 28

GLOSARIO TÉCNICO 32

BIBLIOGRAFÍA 34

1
INTRODUCCIÓN

La asignatura de Comunicaciones Analógicas constituye la base dentro de la Ingeniería


en Comunicaciones también es la piedra fundamental para las asignaturas
subsecuentes. Revisa conceptos que son necesarios para la comprensión y aplicación
en todos los temas relacionados que serán tratados en cursos posteriores. Los temas
impartidos en esta asignatura potencializan el análisis y diseño de señales
determinísticas y aleatorias que son indispensables para el egresado.

El estudio de las señales aleatorias es necesario para las Comunicaciones debido a que
ningún sistema es determinista. Interferencias, ruido o distorsiones son elementos
suficientes para que una señal se vea modificada y por lo tanto, no cumpla con las
características de las señales vistas con anterioridad. Describir una señal aleatoria
requiere de un conjunto completamente diferente al que describe a las señales
deterministas.

Uno de los principales objetivos de este texto, es introducir a los interesados a los
principios de las señales aleatorias y proveer algunas de las herramientas con las que
se analizarán este tipo de señales.

Todos hemos escuchado el sonido de fondo en nuestra radio, de vez en cuando. Si la


analizamos con un osciloscopio, aparecería como una fuente de voltaje que es azarosa
en el tiempo. Ésta es una señal no deseable, ya que no nos permite escuchar bien el
programa y es denominado ruido

Las formas de onda aleatorias no deseadas no sólo aparecen en el radio, sino también
en otros sistemas: en la televisión es otro lugar de aparición frecuente. Si nos ponemos
a observar todos los lugares en los que encontramos esas señales no deseadas,
podemos interpretar que el ruido aparece en todos los sistemas. Inclusive en la
comunicación más directa: una plática entre dos personas como la que practicamos
todos los días al saludar a un amigo.

Aunque también existen señales aleatorias deseables, y son casi ilimitados, por ejemplo,
los bits en un flujo de bits de computadora fluctúan de forma aleatoria con el tiempo entre
los estados cero y uno, creando de ese modo una señal aleatoria deseable. En otro
ejemplo, la tensión de salida de un generador de energía eólica podría ser al azar, porque
la velocidad del viento también lo hace.

Es por eso que debemos tomar dos cosas en cuenta para la caracterización de las
señales aleatorias. Una de ellas es cómo describir cualquiera de una variedad de
fenómenos aleatorios y otro es cómo llevar el tiempo en el problema, con el fin de crear
una señal aleatoria de interés.

2
2.1 PROBABILIDAD Y ESTADÍSTICA EN COMUNICACIONES

2.1.1. Modelos matemáticos: determinístico y aleatorio (estocástico)


En las ciencias físicas y en la ingeniería se ha dado la idea de describir un fenómeno
físico a través de un modelo matemático. Uno de estos modelos matemáticos, en el área
de comunicaciones, se encarga de describir a las formas de onda y de éstos, surgen a
su vez una clasificación de formas de onda o modelos matemáticos: determinístico y
aleatorio (o estocástico).

Definición. Una forma de onda determinística puede modelarse como una función de
tiempo completamente especificada. Por ejemplo, si

𝑋(𝑡) = 𝐴 cos(𝜔0 𝑡 + 𝛼)

describe una forma de onda, donde A, 𝜔0 y 𝛼 son constantes conocidas, se dice que
esta forma de onda es determinística debido a que para cada valor de t, el valor de 𝑋(𝑡)
sólo tiene que evaluarse para poder ser determinado. Si cualquiera de las constantes es
desconocida, entonces el valor de 𝑋(𝑡) no puede calcularse y, por consecuencia, 𝑋(𝑡)
no es determinística, por lo tanto, los valores futuros se pueden predecir a partir de los
valores del pasado.

En muchos de los problemas del mundo real el uso de un modelo determinista es


inapropiado debido a que la transmisión de la señal, por ejemplo, implica demasiados
factores desconocidos. Sin embargo, puede ser posible considerar un modelo descrito
en términos probabilísticos en el que hablamos de la probabilidad de un valor futuro que
se extiende entre dos límites especificados.

Definición. Una forma de onda aleatoria (o estocástica) no se puede especificar


completamente como una función de tiempo y debe modelarse probabilísticamente.

La necesidad de una teoría de probabilidad surge en toda disciplina científica, ya que es


imposible estar completamente seguro de los valores que se obtienen a través de
mediciones. Por otro lado, también es necesario tener los conocimientos básicos de la
Probabilidad, debido a que las señales aleatorias, o estocásticas, a diferencia de las
deterministas, se utilizan para transmitir información.

Consideremos, por ejemplo, un sistema de radio comunicación. La señal recibida en un


sistema de este tipo por lo general se compone de una componente portadora de
información de la señal, una componente de interferencia aleatoria, y el ruido de canal.
La componente de la señal portadora de información puede representar, por ejemplo,
una señal de voz que, por lo general, se compone de las ráfagas de distribución aleatoria
de energía de duración aleatoria. El componente de interferencia puede representar
ondas electromagnéticas espurias producidas por otros sistemas de comunicación que
operan en el entorno del radio receptor. Una fuente mayor del ruido del canal es el ruido
térmico, que es causado por el movimiento de los electrones en los conductores y
dispositivos en la parte frontal del receptor. La señal recibida es aleatoria por naturaleza.

3
Aunque no es posible predecir el valor exacto de la señal de antemano, es posible
describir la señal en términos de los parámetros estadísticos tales como potencia media
y la densidad espectral de potencia.

Las señales aleatorias no pueden ser descritas explícitamente antes de su ocurrencia, y


el ruido tampoco puede ser descrito por funciones deterministas de tiempo. Sin embargo,
cuando se observa durante un largo período, una señal aleatoria o ruido pueden exhibir
ciertas regularidades que pueden ser descritos en términos de probabilidades y los
promedios estadísticos. Este tipo de modelo, en la forma de una descripción
probabilística de una colección de funciones de veces, se denomina un proceso aleatorio.

Los procesos aleatorios son extensiones de los conceptos asociados con variables
aleatorias cuando el parámetro de tiempo se agrega al problema. Como se verá, esto
habilita la incorporación de la respuesta de frecuencia dentro de la descripción
estadística.

2.1.2. Teoría de Probabilidad


El concepto de probabilidad se usa para medir (en forma numérica) los resultados
favorables de determinado experimento. La teoría de la probabilidad se fundamenta en
fenómenos que, explícita o implícitamente, pueden modelarse mediante un experimento
con un resultado que está sujeto a la casualidad. Tal experimento se conoce como
experimento aleatorio. Por ejemplo, el experimento puede ser la observación del
resultado de lanzar al aire una moneda sin alterar. En este experimento, los resultados
posibles del ensayo son “águila” o “sol”.
Para ser más precisos en la descripción de un experimento aleatorio, se piden tres
características:
1. El experimento es repetible bajo condiciones idénticas.
2. En un ensayo del experimento, el resultado es impredecible.
3. En un gran número de ensayos del experimento, los resultados exhiben
regularidad estadística, es decir, se observa un patrón promedio definido de los
resultados si el experimento se repite un gran número de veces.
2.1.2.1. Conjuntos
El concepto de probabilidad se usa para medir (en forma numérica) los resultados
favorables de determinado experimento.
Definición. Un conjunto es una colección (o clase) de objetos.
El conjunto más grande o el conjunto que abarca todos los objetos bajo consideración
en un experimento se conoce como conjunto universal. Todos los demás conjuntos bajo
consideración en el experimento son subconjuntos, o eventos, del conjunto universal.

4
- Diagrama de Venn
Los conjuntos se representan por figuras cerradas planas. Los elementos del conjunto
son representados por áreas encerradas dentro de un área mayor. El conjunto universal
S es representado por un rectángulo.
- Igualdad y diferencia
Dos conjuntos A y B son iguales si todos los elementos en A están presentes en B y
todos los elementos en B están presentes en A; esto es, si A está contenida en B y B
está contenida en A. Para conjuntos iguales escribimos A=B.
La diferencia de dos conjuntos, se denota por A-B, esto es si los elementos de A no están
presentes en B.
- Unión e intersección
La intersección del conjunto A y el conjunto B, denotado por AB, es el conjunto de
elementos que es común a A y B.
La unión del conjunto A y B del conjunto A y B, denotado por A+B, es el conjunto que
contiene todos los elementos A o todos los elementos de B, o de ambos.
- Complemento
El complementos de un conjunto A, se denota por 𝐴̅, es el conjunto de todos los
elementos que no están presentes en A. Entonces
𝐴̅ = 𝑆 − 𝐴
Ec. 2.1.1

2.2.3. Fundamentos de probabilidad


Considérese el desarrollo de un experimento aleatorio, es decir, un experimento cuyos
resultados son azarosos y que uno de los posibles resultados es el evento A. Si el
experimento se repite n veces y n(A) es el número de resultados favorables al evento A,
entonces la relación n(A)/n se conoce como frecuencia relativa de ocurrencia del evento
A.
Si la relación n(A)/n tiene un límite cuando n se incrementa indefinidamente, se dice que
la probabilidad de ocurrencia del evento A es P(A), entendiéndose esta probabilidad
como el límite el que tiende la frecuencia relativa de ocurrencia cuando n tiende a infinito,
es decir:
𝑛(𝐴)
𝑃(𝐴) = lim ( )
𝑛→∞ 𝑛

5
Ec. 2.1.2
De esta definición se infiere que la probabilidad es un número positivo comprendido entre
0 y 1,
0 ≤ 𝑃(𝐴) ≤ 1
Ec. 2.1.3
Si el evento es cierto su probabilidad es 1 y si es falso su probabilidad es 0. El límite de
la ecuación 2.1.2
𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃(𝐴) =
𝑛ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠
2.1.4. Eventos mutuamente excluyentes
Si un experimento que consiste de sólo dos resultados, A y B. Si la ocurrencia del evento
A excluye la posibilidad de ocurrencia del evento B y viceversa, se dice que los eventos
A y B son mutuamente excluyentes. La probabilidad de ocurrencia de A o B, denotada
por 𝑃(𝐴 + 𝐵), según el concepto de probabilidad, es
𝑃(𝐴 + 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
Ec. 2.1.4
2.1.5. Probabilidad conjunta
Si en un experimento aleatorio se tienen resultados de característica A (evento A) y
resultados de característica B (evento B) y si la ocurrencia del evento A no excluye la
ocurrencia del evento B, la probabilidad de observar el evento A y el evento B
conjuntamente se conoce como probabilidad conjunta de A y B y se denota por P(AB).
Si el experimento se realiza n veces y el número de veces que ocurren A y B
conjuntamente es n(AB) entonces
𝑛(𝐴𝐵)
𝑃(𝐴𝐵) = lim ( )
𝑛→∞ 𝑛

Ec. 2.1.5
2.1.6. Probabilidad condicional
Si la probabilidad de ocurrencia de un evento A depende de la ocurrencia de un evento
B, se dice que la probabilidad de ocurrencia de A es condicional a la ocurrencia de B.
Esta probabilidad representada por P(A|B), que significa probabilidad condicional de A
dado que ha ocurrido B. Aplicando la definición de probabilidad se tiene
𝑛(𝐴𝐵) 𝑛(𝐴𝐵)/𝑛 𝑃(𝐴𝐵)
𝑃(𝐴|𝐵) = = =
𝑛(𝐵) 𝑛(𝐵)/𝑛 𝑃(𝐵)

6
Ec. 2.1.6
Puesto que n(AB) es el número de veces que ocurre A dado que ha ocurrido B.
De la misma forma se tiene
𝑃(𝐴𝐵)
𝑃(𝐵|𝐴) =
𝑃(𝐴)
Ec. 2.1.7
Por lo que se deduce que
𝑃(𝐴)𝑃(𝐵|𝐴)
𝑃(𝐴|𝐵) =
𝑃(𝐵)
Ec. 2.1.8
A la ecuación anterior se le conoce como Regla de Bayes, que expresa la probabilidad
condicional en términos de la probabilidad condicional invertida.

2.1.7. Eventos independientes


Se dice que dos o más eventos son independientes si la ocurrencia de un evento no
influye de manera alguna en la ocurrencia de todos y cada uno de los demás. Si dos
eventos A y B son independientes, las probabilidades condicionales P(A|B) y P(B|A)
resultan ser:
𝑃(𝐴|𝐵) = 𝑃(𝐴)
Ec. 2.1.9
𝑃(𝐵|𝐴) = 𝑃(𝐵)
Ec. 2.1.10
Y por lo tanto,
𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵)
Ec. 2.1.11
2.1.8. Variables Aleatorias
Al conjunto de resultados de un experimento aleatorio se le llama espacio de muestras.
A cada elemento del espacio de muestras se le conoce como punto muestra. Por
ejemplo, al lanzar un dado se tienen seis resultados posibles; el espacio de muestras
consiste de seis resultados, es decir seis puntos muestra. Ahora bien, a cada resultado
se le puede asignar un valor particular de acuerdo con una ley determinada. Por ejemplo,
al lanzar una moneda hay dos resultados posibles: águila y sol. Se puede asignar el valor

7
1 águila y el valor 2 al resultado sol. De esta manera, existe una variable que asume el
valor 1 y 2 dependiendo del resultado del experimento aleatorio. A esta variable que
asume un número real con el resultado de un experimento aleatorio, se le llama variable
aleatoria. Si en un experimento aleatorio se le asignan los números reales 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛
entonces el resultado del experimento aleatorio se describe mediante la variable aleatoria
X, la cual puede asumir cualquiera de los n valores discretos 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 . La
probabilidad de que la variable aleatoria X tome el valor de 𝑥𝑖 , se designa por 𝑃(𝑥𝑖 ). Si
existen n resultados posibles, mutuamente excluyentes, la suma de las probabilidades
desde 𝑥1 hasta 𝑥𝑛 será igual con 1.
Si X puede tomar únicamente un número finito de valores reales distintos se dice que es
una VARIABLE ALEATORIA DISCRETA. Por el contrario, se X puede tomar cualquier
valor dentro de un intervalo de los números reales, se llama VARIABLE ALEATORIA
CONTINUA.

8
2.2 DEFINICION DE PROCESOS ALEATORIOS
INTRODUCCIÓN
El procesamiento de señales posee una larga y rica historia. Es una tecnología que se
entronca con un inmenso conjunto de disciplinas entre las que se encuentran las
telecomunicaciones, el control, la exploración del espacio, la medicina y la arqueología,
televisión digital, los sistemas de información y el entretenimiento multimedia. Es más, a
medida que los sistemas de comunicación se van convirtiendo cada vez más en sistemas
sin hilos, móviles y multifunción, la importancia de un procesamiento de señales
sofisticado en dichos equipos se hace cada vez más relevante.
El procesamiento de señales trata de la representación, transformación y manipulación
de señales (ya sean determinísticas o aleatorias) y de la importancia que contienen.
Cuando se refiere al procesado de señales, se refiere a la representación mediante
secuencia de números de precisión finita y el procesado se realiza utilizando un
computador digital.
2.2.1 Algunas Definiciones Básicas
Procesos aleatorios DEFINICIÓN.
Una señal aleatoria es la manifestación de un proceso eléctrico aleatorio que ocurre en
el tiempo. Dichos procesos también se llaman procesos estocásticos. Un proceso
aleatorio transforma resultados experimentando en funciones del tiempo reales, la
colección del tiempo se conoce como conjunto, y cada miembro se denomina función de
muestra.
Un proceso aleatorio real (o proceso estocástico) es un conjunto indexado de funciones
reales de algún parámetro, generalmente el tiempo, que posee ciertas propiedades
estadísticas.

1.-figura 2.2.1

9
Considere las formas de onda de voltaje que pueden emitirse por una fuente de ruido
(vea la figura 2.1.1). Una posible forma de onda es v (t, E1); otra es v (t, E2). En general,
v (t, Ei) denota la forma de onda que se obtiene cuando ocurre el evento Ei del espacio
muestra. Se dice que v (t, Ei) es una función muestreal del espacio muestra. El conjunto
de todas las posibles funciones muestrales {v (t, Ei)} se conoce como conjunto y define
al proceso aleatorio v (t) que describe a la fuente de ruido. Es decir, los eventos {Ei} se
asignan a un conjunto de funciones de tiempo {v (t, Ei)}. Esta colección de funciones es
el proceso aleatorio v (t). Cuando se observa la forma de onda de voltaje que se genera
por la fuente de ruido se puede identificar una de las funciones muestrales. Es factible
obtener las funciones muestrales observando simultáneamente las salidas de muchas
fuentes de ruido idénticas. Para obtener todas las funciones muestrales en general se
requeriría un infinito número de fuentes de ruido. La definición de un proceso aleatorio
puede compararse con la de una variable aleatoria. Una variable aleatoria asigna eventos
a constantes, mientras que un proceso aleatorio asigna eventos a funciones del
parámetro t.
Considerando la figura 2.1.1, defina un conjunto de variables aleatorias v1 = v (t1), v2 =
v (t2),..., donde v (t) es el proceso aleatorio. En este caso, la variable aleatoria v1 = v (t1)
toma los valores que se describen a través del conjunto de constantes {v (t, Ei), para toda
i}. Por ejemplo, suponga que la fuente de ruido tiene una distribución gaussiana.
Entonces cualquiera de las variables aleatorias se describirá mediante
(vj−mj)2

𝑓𝑣𝑗 (𝑣j)1 √2j e 2𝜎𝑗2 …………..(2.1.1)

Donde v1 ≜ v (t1). Se puede observar que, en general, la función de densidad de


probabilidad (PDF) depende implícitamente del tiempo, ya que mj y j, respectivamente,
corresponden al valor de la media y de la desviación estándar obtenidas al tiempo t = tj.
La distribución conjunta de N = 2 para la fuente gaussiana para t = t1 y t = t2 es la PDF
gaussiana bivariante fv (v1, v2), donde v1 = v (t1) y v2 = v (t2) Para describir
completamente un proceso aleatorio general x (t) se requiere de una PDF N-dimensional,
𝑓𝑥 (𝓍), donde x = (x1, x2,..., xj,..., xN), xj ≜ x (tj), y N → ∞. Aún más, la PDF N-dimensional
es una función implícita de N constantes de tiempo t1, t2,..., tN, debido a que
𝑓𝑥 (𝓍) = 𝑓𝑥 (x(𝑡1 ), x(𝑡2 ), … … … … … , x(𝑡𝑛 ))…………(2.2.2)

Como puede observarse también en la figura siguiente:

10
2.2.2 Procesos Continuos y Discretos
Los procesos aleatorios pueden clasificarse como continuos o discretos. Los primeros
consisten en un proceso aleatorio con variables aleatorias continuamente distribuidas
asociadas al mismo, las cuales son de la forma va = v (tj). El proceso gaussiano aleatorio
descrito anteriormente es un ejemplo de proceso aleatorio continuo. El ruido en los
circuitos lineales de comunicaciones es generalmente del tipo continuo; en muchos
casos, en circuitos no lineales también lo es. Un proceso aleatorio discreto consiste en
variables aleatorias con distribuciones discretas. Véanse las figuras siguientes. Por
ejemplo, la salida de un limitador ideal (absoluto) es un proceso aleatorio binario (discreto
con dos niveles).

11
Figura 2.2.3 (a) y (b)

2.2.3. Ejemplos:
Para determinar las posibilidades de los diversos resultados posibles de un experimento,
este se repite muchas veces. Por ejemplo, supóngase que se quieren establecer las
estadísticas asociadas con el lanzamiento de un dado. Se podría proceder de cualquiera
de las dos formas siguientes: en una, podrán lanzarse de forma simultánea un gran
número de dados; en la otra, se lanzará un solo dado muchas veces. En principio podría
esperarse que ambos métodos arrojaran lo mismos resultados si todos los dados fueran
diferentes y se mantuvieran así durante el experimento. Suponiendo que los dados son
legales, podrían esperarse, por ejemplo, que saliera un “uno” en 1/6 de los dados del
primer método y en un 1/6 de las veces en el segundo método.

12
2.3 PROCESOS ESTACIONARIOS.
2.3.1 Procesos ergódicos.
La senoidal de fase aleatoria ilustra la propiedad de que algunos promedios del conjunto
pueden ser iguales a los promedios en el tiempo correspondientes de una función de
muestra arbitraria, por lo que si 𝑔[𝑣𝑖 (𝑡)] es cualquier función de 𝑣𝑖 , entonces su promedio
en el tiempo está dado por:

1 𝑇/2
< 𝑔[𝑣𝑖 (𝑡)] >= lim ∫ 𝑔[𝑣𝑖 (𝑡)]𝑑𝑡
𝑇→∞ 𝑇 −𝑇/2

Con 𝑣𝑖 = acos(𝜔0 𝑡 + 𝜑𝑖 ), por ejemplo, el promedio en el tiempo da: < 𝑣𝑖 (𝑡) >= 0 =
1
𝐸[𝑣(𝑡)] y < 𝑣𝑖2 (𝑡) >= 2 𝑎2 = 𝐸[𝑣 2 (𝑡)].

El uso de un promedio en el tiempo en vez de un promedio del conjunto es mucho más


atractivo en la práctica cuando tiene validez, ya que un promedio del conjunto comprende
todas las funciones de muestra y no sólo una.
Un proceso aleatorio es ergódicos si todos los promedios temporales de las funciones
de muestra son iguales a los promedios del conjunto correspondientes.
Lo anterior significa que es posible tomar promedios temporales de una función de
muestra para determinar o por lo menos estimar promedios del conjunto. La definición
de ergodicidad requiere que un proceso ergódico tenga < 𝑔[𝑣𝑖 (𝑡)] >= 𝐸{𝑔[𝑣(𝑡)]} para
cualquier 𝑣𝑖 (𝑡) y cualquier función 𝑔[𝑣𝑖 (𝑡)]. Pero el valor de < 𝑔[𝑣𝑖 (𝑡)] > debe ser
independiente de t, por lo que se concluye que todos los promedios del conjunto de un
proceso ergódico son independientes del tiempo.
Cuando una señal aleatoria proviene de una fuente ergódica, los valores de la media y
de la media al cuadrado serán constantes. De acuerdo con esto, se escribe:
̅̅̅2 = 𝜎𝑣2 + 𝑚𝑣2
𝐸[𝑣(𝑡)] = 𝑣̅ = 𝑚𝑣 𝐸[𝑣 2 (𝑡)] = 𝑣
Donde 𝑚𝑣 y 𝜎𝑣2 denotan la media y la varianza de v(t). observando que para cualquier
función de muestra se tiene que <𝑣𝑖 (𝑡)> = 𝐸[𝑣(𝑡)] 𝑦 < 𝑣𝑖2 (𝑡) >= 𝐸[𝑣 2 (𝑡)], se interpretan
ciertos promedios del conjunto en términos más conocidos en la forma siguiente:
1. El valor medio 𝑚𝑣 es igual a la componente de cd < 𝑣𝑖 (𝑡) >.
2. La media al cuadrado < 𝑣𝑖 (𝑡) >2 .
3. El valor medio cuadrático ̅̅̅
𝑣 2 es igual a la potencia promedio total < 𝑣𝑖2 (𝑡) >.
4. La varianza 𝜎𝑣2 es igual a la potencia de ca, esto es, la potencia en la componente
que varía con el tiempo.
5. La desviación estándar 𝜎𝑣 y es igual al valor eficaz (rms) de la componente que
varía con el tiempo.

13
2.3.2 PDF N-dimensional.
La PDF N- dimensional es:
𝜕 𝑁 𝐹(𝑎1 , 𝑎2 , … 𝑎𝑁 )
𝑓(𝑥1 , 𝑥2 , … . , 𝑥𝑛 ) = |
𝜕𝑎1 𝜕𝑎2 … 𝜕𝑎𝑁 𝑎=𝑥
Donde a y x son los vectores renglón, 𝑎 = (𝑎1 , 𝑎2 , … , 𝑎𝑁 ), 𝑦 𝑥 = 𝑓(𝑥1 , 𝑥2 , … 𝑥𝑁 )
Usando la propiedad de 𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵|𝐴) se encuentra que la DF conjunta de
𝑥1 𝑦 𝑥2 es:
𝑓(𝑥1 , 𝑥2 ) = 𝑓(𝑥1 )𝑓(𝑥2 |𝑥1 )
Donde 𝑓(𝑥2 |𝑥1 ) es la PDF condicional de 𝑥2 dada 𝑥1 . Generalizando aun más se obtiene:
𝑓(𝑥1 , 𝑥2 |𝑥3 ) = 𝑓(𝑥2 |𝑥1 , 𝑥3 )
Cuando 𝑥1 𝑦 𝑥2 son independientes, 𝑓(𝑥2 |𝑥1 ) = 𝑓(𝑥2 ) y:
𝑓(𝑥1 , 𝑥2 ) = 𝑓𝑥1 (𝑥1 )𝑓𝑥2 (𝑥2 )
Donde el subíndice 𝑥1 denota la PDF asociada con 𝑥1 , y el subíndice 𝑥2 . Para N variables
aleatorias independientes, eso se convierte en:
𝑓(𝑥1 , 𝑥2 , … 𝑥𝑁 ) = 𝑓𝑥1 (𝑥1 )𝑓𝑥2 (𝑥2 ) … . 𝑓𝑥𝑁 (𝑥𝑁 )
Teorema:
Si la PDF de N-ésima dimensión de x no es conocida, entonces la PDF de L-ésima
dimensión de x puede denotarse cuando L<N mediante:
𝑓(𝑥1 , 𝑥2 , … 𝑥𝐿 )
∞ ∞
= ∫ 𝑓(𝑥1 , 𝑥2 )𝑑𝑥2 = ∫ 𝑓(𝑥1 ) 𝑓(𝑥2 |𝑥1 )𝑑𝑥2
−∞ −∞

= 𝑓(𝑥1 ) ∫ 𝑓(𝑥2 |𝑥1 )𝑑𝑥2 = 𝑓𝑥1
−∞

Ya que el área bajo 𝑓(𝑥2 |𝑥1 ) es igual a la unidad.


2.3.3 Proceso estacionario.
Un proceso aleatorio x(t) es estacionario hasta el orden de N si, para cualquier
𝑡1 , 𝑡2 , … . . 𝑡𝑛 .

𝑓𝑥 (𝑥(𝑡1 ), 𝑥(𝑡2 ), … . 𝑥(𝑡𝑁 )) = 𝑓𝑥 (𝑥(𝑡1 + 𝑡0 ), 𝑥(𝑡2 + 𝑡0 ), … , 𝑥(𝑡𝑁 + 𝑡0 ))

Donde 𝑡0 es cualquier constante arbitraria. Aun má, se dice que el proceso es


estrictamente estacionario si es estacionario al orden de 𝑁 → ∞.

14
Esto implica que, si un proceso estacionario de orden N se traslada en el tiempo,
entonces las estadísticas del N-ésimo orden no cambian. Además, la PDF N-dimensional
depende de N-1 diferencias de tiempo 𝑡2 − 𝑡1 , 𝑡3 − 𝑡1 , … . 𝑡𝑁 − 𝑡1, ya que se puede escoger
una 𝑡0 que sea igual a −𝑡1 .
Un proceso aleatorio es estacionario en sentido amplio [WSS] cuando la media E[v(t)] es
independiente del tiempo y la función de auto correlación 𝑅𝑣 (𝑡1 , 𝑡2 ) depende sólo de la
diferencia en tiempo 𝑡1 − 𝑡2 .
La estacionaridad en sentido amplio requiere que:
𝐸[𝑣(𝑡)] = 𝑚𝑣 𝑅𝑣 (𝑡1 , 𝑡2 ) = 𝑅𝑣 (𝑡1 − 𝑡2 ) … … … . . (2.3.1)
Cualquier proceso ergódico satisface la ecuación (2.3.1) y en consecuencia es
estacionario en sentido amplio. Sin embargo, la estacionaridad no garantiza la
ergodicidad porque cualquier función de muestra de un proceso ergódico debe ser
representativa en todo el conjunto. Un proceso ergódico es estrictamente estacionario
en virtud de que todos los promedios del conjunto son independientes del tiempo. El
término estacionario significara estacionario en sentido amplio de acuerdo con la
ecuación (2.3.1).
Un proceso estacionario no es necesariamente ergódico por lo que es directamente
análoga a la función de auto correlación de una función determinística. Por lo que 𝜏 =
𝑡1 − 𝑡2 y tomando 𝑡1 = 𝑡 ó 𝑡2 = 𝑡 para reescribir 𝑅𝑣 (𝑡1 − 𝑡2 ) como:
𝑅𝑣 (𝜏) = 𝐸[𝑣(𝑡)𝑣(𝑡 − 𝜏)] = 𝐸[𝑣(𝑡 + 𝜏)𝑣(𝑡)] … … … … … … (2.3.2)
La ecuación 2 conduce las propiedades:
𝑅𝑣 (−𝜏) = 𝑅𝑣 (𝜏) … … … … (2.3.3𝑎)
𝑅𝑣 (0) = ̅̅̅
𝑣 2 = 𝜎𝑣2 + 𝑚𝑣2 … … … … … . . (2.3.3𝑏)
|𝑅𝑣 (𝜏)| ≤ 𝑅𝑣 (0) … … … … … … . (2.3.3𝑐)
De manera que la función de auto correlación 𝑅𝑣 (𝜏) de un proceso estacionario tiene
simetría par con respecto a su valor máximo en 𝜏 = 0, que es igual al valor medio
cuadrático.
Para 𝜏 ≠ 0, 𝑅𝑣 (𝜏) se mide la semejanza estadística de 𝑣(𝑡) 𝑦 𝑣(𝑡 ± 𝜏). Además, si
𝑣(𝑡) 𝑦 𝑣(𝑡 ± 𝜏) se hacen independientes conforme 𝜏 → ∞, entonces:
𝑅𝑣 (±∞) = 𝑣 −2 = 𝑚𝑣2 … … … . . (2.3.4)
Pero si la función demuestra son periódicas con periodo 𝑇0 , entonces:
𝑅𝑣 (𝜏 ± 𝑛𝑇0 ) = 𝑅𝑣 (𝜏) 𝑛 = 1,2, … … … . (2.3.5)
Y 𝑅𝑣 (𝜏) no tiene límite único conforme |𝜏| → ∞.

15
En la senoidal cuya fase es aleatoria, se aprecia cuando las condiciones de la ecuación
𝐴2
2.3.1 se satisfacen mediante 𝐸[𝑣(𝑡)] = 0 𝑦 𝑅𝑣 (𝑡1 , 𝑡2 ) = ( 2 ) 𝑐𝑜𝑠𝜔0 (𝑡1 − 𝑡2 ) = 𝑅𝑣 (𝑡1 −
𝐴2
𝑡2 )or lo tanto se escribe 𝑅𝑣 (𝜏) = ( 2 ) 𝑐𝑜𝑠𝜔0𝜏 . Cada función de muestra 𝑣𝑖 (𝑡) =
𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜑𝑖 ) tiene periodo 𝑇0 = 2𝜋⁄𝜔0 𝑦 𝑅𝑣 (𝜏).

Finalmente, la potencia promedio de un proceso aleatorio 𝑣(𝑡) y se define como el


promedio del conjunto de < 𝑣 2 (𝑡) >, de modo que:
𝑃=△ 𝐸[< 𝑣 2 (𝑡) >] =< 𝐸[𝑣 2 (𝑡)] … … … (2.3.6)
Esta definición concuerda con la observación anterior de que la potencia promedio de un
proceso ergódico es < 𝑣𝑖2 (𝑡) >= 𝑣 ̅̅̅2 , ya que un proceso ergódico tiene 𝐸[𝑣 2 (𝑡)] =<
𝑣𝑖2 (𝑡) > 𝑦 < 𝐸[𝑣 2 (𝑡)] >= 𝐸[𝑣 2 (𝑡)] cuando 𝐸[𝑣 2 (𝑡)] es independiente del tiempo. Si el
proceso es estacionario, pero no necesariamente ergódico, entonces 𝐸[𝑣 2 (𝑡)] = 𝑅𝑣 (0) y
la ecuación 6 se reduce a:
𝑃 = 𝑅𝑣 (0) … … . . (2.3.7)
Todos los procesos estacionarios de interés práctico tienen 𝑅𝑣 (0) > 0, la mayoría de las
funciones de muestra son señales de potencia y no señales de energía finita.

2.3.4 Onda digital aleatoria.


Ejemplo:
La onda digital aleatoria proviene de un conjunto de trenes de pulsos rectangulares como
la función de muestra de la figura 2.3.1a. Todos los pulsos tienen una duración fija no
aleatoria D, pero el conjunto incluye dos variables aleatorias en la forma siguiente:
1. El retardo 𝑇𝑑 es una VA aleatoria continúa distribuida uniformemente en 0 < 𝑡𝑑 ≤
𝐷, lo que indica que el conjunto está compuesto por formas de onda no
sincronizadas.
2. La amplitud 𝑎𝑘 del k-ésimo pulso es una VA discreta con media 𝐸[𝑎𝑥 ] = 0 y
varianza 𝜎 2 , y las amplitudes en diferentes intervalos son estadísticamente
independientes, de modo que 𝐸[𝑎𝑗 𝑎𝑘 ] = 𝐸[𝑎𝑗 ]𝐸[𝑎𝑘 ] = 0 𝑝𝑎𝑟𝑎 𝑗 ≠ 𝑘.

Debe observarse que aquí se está usando el símbolo en minúscula 𝑎𝑘 para la amplitud
aleatoria y que el subíndice k denota la posición en la secuencia y no el valor de la
amplitud. Se investigará la estacionaridad de este proceso y se determinará su función
de auto correlación.
Considérese el k-ésimo intervalo del pulso definido por 𝑘𝐷 + 𝑇𝑑 < 𝑡 < (𝑘 + 1)𝐷 + 𝑇𝑑 que
se muestra en la figura 2.3.1b. Como 𝑣(𝑡𝑖 ) = 𝑎𝑘 cuando 𝑡𝑖 cae en este intervalo, y como
todos estos intervalos tienen los mismos estadísticos, se concluye que:

16
𝐸[𝑣(𝑡)] = 𝐸[𝑎𝑘 ] = 0 𝐸[𝑣 2 (𝑡)] = 𝐸[𝑎𝑘2 ] = 𝜎 2

FIGURA 2.3.1. ONDA DIGITAL ALEATORIA. a) FUNCION DE MUESTRA;


b) k-ésimo intervalo del pulso

Puesto que son independientes del tiempo, estos resultados sugieren un proceso
estacionario. Para completar la prueba de estacionaridad en sentido amplio, hay que
determinar 𝑅𝑣 (𝑡1 , 𝑡2 ). Sin embargo, como no se conoce la función de probabilidad para
las amplitudes de pulsos, el estudio se basará en la interpretación de la expectativa del
promedio del conjunto 𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] cuando 𝑡1 𝑦 𝑡2 están en intervalos de pulsos iguales
o diferentes.
Es evidente que, 𝑡1 𝑦 𝑡2 deben estar en diferentes intervalos cuando |𝑡2 − 𝑡1 | > 𝐷, en
cuyo caso 𝑣(𝑡1 ) = 𝑎𝑗 𝑦 𝑣(𝑡2 ) = 𝑎𝑘 con 𝑗 ≠ 𝑘 tal que:

𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] = 𝐸[𝑎𝑗 𝑎𝑘 ] = 0 |𝑡2 − 𝑡1 | > 𝐷

17
Pero si |𝑡2 − 𝑡1 | < 𝐷, entonces tanto 𝑡1 como 𝑡2 están en intervalos adyacentes y
𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] = 0, o 𝑡1 𝑦 𝑡2 están en el mismo intervalo y 𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] = 𝐸[𝑎𝑘2 ] = 𝜎 2 . Por
tanto, se toma A como el evento “𝑡1 𝑦 𝑡2 en intervalos adyacentes” y se escribe:

𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] = 𝐸[𝑎𝑗 𝑎𝑘 ]𝑃(𝐴) + 𝐸[𝑎𝑘2 ][1 − 𝑃(𝐴)]


= 𝜎 2 [1 − 𝑃(𝐴)] |𝑡2 − 𝑡1 | < 𝐷
De la figura 2.3.1b, la probabilidad P(A) incluye el retardo aleatorio 𝑇𝑑 y también 𝑡1 𝑦 𝑡2 .
Para 𝑡1 < 𝑡2 como se muestra, 𝑡1 𝑦 𝑡2 están en intervalos adyacentes si 𝑡1 < 𝑘𝐷 + 𝑇𝑑 <
𝑡2 , y:
𝑡2−𝑘𝐷
1 𝑡2 − 𝑡1
𝑃(𝑡1 − 𝑘𝐷 < 𝑇𝑑 < 𝑡2 − 𝑘𝐷) = ∫ 𝑑𝑡𝑑 =
𝑡1−𝑘𝐷 𝐷 𝐷

Incluyendo del otro caso cuando 𝑡2 < 𝑡1 , la probabilidad de que 𝑡1 𝑦 𝑡2 estén en


intervalos adyacentes es:
𝑃(𝐴) = |𝑡2 − 𝑡1 |/𝐷

FIGURA 2.3.2 AUTOCORRELACION DE LA OND DIGITAL ALEATORIA.

Y, por tanto:
|𝑡2 − 𝑡1 |
𝐸[𝑣(𝑡1 )𝑣(𝑡2 )] = 𝜎 2 [1 − ] |𝑡2 − 𝑡1 | < 𝐷
𝐷

Combinando este resultado con el anterior para |𝑡2 − 𝑡1 | > 𝐷, se tiene:


|𝑡2 − 𝑡1 |
𝑅𝑣 (𝑡1 , 𝑡2 ) = 𝜎 2 (1 − ) |𝑡2 − 𝑡1 | < 𝐷
𝐷

18
=0 |𝑡2 − 𝑡1 | > 𝐷
Puesto que 𝑅𝑣 (𝑡1 , 𝑡2 ) depende solamente de la diferencia de tiempo 𝑡1 − 𝑡2 , la onda
digital aleatoria es un proceso estacionario en sentido amplio.
De acuerdo con lo anterior, ahora se hace 𝜏 = 𝑡1 − 𝑡2 y se expresa la función de
correlación en la forma abreviada:
𝜏
𝑅𝑣 (𝜏) = 𝜎 2 Λ ( )
𝐷
𝜏
Donde Λ (𝐷) es la función triangular. La potencia promedio de este proceso está dada
por:
𝑃 = 𝑅𝑣 (0) = 𝜎 2
Sin embargo, el proceso no es ergódico y la potencia promedio de una función de
muestra en particular podría diferir de P. Como ejemplo, si sucede que 𝑣𝑖 (𝑡) tiene que
𝑎𝑘 = 𝑎0 para toda k, entonces < 𝑣𝑖2 (𝑡) >=< 𝑎02 >= 𝑎02 ≠ 𝑃. Se usa P como la “mejor”
predicción para el valor < 𝑣𝑖2 (𝑡) > ya que no se conoce por adelantado el
comportamiento de 𝑣𝑖 (𝑡).

19
2.4 DISTRIBUCIONES MULTIVARIABLES.
2.4.1 VARIABLES ALEATORIAS.
Se llama variable aleatoria a toda función que asocia a cada elemento del espacio
muestral E un número real.
Se utilizan letras mayúsculas X, Y, ... para designar variables aleatorias, y las respectivas
minúsculas (x, y, ...) para designar valores concretos de las mismas.
Una variable aleatoria se describe como la manera de tomar varias características
asociadas a un experimento, es decir un análisis conjunto en experimentos aleatorios en
los que cada resultado experimental A tiene asociados P valores numéricos.
2.4.2 FUNCIONES DE DISTRIBUCIÓN ACUMULATIVA Y DENSIDAD DE
PROBABILIDAD.
2.4.2.1 Densidad de probabilidad. (PDF, por sus siglas en inglés).
Una distribución de probabilidad de una variable aleatoria X es el conjunto de pares
ordenados (X, f(X)) donde f(X) es la función de probabilidad de X (si X es discreta) o
función densidad de probabilidad de X (si X es continua). Una distribución de probabilidad
puede estar dada por una tabla, una gráfica o una expresión matemática (fórmula) que
da las probabilidades con que la variable aleatoria toma diferentes valores.
2.4.2.2 Función distribución acumulativa (CDF, por sus siglas en inglés).

Si X es una variable aleatoria, entonces para cualquier número real x0, existe la
probabilidad del evento (X toma cualquier valor menor o igual a x0).

La probabilidad que depende de la elección de x0 es la probabilidad acumulada


hasta x0 que es la función distribución o distribución acumulada y se denota por F(x0).

F(x0) =

2.4.3 Distribuciones discretas y continuas de variables aleatorias.

2.4.3.1 Distribución discreta.

Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes
valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo
puede tomar valores enteros y un número finito de ellos.

20
2.4.3.1 Distribución continua.

Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes
valores, aleatoria, porque los valores que toma son totalmente al azar y continua porque
puede tomar tanto valores enteros como fraccionarios y un número infinito de ellos.

2.4.4 promedio conjunto y momentos.

2.4.4.1 promedio conjunto.

Una de las principales aplicaciones de la teoría de la probabilidad es la evaluación del


valor promedio de una variable aleatoria, la cual representa algún fenómeno físico, o la
del valor promedio de alguna función de la variable aleatoria. En general, asumiendo que
la función de una variable aleatoria sea denotada por y = h(x).

DEFINICIÓN. El valor esperado, que también se conoce como promedio conjunto, de y


= h(x). está dado por:

2.4.4.2 Momentos.

Los momentos se definen como promedios conjuntos de algunas funciones específicas


utilizadas para h(x). Por ejemplo, para el r-ésimo momento (que se define a
continuación), sea y = h(x) =(X − X0)r .
.
DEFINICIÓN. El r-ésimo momento de la variable aleatoria x tomado alrededor del punto
x = X0 se obtiene mediante:

DEFINICIÓN. La media m es el primer momento tomado alrededor del origen 1es decir,
x0 =02. Por tanto:

DEFINICIÓN. La varianza σ2 .es el segundo momento tomado alrededor de la media. Por


tanto:

DEFINICIÓN. La desviación estándar σ es la raíz cuadrada de la varianza. Por tanto:

21
2.4.5 Distribuciones más Importantes
2.4.5.1 Distribución Binomial.
Es aquella que solo se basa en dos resultados los cuales son éxito o fracaso, los cuales
se obtienen de la repetición de la prueba donde en cada repetición se tiene el mismo
valor para éxito o fracaso del mismo.
Para ser una distribución Binomial debe cumplir con las siguientes condiciones:
1. El experimento consta de una secuencia de n experimentos más pequeños llamados
ensayos, donde n se fija antes del experimento.
2. Cada ensayo puede dar por resultado uno de los mismos dos resultados posibles
(ensayos discontinuos), los cuales se denotan como éxito (E) y falla (F).
3. Los ensayos son independientes, de modo que el resultado en cualquier ensayo es
particular no influye en el resultado de cualquier otro ensayo.
4. La probabilidad de éxito es constante de un ensayo a otro; esta probabilidad se denota
por p.

22
2.4.5.2 Distribución de Poisson:
Es una distribución de probabilidad discreta que expresa un determinado número de
eventos que ocurran en un determinado periodo de tiempo con una frecuencia media
conocida e independiente del tiempo del último evento.
Esta toma valores enteros no negativos y se define como:

La distribución de Poisson es una buena aproximación de la distribución binomial.


2.4.5.3 Distribución Uniforme:
Se denomina uniforme si su función de densidad de probabilidad es:

23
Donde su media esta descrita por:

Su varianza:

Simplificando la ecuación tenemos que:

2.4.5.4 Geométrica.
Es el espacio muestra de la distribución geométrica de todos los números enteros no
negativos la cual está dada por:

Donde ´p´ es el parámetro de la distribución.


La distribución geométrica surge de evaluar por primera vez un suceso S de probabilidad
p en una sucesión infinita de realizaciones independientes de un experimento aleatorio,
donde su valor medio puede calcularse de la siguiente forma:

Donde

por lo tanto:

24
2.4.6 Transformada de funciones de variables aleatorias.
Cualquier transformación de una variable aleatoria da como resultado otra variable
aleatoria la cual está caracterizada por su función de probabilidad densidad de
probabilidad según sea el caso (continua o discontinua).
Donde:

X es una variable discreta en el espacio muestral.


Y=g(X)es una variable discreta en el dominio del tiempo.

25
Para comprobar que la transformación no es uno a uno se utiliza:

Ejemplos de Distribuciones Continuas:

26
2.4.7 Estadísticas Multivariantes
Las técnicas estadísticas multivariadas permiten establecer, a partir de numerosos datos
y variables, ciertas relaciones, investigar estructuras latentes y ensayar diversas
maneras de organización de dichos datos, bien transformándolos y presentándolos bajo
una forma nueva más asequible, bien reduciéndolos, sin perder demasiada información
inicial, hasta componer un resumen lo más completo posible del conjunto de datos
original, habitualmente bastante complejo.

Conclusión:
En este tema seguimos estudiando la teoría de probabilidad y estadística en donde en
determinadas ocasiones el resultado de un experimento aleatorio “x” no es un valor
numérico x, sino una recopilación de resultado X1, …, Xn. Este tema nos ayuda a
comprender todo un conjunto de técnicas estadísticas que permiten sintetizar,
representar e interpretar los datos obtenidos de la observación simultanea de varias
variables estadísticas.

27
TEOREMA DEL LIMITE CENTRAL

Teorema
̅ es la media de una muestra aleatoria de tamaño n, tomada de una población con media μ y
Si 𝑋
varianza finita 𝜎2 , entonces la forma limite de la distribución de:

𝑋̅ − μ
𝑧=
σ/√𝑛

A medida que 𝑛 → ∞, es la distribución normal estándar n(z;0,1).

La aproximación normal para 𝑋 ̅ por lo general será buena si 𝑛 ≥ 30, siempre y cuando la
distribución de la población no sea muy asimétrica. Si 𝑛 < 30, la aproximación será buena solo
si la población no es muy diferente de una distribución normal y, como antes se estableció, si se
sabe que la población es normal, la distribución muestral de 𝑋 ̅ seguirá siendo una distribución
normal exacta, sin importar que tan pequeño sea el tamaño de las muestras.

̅ para n=1, n moderada y n grande).


Ejemplo del limite central (distribución de 𝑋

*EJEMPLO: Una empresa de material eléctrico fabrica bombillas que tienen una duración que
se distribuye aproximadamente en forma normal, con media de 800 horas y desviación estándar

28
de 40 horas. Calcule la probabilidad de que una muestra aleatoria de 16 bombillas tenga una
vida promedio de menos de 775 horas.
̅ sera aproximadamente normal, con 𝜇𝑥 = 800 y 𝜎𝑥 =
SOLUCION: La distribución muestral de 𝑋
40/√16 = 10.

̅ = 775, obtenemos que:


En lo que corresponde a 𝑋

775 − 800
𝑧= = −2.5
10
y por lo tanto,
𝑃(𝑋̅ < 775) = 𝑃(𝑍 < −2.5) = 0.0062

Distribución Normal o Gaussiana

Una variable aleatoria X es llamada variable aleatoria normal

(gaussiana) si su pdf está dado por:

29
La distribución gaussiana es la reina de las distribuciones. En este universo, la naturaleza
se comporta gaussianamente.

́ ite central garantiza que cualquier otra distribución se comporta como


El teorema del lim
una gaussiana cuando se hacen un número suficiente de experimentos: “la suma de
muestras independientes para cualquier distribución con valor esperado y varianzas
finitos converge a la distribución normal conforme el tamano ̃ de muestras tiende a
infinito”.

El primer uso de la distribución normal fue la de hacer una aproximación continua a la


distribución binomial.

La distribución de Rayleigh

Es una función de distribución continua. Se suele presentar cuando un vector


bidimensional (por ejemplo, el que representa la velocidad del viento) tiene sus dos
componentes, ortogonales, independientes y siguen una distribución normal. Su valor
absoluto seguirá entonces una distribución de Rayleigh. Esta distribución también se
puede presentar en el caso de números complejos con componentes real e imaginaria
independientes y siguiendo una distribución normal. Su valor absoluto sigue una
distribución de Rayleigh.

La función de densidad de probabilidad es:

Su esperanza es:

y su varianza:

30
Distribución de probabilidad Rayleigh

31
GLOSARIO TÉCNICO

D
Determinista. También denominado determinístico(a). Se trata de aquellos modelos
matemáticos en los que no hay incertidumbre acerca de su comportamiento dependiente
del tiempo para cualquier instante de éste. Las mismas entradas producirán
invariablemente las mismas salidas o resultados.
Dimensional. Un análisis dimensional es una herramienta que permite simplificar el
estudio de cualquier fenómeno en el que estén involucradas muchas magnitudes físicas
en forma de variables independientes.

E
Ergodicidad. La ergodicidad es una propiedad muy importante de algunos sistemas
mecánicos que permite justificar ciertos resultados de la mecánica estadística. Un
sistema es ergódico si el único conjunto invariante de medida no nula de la
hipersuperficie de energía constante del espacio de las fases es toda la hipersuperficie
de energía constante. Los sistemas ergódicos tienen el interés de que en ellos el
promedio temporal de ciertas magnitudes pueden obtenerse como promedios sobre el
espacio de estados lo cual simplifica las predicciones sobre los mismos.
Estacionalidad. En estadística, se dice que la demanda de un determinado
producto muestra estacionalidad cuando la serie de tiempo subyacente atraviesa una
variación cíclica predecible, dependiendo de la época del año. La estacionalidad es uno
de los patrones estadísticos más utilizados para mejorar la precisión de los pronósticos
de demanda.
Estocástico. Véase Probabilístico.

F
FMP. Función masa de probabilidad.

I
Interferencia. Perturbación no deseada que se mezcla con la señal útil que se quiere
transmitir, pudiendo producir distorsión. Contiene información, no deseada.

M
Modelo matemático. Sistema donde todos los comportamientos u opciones se pueden
simular por medio de ecuaciones matemáticas cuyas variables están previamente
establecidas de acuerdo a lo que se quiere contemplar. Permiten obtener resultados en
base a experiencias anteriores o a estadística.

32
P
Probabilístico. Es la forma que pueden tomar un conjunto de datos obtenidos de
muestreos de datos con comportamiento que se supone aleatorio. Los valores futuros no
pueden predecirse a través de los valores del pasado.
Proceso Aleatorio. Un proceso aleatorio real es un conjunto indeseado de funciones
reales de algún parámetro, generalmente del tiempo, que posee ciertas propiedades
estadísticas.

R
Ruido. Perturbación no deseada que se mezcla con la señal útil que se quiere transmitir,
pudiendo producir distorsión. No contiene información.

V
Varianza. Sirve para identificar a la media de las desviaciones cuadráticas de
una variable de carácter aleatorio, considerando el valor medio de ésta. Sirve para
identificar a la media de las desviaciones cuadráticas de una variable de carácter
aleatorio, considerando el valor medio de ésta.

33
BIBLIOGRAFÍA
1. Principles of comunications, systems, modulation and noise.
Fifth edition.
Rodger E. Ziemer/W.H. Tranter.
John Wiley & sons.
2. Probability, random variables and random signal principals.
Fourth edition.
Peyton Z. Peebles, Jr.
McGraw-Hill.
3. Sistemas de comunicaciones digitales y analógicas.
Séptima edición.
León W. Couch II.
PEARSON.
4. Communications Systems.
Fourth edition.
Simon Haykin.
John Wiley & sons.
5. Probabilidad y estadística para ingeniería y ciencias.
Novena edición.
Ronald E. Walpole, Raymond H. Myers, Sharon L. Myres y Keying Ye.
PEARSON.
6. Analog and digital communications.
Second edition.
Hwei HSU.
McGraw-Hill.
7. Sistemas de comunicación, introducción a las señales y el ruido en las
comunicaciones eléctricas.
Cuarta edición.
A. Bruce Carlson, Pul B.Crilly y Janet C. Rutledge.
McGraw-Hill.
8. Introducción a los sitemas de comunicación.
Tercera edición.
Ferrel G. Stremler
PEARSON.
9. Probabilidad y estadística para ingeniería y ciencias
Séptima edición
Jay L. Devore
PEARSON.

34

Das könnte Ihnen auch gefallen