Sie sind auf Seite 1von 16

5.

- Generación de variables aleatorias

La generación de cualquier variable aleatoria se va a basar en la generación previa de una


distribución uniforme (0,1), visto en el tema anterior. En este capítulo vamos a estudiar ciertas
transformaciones o algoritmos que nos van a transformar dichos números generados en valores de
otras distribuciones.

5.1.- Introducción
Buscamos métodos que nos permitan obtener valores de variables aleatorias que sigan
determinadas distribuciones de probabilidad a partir de los números aleatorios generados, que siguen
la distribución Uniforme en el intervalo (0,1).

Hay cuatro métodos generales de generación de variables aleatorias y una serie de métodos
particulares de las distintas distribuciones.

La facilidad de aplicación de dichos métodos, así como el coste computacional asociado a los
mismos, varía mucho según la familia de variables aleatorias a las que se apliquen.

Normalmente existen varios algoritmos que se pueden utilizar para generar valores de una
determinada distribución, y diferentes factores que se pueden considerar para determinar qué
algoritmo utilizar en un caso particular. Desafortunadamente dichos factores suelen entrar en conflicto
unos con otros y a veces se ha de llegar a una solución de compromiso.

Algunos de estos factores son los siguientes:

ü Exactitud: se han de obtener valores de una variable con una precisión dada. A veces
se tiene suficiente con obtener una aproximación y otras no.
Generación de variables aleatorias

ü Eficiencia: el algoritmo que implementa el método de generación tiene asociado un


tiempo de ejecución y un gasto de memoria. Elegiremos un método que sea eficiente
en cuando al tiempo y a la cantidad de memoria requeridos.

ü Complejidad: Buscamos métodos que tengan complejidad mínima, siempre y cuando


se garantice cierta exactitud.

ü Robusted: el método tiene que ser eficiente para cualquier valor que tomen los
parámetros de la distribución que siga la variable aleatoria.

ü Facilidad de implementación.

5.2.- Métodos generales


Los métodos generales para la generación de variables aleatorias son: Método de Inversión, de
Aceptación-Rechazo, de Composición y de Convolución. A continuación pasamos a estudiarlos.

5.2.1.- Método de Inversión


La función de distribución (también llamada función de distribución acumulativa), F(x), de
una variable aleatoria X es definida para cada número real x como sigue:

F(x)=P(X≤x) para -∞<x<∞


donde P(X≤x) es la probabilidad asociada con el suceso {X≤x}. Así F(x) es la probabilidad,
cuando se ha realizado el experimento, de que la variable X tome un valor menor o igual que x.

Una función de distribución F(x) tiene las siguientes propiedades:

• 0≤ F(x)≤ 1 ∀x.
• F(x) es no decreciente (es decir, si x1 <x2 , entonces F(x1 )<F(x 2 )).
• lim F ( x) = 1 y lim F ( x ) = 0 (ya que X sólo toma valores finitos).
x →∞ x → −∞

Una variable aleatoria X se dice que es discreta si puede tomar unos valores determinados, no
pudiendo tomar ningún valor comprendido entre dos consecutivos. Así la variable sólo puede tomar un
conjunto finito de valores x1 , x2, ..., xn . La probabilidad de que la variable aleatoria X tome el valor xi
es dado por:

p(x i)=P(X=x i) para i=1, 2,...


y se tiene que

∑ p( x ) = 1
i
i =1
donde la sumatoria significa la suma de todas las probabilidades p(x 1 ), p(x2 ),... Todas las
probabilidades acerca de X se pueden calcular desde p(x), a la cual se le llama función de probabilidad
para la variable discreta X. Si I=[a,b], donde a y b son números reales tales que a≤b, entonces

78
Generación de variables aleatorias

P( X ∈ I ) = ∑ p( x )
a ≤ xi ≤ b
i

La función de distribución F(x) para la variable discreta X es dada por

F ( x) = ∑ p (x )
xi ≤ x
i ∀−∞< x< ∞

El método de inversión va a aprovechar las propiedades de la función de distribución para


obtener un valor de la variable aleatoria a partir de un número aleatorio uniformemente distribuido en
el intervalo (0,1).

Vamos a ver en qué consiste dicho método tanto para el caso en el que la variable aleatoria sea
continua como para cuando es discreta.

5.2.1.1.- Caso continuo

En este caso la función de distribución es continua. Vamos a utilizar un número aleatorio u,


uniformemente distribuido en (0,1) y vamos a suponer que es el valor que toma la función de
distribución en un punto x. Tal punto va a ser el valor de la variable que queremos generar. Al ser la
función de distribución continua, vamos a encontrar un valor de x para cualquier u.

F(x)
u

El algoritmo queda como sigue:

Generar u~U(0,1)
Salida xßF -1(u)

5.2.1.2.- Caso discreto

En este caso la función de distribución es discontinua y tiene una forma escalonada. Su


fórmula es F ( x) = ∑p
xi ≤ x
i

Al ser discreta no hay fórmula de su inversa y puede ocurrir que dado un u no se encuentre
imagen x de la función, sino que este valor esté entre dos valores posibles.

79
Generación de variables aleatorias

F(x)

Lo que se va a hacer en este caso es que dado un u se va obtener como salida un xj tal que
j −1 j

∑p
i =1
i ≤ u < ∑ p i . El algoritmo queda como sigue:
i =1

Generar u U(0,1)
SI u<p1
ENTONCES salida x1
SI NO
SI u<p1+p2
ENTONCES salida x2
….

Este método es un método sencillo de aplicar, siempre y cuando la función de distribución no


tenga una fórmula complicada y utiliza sólo un número aleatorio para calcular un valor de la variable
aleatoria.

5.2.2.- Método de Aceptación Rechazo


Este método es más probabilístico que el anterior.

Los métodos de inversión, composición y convolución son métodos de generación directos, en


el sentido en que tratan directamente con la función de distribución. El método de aceptación-rechazo
es menos directo en su aproximación.

Nosotros vamos a aplicar este método en el caso de que la variable aleatoria sea continua, el
caso discreto es análogo y está tratado en Prob. 8.9????

En este caso tenemos la función de densidad f(x) de la variable y necesitamos una función t(x)
que la acote, es decir t(x)≥f(x) ∀x. Hay que notar que t(x) no es, en general, una función de densidad
+∞ +∞
c = ∫ t ( x)dx ≥ ∫ f ( x)dx = 1
−∞ −∞

pero la función r(x)=t(x)/c, si es claramente una función de densidad. (Suponemos que t es tal
que c<∞). Debemos de poder generar (esperamos que de forma fácil y rápida) un valor de la variable
aleatoria que sigue la función r(x). El algoritmo general queda como sigue:

80
Generación de variables aleatorias

Generar x que siga la distribución r(x)


Generar u~U(0,1), independiente de x
f ( x)
Si u ≤ , entonces devolver x si no volver a repetir el algoritmo
t (x )
El algoritmo continúa repitiéndose hasta que se genera un valor que es aceptado.

Para hacer que se rechacen el menor número de puntos posibles la función t(x) debe ser la
mínima función que acote a f(x).

5.2.3.- Método de composición


Este método va a poder ser aplicado cuando la función de densidad es fácil de descomponer en
n
un conjunto de trozos, f ( x ) = ∑ t i ( x) siendo n el número de trozos en los que se ha dividido la
i =1

función.

Cada uno de los fragmentos se puede expresara como producto de un función de distribución y
un peso t i ( x ) = f i ( x )wi y la función de distribución global la podemos obtener
n n
como f ( x ) = ∑ w1 f 1 ( x ) con ∑w i =1.
i =1 i =1

El método consiste en generar dos números aleatorios, uno sirve para seleccionar un trozo y el
otro se utiliza para generar un valor de una variable que sigue la distribución de dicho trozo. El valor
de la variable obtenida es el valor buscado.

El algoritmo general queda como sigue:

Generar u 1,u2~U(0,1)
Si u1=w1 entonces generar x~f1(x)
Si no
Si u 1=w1+w2 entonces generar x~f2(x)

5.2.4.- Método de convolución


Muchas variables aleatorias incluyendo la normal, binomial, poisson, gamma, erlang, etc, se
pueden expresar de forma exacta o aproximada mediante la suma lineal de otras variables aleatorias.
El método de convolución se puede usar siempre y cuando la variable aleatoria x se pueda expresar
como una combinación lineal de k variables aleatorias:

x=b1 x1 + b2 x2 +…+b kxk

81
Generación de variables aleatorias

En este método se necesita generar k números aleatorios (u 1 ,u2 ,...,uk) para generar (x1,x2 ,...xk)
variables aleatorias usando alguno de los métodos anteriores y así poder obtener un valor de la
variable que se desea obtener por convolución.

Ejemplos de aplicación de este método los veremos cuando veamos métodos particulares de
cada una de las distribuciones más utilizadas.

5.3.- Métodos concretos para distribuciones continuas


5.3.1.- Distribución Uniforme
La distribución uniforme en el intervalo (a,b) (U(a,b)) tiene como función de densidad y de
distribución las siguientes:

 1
 si a ≤ x ≤ b
f ( x) =  b − a
 0 en otro caso

 0 si x < a
x − a
F ( x) =  si a ≤ x ≤ b
b − a
 1 x>b

a +b (b − a) 2
La media de la distribución es µ ( x) = y la varianza σ 2 ( x) =
2 12

Como los números aleatorios que generamos siguen la distribución uniforme en el intervalo
(0,1), para generar valores de una distribución uniforme en cualquier intervalo (a,b) sólo tenemos que
hacer un cambio de intervalo:

Generar u (sigue U(0,1))


xßa+(b-1)u
salida x
La distribución uniforme es usada como modelo en primera aproximación, para cantidades
aleatorias que varía entre a y b.

5.3.2.- Distribución Normal o de Gauss


La función de densidad normal (o gaussiana) fue propuesta por C.F. Gauss (1977-1855) como
modelo para la distribución de frecuencia relativa de errores, como los errores de medición. Esta curva
con forma de campana es un modelo adecuado para las distribuciones de frecuencia relativa de datos
recabados de muchas áreas científicas diferentes y modela las distribuciones de probabilidad de
muchas estadísticas que utilizaremos para hacer inferencias.

82
Generación de variables aleatorias

La variable aleatoria normal posee una función de densidad caracterizada por dos parámetros,
su media y su varianza ( µ y σ2 respectivamente). La media µ mide la ubicación de la distribución y la
desviación estándar σ mide su dispersión.

La distribución Normal tiene como función de densidad la siguiente:


2
1  x−µ 
1 −  
2 σ 
f ( x) = e − ∞ < x < +∞
2πσ 2

No es posible obtener una expresión de forma cerrada para la integral de la función de


densidad normal. Sin embargo, podemos calcular áreas bajo la normal utilizando procedimientos de
aproximación y el siguiente teorema:

Teorema: Si y es una variable aleatoria normal con media µ y varianza σ2 , entonces


y−µ
z= es una variable aleatoria normal con media 0 y varianza 1.
σ

Quizás la más importante distribución continua no uniforme es la distribución normal con


media 0 y desviación típica 1. Dicha distribución es llamada, a menudo, distribución normal unidad o
estándar.

La inversa de su función de distribución no es fácil de calcular, pero hay otros métodos para
obtener valores de ella.

Método Polar

Se usa para generar valores de la distribución N(0,1), hay dos aproximaciones diferentes de
dicho método:

1) Propuesta de Marsaglia y Brax:

Se inscribe un círculo de radio 1 en un cuadrado de lado 2, se generan números aleatorios


aceptando como salidas aquellos que caen dentro del círculo y rechazando los que caen dentro del
cuadrado pero fuera del círculo.

El algoritmo es el siguiente:

Genera u 1, u2 (dos número aleatorios en (0,1))


V1ß2u1-1
V2ß2u2-1
Sß V1+V2
SI S≤1
ENTONCES
x1 ← V1 − 2( LnS) / S
x 2 ← V2 − 2( LnS) / S

2) Propuesta de Box y Muller:

83
Generación de variables aleatorias

En este caso el algoritmo es el siguiente:

Genera u 1 , u2 (dos número aleatorios en (0,1))

x1 ← sen 2πu1 − 2 Ln (u 2 )
x 2 ← cos 2πu 1 − 2 Ln (u 2 )

Convolución:

Vamos a ver una serie de propiedades de la distribución normal y un teorema que nos van a
servir para generar valores mediante este método.

Propiedad: Si tenemos una variable X que sigue una N(µ,σ), entonces aX+b sigue una
N (µa + b, σ a )

Teorema del Límite Central : si X es una variable aleatoria con media µ y varianza σ2 , entonces la
media X , para una muestra de tamaño n (si n es lo suficientemente grande), sigue una distribución
Normal de meida µ y varianza σ2 /n.
n

∑x
i =1
i
X= sigue N ( µ ,σ / n )
n

Apoyándonos en este teorema por convolución de variables uniformes (U(0,1)), podemos


obtener valores de una N(0,1), mediante el siguiente algoritmo:

xß0
PARA i=1 HASTA 12
Genera u i ( número aleatorio en (0,1))
xßsuma+u1 (para conseguir una varianza 1)
FIN_PARA
xßx-6 (para conseguir una media 0)
Salida x

5.3.3.- Distribución Exponencial


La distribución exponencial de parámetro β>0, tiene como función de densidad y de
distribución:

 1 −x / β
 e , x≥0
f (x ) =  β
0, en otro caso
1 − e − x / β , x ≥ 0
F ( x) = 
 0, en otro caso
La media de la distribución es β, y su varianza 1/β2.

84
Generación de variables aleatorias

La distribución exponencial se usa para modelar intervalos de tiempo entre sucesos. Ejemplos
de procesos que han sido modelados mediante distribuciones exponenciales: la duración de
conversaciones telefónicas, el tiempo entre fallos en ciertos elementos, tiempo entre interrupciones en
la CPU de un ordenador.

Es muy usada para simular el tiempo entre llegadas cuando las llegadas son completamente
aleatorias y para modelar tiempo de servicio, en los sistemas de colas. En estos casos β es la
proporción de llegadas o de servicios por unidad de tiempo.

Para obtener valores de esta distribución se puede utilizar el método de inversión.

5.3.4.- Distribución Gamma


La distribución gamma tiene dos parámetros, su función de densidad es la siguiente:

 x α −1e − x / β
 x>0
f ( x ) =  β α Γ(α )
 0 en otro caso

donde Γ(α ) = ∫0
x α −1e − x dx

Su media E(x)=αβ y su varianza Var(x)=αβ2.

Es una candidata popular para modelar procesos, dada su capacidad para asumir una amplia
variedad de formas. Ejemplos de procesos que están distribuidos según una gamma son el tiempo que
se tarda en ejecutar una tarea, el tiempo de CPU que un trabajo necesita para ejecutarse, la desviación
de una trayectoria desde su blanco, ventas mensuales de un determinado item, etc.

Un caso especial de la distribución gamma es cuando α es un entero, en este caso la


distribución se conoce como Erlang. La distribución erlang es frecuentemente usada para modelar el
proceso de servicio en un sistema de colas. Una propiedad importante de la distribución erlang es que
puede expresarse como la suma de α distribuciones exponenciales independientes.

Hay tres propiedades de la distribución gamma que a menudo son utilizadas para generar
variables ale atorias:

1) La distribución exponencial es una distribución gamma con α=1.

2) Si X1 es una gamma (α1 ,β) y X2 es una gamma (α 2 ,β) entonces Y=X1+X2 es una gamma
(α 1 +α 2 ,β).

3) Si X es una gamma (α ,1) entonces βX es una gamma (α ,β), para cualquier β>0.

Las dos primeras propiedades nos dicen que podemos generar valores de distribuciones
gamma de valores grandes de α mediante convolución de valores de distribuciones gamma. La tercera
propiedad nos dice que sólo es necesario desarrollar métodos de generación de varia bles aleatorias
gamma con β=1. Una gamma(1,1) es una exponencial de media 1.

85
Generación de variables aleatorias

Para generar valores de gamma con 0<α<1 y α>1 han sido propuestos varios algoritmos. Por
ejemplo Aherns y Deiter proponen un algoritmo basado en el método de aceptación-rechazo para
valores de α<1; Tadikamalla presenta también una serie de métodos para volores α>1 y otros
algoritmos están propuestos por Fishman o por Cheng y Feast.

5.3.5.- Distribución Beta


La distribución beta tiene dos parámetros de forma, su función de densidad es la siguiente:

 x α1 −1 (1 − x) α2 −1
 0 < x <1
f ( x ) =  β (α 1 , α 2 )
 0 en otro caso

∫x
1
α1 −1
donde β (α 1 ,α 2 ) = (1 − x) α 2 −1 dx
0

α1 αα
Su media E ( x ) = y su varianza Var( x) = 1 2
α1 + α 2 (α + α )(α + α + 1)
1 2 1 2

Esta distribución se usa a menudo para representar variables aleatorias que están restringidas
al intervalo (0,1).

Se utiliza para generar entradas cuando no tenemos datos (por ejemplo el tiempo que tarda en
estropearse un aparato, el tiempo que tarda en suceder algo,...). Cuando en proyectos PERT se ha de
aproximar el tiempo que se le da a las distintas actividades, se usa esta distribución. En general suele
usarse como modelo en primera aproximación en ausencia de datos experimentales.

La función de densidad de esta variable puede adoptar una gran variedad de formas
dependiendo de los parámetros de la distribución. Una de los más comunes y simples métodos de
generación de valores de la distribución beta es usar las relaciones que existen entre ésta y la
distribución gamma:

Si X1 es una gamma(α 1 ,1) y X2 es una gamma(α 2 ,1), entonces y = X 1 /( X 1 + X 2 ) es una


beta(α 1 , α2 ).

Este algoritmo es fácil de implementar pero debido a que los métodos de generación de
gammas pueden ser ineficientes, se han desarrollado métodos de generación basados en el método de
aceptación-rechazo (Ahrens and Deiter).

Se puede observar que una distribución U(0,1) y una beta(1,1) son la misma distribución.

Una variable X que sigue una beta(α1 , α 2 ) en [0,1] puede reescalarse y desplazarse para
obtener una variable beta(α1 , α2 ) en [a,b] con los mismos parámetros de forma mediante la
transformación a+(b-a)X.

Si X sigue una beta(α 1 , α2 ) en [0,1], entonces (1-X) sigue una beta(α 2, α 1 ) en [0,1].

86
Generación de variables aleatorias

Aplicando el método de inversión podemos obtener valores para la beta(α 1 , 1):


1
x α1 −1 (1 − x) 0 1  xα  1
f (x ) = y β (α 1 ,1) = ∫ x α1 −1
(1 − x) dx =   = ,
0
entonces
β (α 1 ,1) 0
 α 0 α
x α1 −1 (1 − x) 0
f (x ) = = α 1 x α1 −1 . Su función de distribución es
1
α1

x
x x x  t α1 
F ( x) = ∫ f (t ) dt =∫ α 1t α1 −1
dt =α 1 ∫ t α1 −1
dt =α 1   = x α1 . Si suponemos que
0 0 0
α1 0
1
α1 α1
u = F ( x ) = x , entonces x = u .

5.3.6.- Distribución m-erlang


Esta distribución mide el tiempo que transcurre entre un suceso y el m-ésimo siguiente (es una
generalización de la exponencial). Tiene dos parámetros µ(m,β) donde β es la media de una
distribución exponencial y m es el número de sucesos que se cuentan.

Se pueden generar valores de ésta distribución mediante la convolución de exponenciales, ya


que una m-erlang de media β se puede obtener como la suma de m exponenciales de media β/m. El
algoritmo de generación queda:

Generar u 1,u2,...,u m ~U(0,1)


m
−β −β m
X =∑ ln ui = ln( ∏ u i )
i =1 m m i =1
Según lo anterior, al estar los u i ’s en el intervalo (0,1), cuantos más elementos haya para hacer
el producto más pequeños son los valores que se van a obtener y el logaritmo va a conseguir valores
grandes negativos que se van a convertir en positivos al multiplicar por -β/m. Por tanto cuanto mayor
es el número m de elementos vamos a obtener un valor más alto como variable de salida y a la inversa.
Esto tiene sentido ya que cuanto mayor es el número m mayor debe dar el tiempo entre un suceso y ese
m-ésimo que es lo que mide la variable.

5.4.- Métodos concretos para distribuciones Discretas


5.4.1.- Distribución de Bernouilli
Una Bernouilli de parámetro p es la variable aleatoria que resulta cuando tenemos un
experimento con dos posibles resultados (éxito y fracaso), siendo p la probabilidad de éxito. Dicho
parámetro ha de estar en el intervalo (0,1).

87
Generación de variables aleatorias

 1 − p si x = 0

Su distribución de probabilidad es p ( x ) =  p si x = 1 y su distribución de
0 en otro caso

 0 si x < 0

probabilidad acumulada F ( x) = 1 − p si 0 ≤ x ≤ 1
 1 si x ≥ 1

La media de la distribución es E(x)=p y su varianza Var(x)=p(1-p).

El algoritmo para generar valores de una Bernouilli es el siguiente:

Generar u~U(0,1)
Si u<=p entonces salida éxito si no salida fracaso

5.4.2.- Distribución Uniforme Discreta


La variable aleatoria discreta es el resultado de un experimento con varios posibles resultados,
todos ellos igualmente probable. Suele emplearse como modelo en primera aproximación para una
cantidad entera que varía entre los enteros a y b (con a<b) y sobre la cual no se tiene más información.


x ∈ {a, a + 1,..., b}
1
Su distribución de probabilidad es p ( x ) =  b − a + 1
 0 en otro caso

 0 si x < a
  x − a + 1
Su distribución de probabilidad acumulada es F ( x) =  si a ≤ x ≤ b
 b − a +1
 1 si x > b
Los parámetros a y b son enteros siendo a el parámetro de posición. Su media es
a +b (b − a + 1) 2 −1
E (x ) = y su varianza Var ( x ) = .
2 12

Para generar valores de una variable que siga esta distribución podemos utilizar el siguiente
algoritmo:

Generar u~U(0,1)
Dar como salida X ← a + ( b − a + 1)u , donde x es el operador que trunca

5.4.3.- Distribución Geométrica


La distribución geométrica mide el número de fracasos antes del siguiente éxito. Ésta
distribución tiene un parámetro p que indica la probabilidad de éxito. El número de piezas revisadas
antes de obtener una defectuosa, el número de lanzamientos de una moneda antes de que salga cara,
etc..., son ejemplos de variables que siguen una distribución geométrica.

88
Generación de variables aleatorias

si x ∈ {0,1,...}
 p (1 − p ) x
Su distribución de probabilidad es p ( x ) =  y su distribución de
 0 en otro caso
1 − (1 − p ) x−1 si x ≥ 0
probabilidad acumulada F ( x) =  
 0 en otro caso 

1− p 1− p
La media de la distribución es E (x ) = y su varianza Var ( x ) = 2
p p

Se pueden obtener valores de una distribución geométrica mediante convolución de bernouilli:

Fß0
Eß0
MIENTRAS E=0 HACER
Genera u~U(0,1)
SI u<=p
ENTONCES EßE+1
SI NO FßF+1
FIN_MIENTRAS
DEVOLVER F

5.4.4.- Distribución Binomial


La distribución binomial mide el número de éxitos en n pruebas independientes. Ejemplos de
variables que siguen esta distribución son el número de miembros de un conjunto que cumplen cierta
característica tal como el número de piezas defectuosas en una caja de 200, el número de veces que se
obtiene cara si se lanza 10 veces una moneda, etc...

Esta distribución tiene dos parámetros: n que es el número de experimentos y p que indica la
probabilidad de éxito.

 n  x
  p (1 − p ) n− x si x ∈ {0,1,2,..., n}
Su distribución de probabilidad es p ( x ) =  x  y su
 0 en otro caso

 0 si x < 0
 x  n 
distribución de probabilidad acumulada F ( x) = ∑   p i (1 − p ) n− i si 0 ≤ x ≤ n
 i= 0  i 
1 si x > n

La media de la distribución es E ( x ) = np y su varianza Var ( x ) = np(1 − p )

Se pueden obtener valores de una distribución binomial(n,p) mediante los siguientes métodos:

1) Si n es pequeño:

ü Mediante el método de inversión de variables discretas

89
Generación de variables aleatorias

n
p j ( x = j ) =   p j (1 − p ) n− j de forma que
 j

Generar u~U(0,1)
Si u<p0 Entonces salida X=0
Si u<p0+p1 Entonces salida X=1
Si u<p0+p2+p3 Entonces salida X=2
...

ü Mediante convolución de bernouilli

Eß0
PARA i=1 HASTA n
Genera u~U(0,1)
SI u<=p
ENTONCES EßE+1
FIN_PARA
DEVOLVER E

2) Si n es grande, se pueden hacer aproximaciones de la binomial mediante otras


distibuciones:

Cuando p es pequeño se puede aproximar mediante una Poisson. Si p→0 y n→∞ de forma tal
que la media λ=np permanece constante, entonces se puede aproximar una B(n,p) por una P(λ).

Cuando p no es pequeño se puede aproximar mediante una Normal. Si X representa el número


de éxitos en n experimentos independientes, donde p es la probabilidad de éxito, entonces la
proporción de éxitos X/n sigue una distribución aproximadamente normal con media µ=p y desviación
p (1 − p )
típica σ = , si n es lo suficientemente grande. Esto equivale a considerar que una B(n,p)
n
puede aproximarse mediante una N ( np, p (1 − p) n ) . La aproximación es aceptable si np>5 .

El algoritmo es el siguiente:

Generar z~N(0,1)
v ← np + z np(1 − p ) (v~ N ( np, p (1 − p) n ) )
SI v>np
1 
ENTONCES x ← min  x + , n 
 2 
 1 
Si NO x ← max  x − ,0 
 2 
DEVOLVER x

90
Generación de variables aleatorias

Estas transformaciones se han de hacer ya que la Normal está definida en -∞<x<+∞ y la


Binomial ha de estar en 0<x<n.

5.4.5.- Distribución de Poisson


La distribución de poisson P(λ) surge cuando estamos interesados en medir el número de
sucesos aleatorios que suceden en un intervalo fijo. Por ejemplo el número de llamadas recibidas en
una centralita telefónica en un periodo de 30 segundos, el número de defectos en una fibra de vidrio
de 1 Km de longitud, el número de meteoritos encontrados en una hectárea de tierra desierta, etc...

Son problemas en los que la variable aleatoria se distribuye a lo largo del tiempo o del espacio.

En todos los casos, las condiciones para que se trate de una distribución de Poisson son:

• Los eventos de interés deben ocurrir independientemente unos de otros.


• La probabilidad de que suceda un evento en un intervalo depende de la longitud del
intervalo y no de su posición.

 e − λ λx

Su distribución de probabilidad es p ( x ) =  x! si x ∈ {0,1,...} y su distribución de
 0 en otro caso

 0 si x < 0

probabilidad acumulada F ( x) =  −λ x λ
i
e ∑ si x ≥ 0
 i=0 i!

La media de la distribución es E(x)=λ y su varianza Var(x)=λ.

Propiedades de la distribución:

Si X1 ~P(λ1 ) y X2 ~P(λ2 ) entonces X1 +X2 ~P(λ1 +λ2 ).

El parámetro de la distribución de Poisson, que es su media, es el inverso de la media de una


distribución exponencial.

Formas de generar valores de una P(λ):

1) Cuando n es pequeño:

ü Se puede utilizar el método de inversión para variables discretas, sabiendo que

λi −λ
pi = e i = 0,1,...
i!

ü Apoyándonos en que una P(λ) es la inversa de una exp(β) con β=1/λ, se


pueden generar valores de la Poisson mediante el siguiente algoritmo:

P1: tß0; Xß0; finßFALSO


MIENTRAS NO fin HACER

91
Generación de variables aleatorias

Generar u~U(0,1)
Yß-βln(u) (con β=1/λ)
tßt+Y
SI t>T
ENTONCES finßVERDAD
SI NO XßX+1
FIN_MIENTRAS
DEVOLVER X

X es la variable que sigue una P(λ), en cada momento se va generando mediante una
exponencial Y el tiempo en el que ocurre el siguiente suceso. T es la cantidad de tiempo en la
que se quieren contar los sucesos ocurridos.

2) Cuando n es grande se puede aproximar una P(λ) mediante una Normal de media y
varianza λ, N (λ , λ ) ., se debe de aplicar un factor de corrección ya que se pasa de
un valor continuo de la distribución Normal a aproximar un valor discreto de la
distribución de Poisson.

5.4.6.- Distribución Discreta Empírica


Cuando la distribución de probabilidad de una variable aleatoria discreta viene dada por un
conjunto de probabilidades, el método más común para generar valores de la misma es el método de la
Tablas de Búsqueda. Para conseguir más eficiencia se han de ordenar los valores de F(x) en orden
decreciente. El algoritmo de generación es el siguiente:

Generar u~U(0,1)
finßFALSO
iß1;
MIENTRAS NO fin HACER
SI u<=F(xi)
ENTONCES finßVERDAD
SI NO ißi+1
FIN_MIENTRAS
DEVOLVER xi

92

Das könnte Ihnen auch gefallen