Beruflich Dokumente
Kultur Dokumente
Estadística e Inferencia
1 Estadística y Probabilidad
Fundamentos de probabilidad
Variables aleatorias
Distribuciones especiales
Variables multidimensionales
2 Inferencia Estadística
Estimación puntual de parámetros
Estimación intervalar de parámetros
Estadística
Axiomas de probabilidad
Una probabilidad es una función definida sobre un subconjunto del espacio muestral Ω,
tal que a un subconjunto cualquiera A se le asocia un número P (A) llamado probabilidad
de A, que satisface los siguientes axiomas
1. P (Ω) = 1
2. P (A) ≥ 0
P
3. P (∪i Ai ) = i
P (Ai ), ∀Ai ∩ Aj = Φ
1. P (Φ) = 0
2. P (Ac ) = 1 − P (A), donde Ac es el complemento de A
3. Si A ⊂ B, entonces P (A) ≤ P (B)
4. Si A ⊂ B, entonces P (B − A) = P (B) − P (A)
P (A∩B)
P (A/B) = P (B)
, si P (B) > 0
P (Ω∩B) P (B)
P (Ω/B) = P (B)
= P (B)
=1
P (A ∩ B) = P (A) · P (B)
P (A ∩ B c ) = P (A) · P (B c )
A ∩ B = Φ y P (A ∩ B) = 0
Ejercicios
Una variable aleatoria se define como una función de los elementos del espacio muestral
con valores reales.
Una variable aleatoria discreta es aquella cuyo recorrido forma un conjunto de números
reales discretos (finito o infinito numerable). Su función de probabilidades se define y
denota
Número de turnos
y satisface las condiciones
30
20
10
pX (x) ≥ 0, ∀x ∈ R
P
0
x
pX (x) = 1
1 2 3 4 5 6 7 8
Ejemplos:
1. Número de camiones con fallas por mes
2. Litologías existentes en una campaña de exploración
3. Número de accidentes por turno
fX (x) ∈ R, ∀x ∈ R
A toda variable continua X se le puede asociar una función fX (x), de valor real, llamada
Función de Densidad de Probabilidad, que satisface las siguientes condiciones
Función de densidad
0.4
1. fX (x) ≥ 0, ∀x
R∞
fX(x)
0.2
2. fX (x)dx = 1
−∞
0.0
−3 −2 −1 0 1 2 3
Ejemplos: x
Función de distribución
Toda variable aleatoria tiene asociada siempre otra función , llamada función de distri-
bución o función de distribución acumulada. Esta función puede utilizarse para calcular
probabilidades asociadas con la variable aleatoria en cuestión y presenta la ventaja de que
es apropiada tanto para variables aleatorias discretas como continuas.
FX (t) = P (X ≤ t), ∀t ∈ R
0.8
FX(t)
FX(t)
0.4
0.4
0.0
0.0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
t t
Función de distribución
X
FX (t) = pX (x), ∀t ∈ R
x≤t
Z t
FX (t) = fX (x)dx, ∀t ∈ R
−∞
Esperanzas y momentos
Existen constantes que describen ciertas características de las variables aleatorias, tanto
continuas como discretas. El conocimiento de estas constantes proporcionan información
rápida acerca de la naturaleza de las variables. El término valor esperado o esperanza
de una variable aleatoria es utilizado como una medida de centro o como una medida de
localización de una distribución de probabilidades.
X
µX = E(X) = xpX (x); si X es discreta
x
Z
µX = E(X) = xfX (x)dx; si X es continua
Esperanzas y momentos
Si X es una variable aleatoria discreta con función de probabilidad pX (x), entonces el
valor esperado de H(X) será
X
E[H(X)] = H(x)pX (x).
x
Si X es una variable aleatoria continua con función de densidad fX (x), entonces el valor
esperado de H(X) será
Z ∞
E[H(X)] = H(x)fX (x)dx.
−∞
Esperanzas y momentos
2
σX = E[(X − µX )2 ]
Ejercicios
Distribución Bernoulli
p (Éxito) y q = 1 − p (Fracaso)
Ejemplos:
1. Falla de un camión
2. Asignación de material a planta
3. Bloque con valor superior a la ley de corte
Distribución Binomial
Un experimento que consiste en n ensayos Bernoulli independientes, cada uno con pro-
babilidad de éxito p, se llama un experimento Binomial con n ensayos y parámetro p. Se
define como
X ∼ Binomial(n, p)
n x n−x
pX (x) = p q , con x = 0, 1, 2, .., n
x
Ejemplos:
1. Número de sondajes de diamantina en
campaña de exploración
2. Número total de camiones con falla durante
un turno
3. Número de pilas de lixiviación agotadas
Distribución Geométrica
X ∼ Geom(p)
Ejemplos:
1. Número de ensayos de mezclas mineralógicas
para obtener recuperación deseada
2. Número de muestras enviadas a laboratorio
para validación de análisis químico
X ∼ BN (r, p)
x − 1 r x−r
pX (x) = p q p, con x = r, r + 1, ...
r−1
Ejemplos:
1. Número de sondajes en campañas de
exploración
Distribución Poisson
X ∼ P oiss(λ)
λx e−λ
pX (x) = , con x = 0, 1, ...
x!
E(X) = λ y V ar(X) = λ
Ejemplos:
1. Número de tronaduras en galerías
subterráneas de un turno
2. Número de sondajes con ley media mayor a la
ley de corte
Distribución Uniforme
Sea X una variable aleatoria continua con valores en el intervalo (a, b). Diremos que
X tiene distribución Uniforme en el intervalo (a, b) si la función de densidad de X es
constante para todo x ∈ (a, b), esto es
0.12
fX(x)
0.06
1
fX (x) = , con x ∈ (a, b)
(b − a)
0.00
0 2 4 6 8 10
x
a+b (b − a)2
E(X) = y V ar(X) =
2 12
Ejemplos:
1. Ley media de mineral que entra a planta
2. Tonelaje transportado por camión
Distribución Exponencial
0 5 10 15 20
1 1
E(X) = y V ar(X) = 2 x
λ λ
Ejemplos:
1. Tiempo de circuito de un camión hasta el
chancador primario
2. Tiempo transcurrido hasta el corte de una
correa de transporte
Distribución Normal
Una variable aleatoria continua X que toma todos los valores reales tiene una distribución
Normal o Gaussiana si su función de densidad de probabilidad es de la forma
Función de densidad Normal
X ∼ N ormal(µ, σ 2 )
0.12
fX(x)
0.06
−(x−µ) 2
1
fX (x) = √ e 2σ2
0.00
σ 2π
0 5 10 15 20
E(X) = µ y V ar(X) = σ 2
Ejemplos:
1. Logaritmo de la Ley de Cu
2. Análisis químico de muestras estándar
Ejercicios
Variables bidimensionales
X X
pX1 (x1 ) = pX1 X2 (x1 , x2 ) pX2 (x2 ) = pX1 X2 (x1 , x2 )
X2 X1
Variables bidimensionales
Z ∞ Z ∞
fX1 X2 (x1 , x2 )dX1 dX2 = 1
−∞ −∞
Z ∞ Z ∞
fX1 (x1 ) = fX1 X2 (x1 , x2 )dX2 fX2 (x2 ) = fX1 X2 (x1 , x2 )dX1
−∞ −∞
Esperanzas y momentos
XX Z ∞ Z ∞
Esperanzas y momentos
σXY
ρXY = .
σX σY
Independencia y condicionalidad
Dada una variable aleatoria bidimensional (X1 , X2 ) con función de distribución F (X1 , X2 )
diremos que X1 y X2 son independientes si
n
Y
fX (x) = fXi (xi ), ∀x ∈ Rn
i=1
n
Y
pX (x) = pXi (xi ), ∀x ∈ Rn
i=1
Distribución X 2 , t − Student y F
Distribución X 2
Si Z1P
, ..., Zn son variables aleatorias normales estándar, independientes, entonces
X= Zi2 tendrá distribución X(n)
2 .
0.4
0.0
0 2 4 6 8 10
X21
Además se cumple que si X1 , ..., Xn son variables aleatorias independientes, cada una
Pcon
distribución X 2 con v1 , ..., vn gradosPde libertad, respectivamente, entonces Y = Xi
tiene distribución Chi cuadrado con vi grados de libertad.
Distribución X 2 , t − Student y F
Distribución t− Student
Definamos Z como una variable aleatoria nomar estándar, y X una variable aleatoria
que se distribuye Chi-Cuadrado con v grados de libertad. Si Z y X son independientes,
entonces la variable aleatoria T definida por T = √ Z tiene distribución t−Student
X/v
con v grados de libertad.
Función de densidad t1
fX(x)
0.2
0.0
−4 −2 0 2 4
t1
Su densidad corresponde a
Γ((v + 1)/2) 1
fT (t) = √ ; −∞ < t < ∞
vπΓ(v/2) [1 + (t2 /v)](v+1)/2
Distribución X 2 , t − Student y F
Distribución F de Snedecor
0.4
0.0
0 2 4 6 8 10 12
F5,10
Su densidad corresponde a
Ejercicios
Inferencia
Distribución de X̄ y S 2
Distribución de S 2
Distribución de X̄
Estimación de parámetros
El problema es entonces cómo usar las observaciones muestrales para estimar los valores
de estos parámetros. Denotaremos por θ el parámetro desconocido, y por θ̂ a su estimador.
Definiremos las dos formas de estimar parámetros
Estimación Puntual
Estimación Intervalar
1
Pn
Momentos muestrales Mk = n i=1
Xik
Este método de estimación puntual funciona encontrando el valor del parámetro θ que
maximiza la función de densidad conjunta de una muestra aleatoria, la que se denomina
función de Verosimilitud.
que en el caso de contar con una muestra aleatoria, por independencia queda de la forma
Qn
L(θ) = f (xi |θ).
i=1 Xi
Ejercicios
Sea X1 , ..., Xn una muestra aleatoria de una población N ormal(θ, σ 2 ). Nuestro interés
será estimar θ, sin embargo, en base a los supuestos con los que contemos podremos tener
diferentes escenarios para construir los intervalos de confianza.
√
Varianza σ 2 conocida ICµ = x̄ ± Z1−α/2 σ/ n
√
Varianza σ 2 desconocida ICµ = x̄ ± t1−α/2 S/ n
Ahora bien, si el problema inicia con determinar el número de muestras óptimo para
construir los intervalos con un determinado margen de error, podemos usar
2
n ≥ Z1−α/2 σ 2 /2
para determinar este número. Si no se dispone del valor de σ 2 se puede utilizar un valor
equivalente, en este caso S 2 .
(n−1)S 2 (n−1)S 2
ICσ = X2
, X2
1−α/2 α/2
La distribución Chi-Cuadrada tiene el mismo dominio, por lo que será empleada para
construir el intervalo. Debe hacerse notar que esta distribución no es simétrica como la
Gaussiana o la t-Student, por lo que el cálculo de los límites será diferente al caso de la
media.
h p i
ICp = p̂ ± Z1−α/2 p̂(1 − p̂)/n
Esto para n grande, siendo p̂ = X̄. En caso de contar con una muestra reducida, el
intervalo debiera ser de la forma
h 1/2 i
√ 2
(p̂+Z1−α/2 /2n)±Z1−α/2 / n p̂(1−p̂)+Z1−α/2 /4n
ICp = 2p̂+Z 2 /n
1−α/2
Ejercicios
¿Dudas?