Sie sind auf Seite 1von 2

Teoremas de Convergencia

1.- Ley débil de los grandes números

Demostración:

𝑆𝑒𝑎 {𝑋𝑛 }𝑛≥1 una sucesión de variables aleatorias independientes.

𝐸(𝑋𝑛 ) = 𝜇, 𝑉𝑎𝑟(𝑋𝑛 ) = 𝜎 2 𝑛𝑛 = 1, 2, …
Entonces, cualquiera que sea 𝜀 > 0, 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
lim 𝑃(| − 𝜇| ≥ 𝜀) = 0
𝑛→∞ 𝑛
Supongamos que 𝑆𝑛 − 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 y aplicando a desigualdad de Tchebichev a la variable
aleatoria 𝑆𝑛 /𝑛
𝑛
𝑆𝑛 1 1
𝐸 ( ) − ∑ 𝐸(𝑋𝑡 ) = 𝑛𝜇 = 𝜇,
𝑛 𝑛 𝑛
𝑡=1
𝑛 𝑛
𝑆𝑛 1 1 𝑛𝜎 2 𝜎 2
𝑉𝑎𝑟 ( ) = 2 𝑉𝑎𝑟 (∑ 𝑋𝑡 ) = 2 ∑ 𝑉𝑎𝑟(𝑋𝑡 ) = =
𝑛 𝑛 𝑛 𝑛 𝑛
𝑡=1 𝑡=1

Aplicando la desigualdad:

𝑆𝑛 1 𝜎2
𝑃 (| − 𝜇| ≥ 𝜖) ≤ 2 →0
𝑛 𝜖 𝑛
Cuando 𝑛 → ∞, Esto prueba la ley débil de los grandes números.

2.- Desigualdad de Chebyshev.

La desigualdad de Chebyshev tiene como finalidad ser un medio para comprender como la
varianza mide la variabilidad de una dada variable aleatoria con respecto a su esperanza
matemática.

Demostración:

Sea X una variable aleatoria continua con esperanza E(X), sea c un número real y supongamos que
𝐸[(𝑋 − 𝑐)2 ]existe y es finito. Entonces
1
∀𝜖 >0 𝑃(|𝑋 − 𝑐| ≥ 𝜖) ≤ [(𝑋 − 𝑐)2 ]
𝜖2
Sea 𝑓(𝑥) 𝑙𝑎 𝑓𝑑𝑝 𝑑𝑒 𝑋. Tenemos:

𝑃(|𝑋 − 𝑐| ≥ 𝜖) = ∫ 𝑓(𝑥) 𝑑𝑥
|𝑋−𝑐|≥𝜖
(𝑥−𝑐)2
Si los valores de x que verifican |𝑥 − 𝑐| ≥ 𝜖 son los mismo que verifican 𝜖2
≥ 1, y 𝑓(𝑥) ≥ 0

(𝑥 − 𝑐)2 ∞ (𝑥
− 𝑐)2
𝑃(|𝑋 − 𝑐| ≥ 𝜖) = ∫ 𝑓(𝑥) 𝑑𝑥 ≤ ∫ 𝑓(𝑥)𝑑𝑥 ≤ ∫ 𝑓(𝑥)𝑑𝑥
𝜖2 −∞ 𝜖2
|𝑥−𝑐|≥𝜖 |𝑥−𝑐|≥𝜖

Esto quiere decir que los límites de integración. Teniendo en cuenta la expresión para la esperanza
de una función H(x) de una variable aleatoria X:
(𝑥−𝑐)2
Si… 𝐻(𝑥) = Entonces:
𝜖2

∫ 𝐻(𝑥)𝑓(𝑥)𝑑𝑥 = 𝐸[𝐻(𝑋)]
−∞

Finalmente tendríamos:

(𝑋 − 𝑐)2 1
𝑃(|𝑋 − 𝑐| ≥ 𝜖) ≤ 𝐸 [ 2
] = 2 𝐸[(𝑋 − 𝑐)2 ]
𝜖 𝜖

3.- Central del límite.

El teorema Central del Limite dice que si tenemos un grupo numeroso de variables independientes
y todas ellas siguen el mismo modelo de distribución según una distribución normal con una t de
Student. Cuando n es lo bastante grande, su distribución muestra también es una normal.

Demostración.

Sea 𝑋1 , 𝑋2 , … , 𝑋𝑛 son variables aleatorias (discretas o continuas) independientes con idéntico


modelo de probabilidad de media 𝜇 y varianza 𝜎 2
(𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ) − 𝑛𝜇 (∑𝑛𝑖=1 𝑋1 ) − 𝑛𝜇
𝑍= =
𝜎√𝑛 𝜎 √𝑛
Así vemos que este modelo se aproxima a una distribución normal.
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ∑𝑛𝑖=1 𝑋1
𝑋~ = =
𝑛 𝑛
𝜎
𝑁(𝜇,
√𝑛
𝑥~ − 𝜇
𝜎
√𝑛
Con este resultado probamos que el estadístico se distribuye como una variable equivalente a una
distribución normal

Das könnte Ihnen auch gefallen