Beruflich Dokumente
Kultur Dokumente
Estadstica y
Probabilidad
Semestre 6
Estadstica y probabilidad
Semestre 6
Estadstica y probabilidad
Tabla de contenido
Pgina
Introduccin
Conceptos previos
Logros
Distribuciones condicionales
Prediccin
Prediccin lineal
Prediccin general
Teoremas lmites
11
11
13
15
17
Resumen
18
Bibliografa recomendada
18
Nexo
19
Seguimiento al autoaprendizaje
21
Crditos: 3
Tipo de asignatura: Terico Prctica
Semestre 6
Estadstica y probabilidad
Semestre 6
Estadstica y probabilidad
Introduccin
La probabilidad condicionada es la probabilidad de que ocurra un evento
A, sabiendo que tambin sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultneamente. A puede causar B, viceversa o pueden no tener relacin causal. Las
relaciones causales o temporales son nociones que no pertenecen al
mbito de la probabilidad. Pueden desempear un papel o no dependiendo de la interpretacin que se le d a los eventos.
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
Adicionalmente se ver cmo utilizar ciertas variables conocidas para predecir otras variables que no se pueden observar en un determinado momento. Por ejemplo, se quiere predecir la cantidad de lluvia que maana
caer en determinada regin, para ello utilizaremos otras variables que se
puedan medir hoy. Se quisiera encontrar el predictor que se aproxime ms
a la variable a predecir, y entre todos los predictores pertenecientes a un
conjunto dado.
Conceptos previos
Toda variable aleatoria est caracterizada por su distribucin de probabilidad, que no es sino el conjunto de valores posibles de la variable aleatoria,
acompaados de sus respectivas probabilidades.
El modo en que se representa la distribucin de probabilidad depende de
que la variable aleatoria en cuestin sea de naturaleza discreta o continua.
Fascculo No. 4
Semestre 6
Estadstica y
probabilidad
Estadstica y probabilidad
Si denotamos por P(xi) la masa de probabilidad en cada punto xi del soporte de la distribucin de probabilidad de una variable aleatoria X; (conjunto de valores posibles de la variable aleatoria X). Y por f(xi) la funcin de
densidad que la representa, cuando sta existe (distribuciones de tipo continuo), la esperanza matemtica de la variable X se define:
Estadstica y
probabilidad
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
La moda es el valor ms probable de una distribucin, es decir, el punto XM
del soporte de la distribucin, tal que:
Logros
Estadstica y
probabilidad
Estadstica y probabilidad
Ejemplo: Bernouilli Sean S e T los nmeros de los intentos correspondientes al primer y al segundo xito en un esquema de Bernouilli con probabilidad p. se quiere calcular D(S|T). Sabiendo que P(T = t) = (t 1)p2(1
p)t2. La conjunta es:
Estadstica y
probabilidad
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
Por lo tanto,
Se encuentra condicionando, no respecto al evento {X = x} que tiene probabilidad nula, sino al {x X x + } donde 0 (o sea, tomando
un intervalito). Entonces la distribucin de Y condicional a este evento es
(definiendo para simplificar la notacin, el intervalo J = [x , x + ]):
Fascculo No. 4
Semestre 6
Estadstica y
probabilidad
Estadstica y probabilidad
Por lo tanto,
donde X y Y son las medias, 2 X y 2 Y las varianzas, y c la covarianza de X e Y . Lo probaremos para el caso = = 0; de ste sale
fcilmente el caso general es:
Donde
Estadstica y
probabilidad
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
La media (cuando existe) de D(Y |X = x) se llama media condicional de Y
dado X = x, que para los casos discreto y continuo es, respectivamente
Prediccin
Un posible problema a resolver puede ser: conociendo la temperatura media de hoy, hacer una prediccin de la de maana. Formalmente, se busca
aproximar a Y con una funcin de X. O sea, se busca una funcin g : R
R tal que Y g(X) sea lo ms pequea posible. Este problema se denomina en general prediccin. Pero eso no implica un orden cronolgico
entre las variables. Por ejemplo, si tengo una serie de observaciones en la
que faltan valores, puede interesarme predecir (rellenar) los valores faltantes en funcin de otros posteriores. Una forma de plantear el problema
es minimizar alguna medida del error. El criterio ms usual es el error medio cuadrtico (e.m.c.):}
Fascculo No. 4
Semestre 6
Estadstica y
probabilidad
Estadstica y probabilidad
Se busca entonces g tal que e(g) sea mnimo. El e.m.c. no es el nico criterio posible. Por ejemplo se podra tomar como medida de error E|Y
g(X))| (error absoluto), o med(|Y g(X)|) (error mediano). Pero el
e.m.c. permite, como se ver, obtener resultados calculables explcitamente, y esto es la base de su popularidad.
Prediccin lineal
Para comenzar con un caso ms sencillo, trataremos el problema en que g
se restringe a la forma g(x) = a + bx. Entonces
Usando el coeficiente de correlacin , la ecuacin de la recta de regresin se puede expresar ms simtricamente como
Estadstica y
probabilidad
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
y por lo tanto ambas rectas pasan por (X, Y ), pero no coinciden, salvo
que = 1.
Prediccin general
Ahora se busca minimizar el e.m.c. sin restricciones sobre g. Convendr
tener en cuenta que si C es un conjunto tal que P(X C) = 1, basta con
definir la g en C (por ejemplo, si X 0, basta con definir g en R+).
Ahora damos la solucin del problema general.
Teorema Sea g(x) = E(Y |X = x) si x C. Entonces esta g minimiza el
e.m.c.
Fascculo No. 4
Semestre 6
Estadstica y
probabilidad
Estadstica y probabilidad
Demostracin: La hacemos para el caso discreto. Notemos que para
cualquier g el e.m.c. es
es
De modo que hijos de hombres ms altos que la media, son en promedio ms bajos que sus padres; y los hijos son en promedio ms altos que
sus padres. Esto se podra interpretar como una tendencia de la poblacin
a emparejarse (de aqu la expresin regresin: se regresara hacia la
media). Sin embargo, esto se obtuvo suponiendo justamente que las dos
generaciones tienen la misma distribucin! En consecuencia, este fenmeno no dice nada sobre la evolucin de la poblacin, sino que es una
Estadstica y
probabilidad
10
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
simple consecuencia de que < 1. Esta aparente paradoja se llama la falacia de la regresin.
Teoremas lmites
A continuacin se vern dos resultados muy importantes sobre el comportamiento del promedio (o de la suma) de un gran nmero de variables independientes.
Consideremos por ejemplo una sucesin de tiradas de un dado equilibrado. Sea Xi = IAi donde Ai es el evento: en el tiro i-simo sale as. Entonces
= P(Ai) = 1/6; y Xn es la proporcin de ases en los primeros n tiros. Sera
entonces de esperar que Xn se aproxime a 1/6 cuando n es grande. Asimismo, si definimos en vez a Xi como el resultado del tiro i-simo, entonces
= 3.5, y Xn es el promedio de los primeros n resultados, del cual uno
esperara que se aproxime a 3.5 para n grande. Sin embargo, para sucesiones de resultados tales como 4,5,4,5,4,5,. . . , esto no se cumplir en
ninguno de los dos ejemplos, por lo que dicho lmite no puede tomarse en
su sentido habitual. Podra deducirse que al fin y al cabo esa sucesin de
resultados tiene probabilidad nula; pero lo mismo vale para cualquier otra
sucesin. Lo que se necesita es un concepto adecuado de lmite para variables aleatorias.
Fascculo No. 4
Semestre 6
11
Estadstica y
probabilidad
Estadstica y probabilidad
Definicin: La sucesin de variables Zn tiende a la variable Z en probabilidad
si
para
todo
<
>
se
cumple
12
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
La ley de grandes nmeros es importante en relacin con el concepto de
probabilidad. En el primer ejemplo con el dado, dicha ley implica que (de
manera informal)
i=1
13
Estadstica y
probabilidad
Estadstica y probabilidad
converja a algo. Si la dividimos por n obtenemos Xn, que como se vio
tiende a , o sea, algo que tiene un solo valor; de modo que dividir por n
resulta demasiado.
Habra que transformar a Sn de forma que su distribucin tendiera a alguna distribucin que no est concentrada en un solo valor. La idea salvadora es transformar a Sn para que queden media y varianza constantes. Sea
Sn la Sn normalizada para que tenga media 0 y varianza 1:
Estadstica y
probabilidad
14
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
tambin se puede escribir
Lo probamos primero cuando toma slo valores enteros. Sean Y1, Y2, . .
. Po(1) independientes. Entonces, se obtiene
Fascculo No. 4
Semestre 6
15
Estadstica y
probabilidad
Estadstica y probabilidad
Estadstica y
probabilidad
16
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
se desplaza una distancia < a la derecha o a la izquierda, con probabilidad
1/2 cada una, y que lo que sucede en un impacto es independiente de los
dems.
, entonces tambin
, entonces tambin
.
Esto se verifica a continuacin.
Si
Fascculo No. 4
Semestre 6
17
Estadstica y
probabilidad
Estadstica y probabilidad
El concepto de convergencia en probabilidad es, como era de esperarse,
ms fuerte que el de convergencia en distribucin, como se muestra a continuacin:
Proposicin
Proposicin Si c es una constante,
Por hiptesis, lm FZn(z) = 0 o 1 segn sea z < c o > c. Por lo tanto
En muchas situaciones aparecen combinados ambos tipos de convergencia, particularmente al buscar aproximaciones para las distribuciones de
variables que aparecen en estadstica. La proposicin siguiente, que es
bastante intuitiva, resulta muy til.
CANAVOS C., George. Probabilidad y estadstica para ingenieros. Editorial MCGRAW Hill, octava edicin, 1995.
Estadstica y
probabilidad
18
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
FELLER, W. (1980), Introduccin a la Teora de Probabilidad y sus Aplicaciones, Editorial Limusa.
LARSON, Harold J. Introduccin a la teora de probabilidades e inferencia estadstica. Editorial Limusa Noriega, dcima primera edicin, 1994.
MONTGOMERY, Douglas y Hines, William. Probabilidad y estadstica aplicadas a la ingeniera. Editorial McGraw Hill, cuarta edicin, 1993.
WALPOLE, Ronald E. Probabilidad y estadstica para ingenieros. Editorial
Prentice Hall Hispanoamericana S.A., sexta edicin, 1999.
Fascculo No. 4
Semestre 6
19
Estadstica y
probabilidad
Estadstica y probabilidad
Estadstica y
probabilidad
20
Fascculo No. 4
Semestre 6
Estadstica y probabilidad
Seguimientoal autoaprendizaje
Estadstica y probabilidad - Fascculo No. 4
Nombre_______________________________________________________
Apellidos ________________________________ Fecha: _________________
Ciudad___________________________________Semestre: _______________
1. Probar: X e Y son independientes si y slo si D(Y |X) = D(Y ).
2. La distribucin conjunta de X e Y est dada por las siguientes probabilidades:
Fascculo No. 4
Semestre 6
21
Estadstica y
probabilidad