Sie sind auf Seite 1von 14

1/14

TEMAS DE MATEMTICAS
(Oposiciones de Secundaria)
TEMA 61
DESIGUALDAD DE TCHEBYCHEV. COEFICIENTE DE VARIACION.
VARIABLE NORMALIZADA. APLICACIN AL ANLISIS, INTERPRETACIN
Y COMPARACIN DE DATOS ESTADSTICOS.
1. Variable Aleatoria.
1.1. Concepto de Variable Aleatoria.
1.2. Variable Aleatoria Discreta.
1.3. Variable Aleatoria Continua.
2. Esperanza Matemtica.
2.1. Momentos.
2.2. Variable Normalizada
2.3. Coeficiente de Variacin.
3. Desigualdades de Markov y Tchebychev.
4. Teoremas de Bernouilli y Moivre.
5. Aplicacin al Anlisis, Interpretacin y Comparacin de Datos Estadsticos.
5.1. Ejemplos.
Bibliografa Recomendada.



2/14
TEMA 61
DESIGUALDAD DE TCHEBYSCHEV. COEFICIENTE DE VARIACION.
VARIABLE NORMALIZADA. APLICACIN AL ANLISIS, INTERPRETACIN
Y COMPARACIN DE DATOS ESTADSTICOS.
1. VARIABLES ALEATORIAS.
1.1. Concepto de Variable Aleatoria.
DEF Sea un experimento E y sea el espacio muestral asociado con el experimento.
Llamaremos Variable Aleatoria a una funcin X que asigna a cada elemento s un
nmero real X(s).
DEF Diremos que una variable aleatoria es Discreta si slo toma un nmero finito de
valores o un nmero infinito pero numerable.
Si la variable aleatoria es discreta, enumeraremos los valores que toma como x
1
, x
2
,
x
3
, ...
DEF Diremos que una variable aleatoria es Continua si toma un nmero infinito no
numerable de valores
1.2. Variables Aleatorias Discretas.
DEF Definimos la funcin de Probabilidad de la variable aleatoria discreta X como
aquella funcin que asigna a cada nmero real x
i
la probabilidad de que la variable
aleatoria tome ese valor, X=x
i
. f(x
i
) = P(X=x
i
)
Tengamos en cuenta que la variable aleatoria X estaba definida sobre un espacio
muestral , el cual es discreto. En cambio, la funcin de probabilidad f(x) esta definida
sobre 3.
As pues, si el nmero real x
i
no pertenece al conjunto de valores que toma X, se
verificar
f(x
i
) = P(X=x
i
) = 0
En cambio, si pertenece al conjunto de los valores asumibles por X, se verificar:
f(x
i
) = P(X=x
i
) > 0
En este caso, f(x
i
) ser la suma de las probabilidades de todos los sucesos
elementales a los que X asigna el valor x
i
.
Las propiedades fundamentales de la funcin de probabilidad no son ms que la
traduccin de los axiomas de la probabilidad.
PROP Si x
1
, x
2
, ..., x
n
son los valores que toma la variable aleatoria X, se verifica:



3/14
1) ) ( ) ( ) ( ) (
2 1 n i
x X P x X P x X P x f + + +

K
2) f(x
i
)>0 i:1, 2, ..., n
3) Si a<b<c, y definimos los sucesos mutuamente excluyentes A={aXb} y
B={b<Xc}. Si C={aXc}, es claro que C=AB y, por tanto:
P(aXc) = P(aXb) + P(b<Xc)
DEF Definimos la funcin de Distribucin de una variable aleatoria discreta X como
F(x)=P(Xx
i
).
Esta claro que esa probabilidad ser la suma de las probabilidades de todos los
sucesos elementales de a los que X asigna valores menores o iguales que x
i
.
PROP La funcin de distribucin de una variable aleatoria verifica las siguientes
propiedades:
1) F(-)=0
2) F(+)=1
3) F(x) es creciente.
4) P(a<Xb) = F(b) F(a).
5) F(x) es Continua por la Derecha.
Dem.
1) Sean x
1
, x
2
, ..., x
n
los nicos valores que puede tomar la variable aleatoria X y sea x
0
un valor menor que el ms pequeo de los n valores anteriores. Es claro que el
suceso {Xx
0
} es un suceso imposible. Por tanto su probabilidad es cero,
manteniendose dicho valor cuando ms pequeo sea x
0
. Luego se verifica.
2) Anloga a la anterior.
3) Por propia Definicin, ya que todos los sumandos son no negativos.
4) Los sucesos {Xa} y {a<Xb} son mutuamente excluyentes, y su unin es el
suceso {Xb}
P(Xb) = P(Xa) + P(a<Xb)
Es decir
P(a<Xb) = P(Xb) - P(Xa) = F(b) F(a)
5) Por Definicin.
1.3. Variables Aleatorias Continuas.
DEF Llamamos funcin de Densidad de Probabilidad de una variable aleatoria
continua X a una funcin f(x) que verifica las dos condiciones siguientes:
1) f(x)0
2) 1 ) (

+

dx x f



4/14
DEF Llamaremos funcin de Distribucin de la variable aleatoria continua X a una
funcin que asigna a todo nmero real x, la probabilidad de que X sea igual o menor
que x.



x
dt t f x X P x F ) ( ) ( ) (
PROP La funcin de distribucin de una variable aleatoria continua X verifica:
1) 0 ) ( ) (

x F Lim F
x
2) 1 ) ( ) ( +
+
x F Lim F
x
3) F(x) es una funcin no decreciente.
4) P(a<Xb) = F(b) F(a).
5) Si F(x) es derivable,
dx
x dF
x f
) (
) (
Dem.
Inmediata.
2. ESPERANZA MATEMTICA.
DEF Sea X una variable aleatoria con funcin de probabilidad f(x). Llamaremos
Esperanza Matemtica de X a , siendo:
1) Caso Discreto:


i
i i
x f x X E ) ( ) (
2) Caso Continuo:

+

dx x xf X E ) ( ) (
La esperanza matemtica, denotada por E(X), tambin recibe el nombre de Media o
Valor Esperado.
Cuando una variable aleatoria se expresa mediante una funcin Y=G(X), con X otra
variable aleatoria, podemos expresar la esperanza matemtica de Y utilizando X como
sigue:
1) Caso Discreto.


i
i i
i
i i
y h y x f x g X G E Y E ) ( ) ( ) ( )) ( ( ) (
2) Caso Continuo.

+

+

dy y yh dx x f x g X G E Y E ) ( ) ( ) ( )) ( ( ) (
Si tenemos que una variable aleatoria Z se expresa como producto de otras dos
variables aleatorias, Z=XY, su esperanza matemtica ser:


j i
j i j i
y x f y x XY E Z E
,
) , ( ) ( ) (

+

+

dxdy y x xyf XY E Z E ) , ( ) ( ) (



5/14
PROP Sean a y b constantes y X una variable aleatoria con media . Si Y=aX+b
entonces E(Y) = a+b.
PROP El valor esperado de la suma o diferencia de dos o ms funciones de una
variable aleatoria X, es la suma o diferencia de los valores esperados de las funciones.
E[g(X)th(X)] = E[g(X)] t E[h(X)]
PROP La Esperanza Matemtica es una funcin lineal. E(aX+bY) = aE(X) + bE(Y).
2.1. Momentos.
DEF Sea X una variable aleatoria Discreta con funcin de probabilidad f(x).
Llamaremos Momento de Orden r Respecto al Origen de la variable aleatoria X, y lo
denotamos por
r
, a la expresin:

) ( ) ( x f x X E
r r
r

DEF Sea X una variable aleatoria Continua con funcin de densidad de probabilidad
f(x). Llamaremos Momento de Orden r Respecto al Origen de la variable aleatoria X, y
lo denotamos por
r
, a la expresin:

+

dx x f x X E
r r
r
) ( ) (
Podemos destacar a
1
que corresponde precisamente con E(X), la media de la
variable aleatoria.
DEF Sea X una variable aleatoria Discreta con funcin de probabilidad f(x).
Llamaremos Momento Central de Orden r de la variable aleatoria X, y lo denotamos por

r
, a la expresin:
( ) [ ] ( )

) ( ) ( ) ( x f X E X X E X E
r r
r

DEF Sea X una variable aleatoria Continua con funcin de densidad de probabilidad
f(x). Llamaremos Momento Central de Orden r de la variable aleatoria X, y lo
denotamos por
r
, a la expresin:
( ) [ ] ( )

+

dx x f X E X X E X E
r r
r
) ( ) ( ) (
DEF Sea X una variable aleatoria con distribucin de probabilidades f(x) y media .
Definimos la Varianza de X, y se denota por Var(X), como
2
, Momento Central de
Orden 2.
En el caso discreto [ ]


i
i i
x f x X E X E X Var ) ( ) ( )) ( ( ) (
2 2
2

En el caso continuo [ ]

+

dx x f x X E X E X Var ) ( ) ( )) ( ( ) (
2 2
2




6/14
DEF Llamamos Desviacin Tpica o Estndar de una variable aleatoria X, y se denota
por , a la raz cuadrada de la Varianza.
2
) ( X Var
PROP La varianza de una variable aleatoria X se puede expresar como la media de los
cuadrados menos el cuadrado de la media.
[ ]
2 2 2
) ( ) ( )) ( ( ) ( X E X E X E X E X Var
PROP Si a y b son constantes y X es una variable aleatoria con media y varianza
2
.
Se verifica:
Var(aX+b) = a
2
Var(X)
2.2. Variable Normalizada.
DEF Si en la proposicin anterior, tomamos como caso particular los valores

1
a y

b , la variable

X
, que expresa la desviacin de la variable aleatoria X
respecto de su media y medida en unidades de la desviacin tpica, recibe el nombre de
Variable Normalizada o Tipificada.
Ntese que la media de la variable normalizada es cero y su desviacin tpica uno.
0
,
`

.
|

X
E 1
2
2
1

]
]
]
]

,
`

.
|

]
]
]

,
`

.
|

X
E
X
Var
2.3. Coeficiente de Variacin.
DEF Llamaremos Coeficiente de Variacin de la variable aleatoria X al cociente de la
desviacin tpica por la media.
) ( X E

Para poder comparar las medias aritmticas de dos distribuciones que vengan dadas
en unidades diferentes tenemos el coeficiente de variacin de Pearson.
DEF Definimos el coeficiente de variacin de Pearson como la relacin por cociente
entre la desviacin tpica y la media aritmtica.

V



7/14
En primer lugar, tenemos que dicha medida es adimensional. En segundo lugar, V
representa el nmero de veces que contiene a . Cuanto mayor sea V, ms veces
contendr a , luego relativamente a mayor V menor representatividad de .
Este coeficiente se suele expresar en tanto por ciento, siendo

V 100
Como tanto en como en han intervenido todos los valores de la distribucin, V
presenta la garanta de que utiliza toda la informacin.
La cota inferior de V es cero, al ser ste el menor valor que puede tomar , y es el
valor de V que indica la mxima representatividad de .
En caso de que la media aritmtica sea nula, el valor de V no es significativo, ya que
su resultado numrico nos puede hacer tomar conclusiones estadsticamente
equivocadas.
3. DESIGUALDADES DE MARKOV Y TCHEBYCHEV.
En este apartado vamos a ver las desigualdades de Markov y Tchebychev. Ambas se
basan en el concepto de valor esperado para establecer acotaciones sobre la
probabilidad. La desigualdad de Markov establece una acotacin de la probabilidad de
una funcin no negativa de una variable aleatoria X. Con la desigualdad de Tchebychev,
si conocemos la distribucin de probabilidades de una variable aleatoria X, podemos
calcular su esperanza E(X) y su varianza Var(X), si existen. Sin embargo, el recproco
es falso. Es decir, conociendo la media y la varianza de la variable aleatoria X no
podemos reconstruir la distribucin de probabilidades de X. Debido a esto, es
conveniente obtener unas cotas superior e inferior para la funcin de probabilidad.
DESIGUALDAD DE MARKOV.
Dadas una funcin g no negativa de la variable aleatoria X y una constante t
positiva, se verifica que
[ ]
[ ]
t
X g E
t X g P
) (
) (
Dem.
La demostracin vamos a realizarla para el caso de que la variable aleatoria X sea
continua. El caso discreto es anlogo.
Sea D el dominio en el que g(X)t. Entonces:
[ ]


+
D D D
dx x f t dx x tf dx x f x g dx x f x g X g E ) ( ) ( ) ( ) ( ) ( ) ( ) (
Teniendo ahora en cuenta las propiedades que verifica la funcin de densidad:



8/14
1 ) (

+

dx x f y [ ] t X g P dx x f
D

) ( ) (
resulta que
[ ] [ ] t X g tP X g E ) ( ) (
y operando llegamos a
[ ]
[ ]
t
X g E
t X g P
) (
) (
Un caso particular que merece la pena destacar es cuando la funcin g sea la
identidad, g(X)=X. En este caso
[ ]
[ ]
t
X E
t X P
siempre que X0. Esta expresin nos va a permitir demostrar la desigualdad de
Tchebychev.
DESIGUALDAD DE TCHEVYCHEV.
Sea X una variable aleatoria con media y varianza
2
. Entonces, k>0 se verifica:
( ) ( )
2
1
1
k
k X P k X k P < + < <
Dem.
Definamos la variable aleatoria Y=[X-E(X)]
2
.
Como P(Y0) = 1 podemos aplicar la desigualdad de Markov, para obtener:
( ) ( )
2 2 2
2
2 2
2 2
1 ) (
k k k
Y E
k Y P k X P


verificando su complementario la desigualdad que queremos demostrar:
( )
2
1
1
k
k X P <
Veamos ahora otra manera de enunciar la desigualdad de Tchevybech, y vamos a
realizar su demostracin para el caso de una variable discreta.
DESIGUALDAD DE TCHEVYBECH.
Sea X una variable aleatoria. k>o se verifica:
( )
2
2
) (
k
X E
k X P
Dem.



9/14
Sea X una variable aleatoria discreta.

< <
+ +
i i i
x k
i i
k x k
i i
k x
i i
i
i i
p x p x p x p x X E
2 2 2 2 2
) (
Entonces

,
`

.
|
+ +


i i i i
x k
i
k x
i
x k
i i
k x
i i
p p k p x p x X E
2 2 2 2
) (
( ) ( )
2
2
2 2
) (
) (
k
X E
k X P k X P k X E
Si en la desigualdad anterior sustituimos la variable aleatoria X por otra variable que
est tipificada

X
, obtenemos la desigualdad de Tchevychev demostrada en primer
lugar.
La desigualdad de Tchevychev nos va a servir para poder justificar la introduccin
del concepto frecuencialista de probabilidad.
Sea A un suceso aleatorio, con probabilidad p, P(A)=p. Sea f la variable aleatoria
que mide el nmero de apariciones de A en una serie de n observaciones
independientes.
f = X
1
+ X
2
+ ... + X
n
donde

'

A verifica se no si
A verifica se si
X
i
0
1
en la i-sima experiencia
E(X
i
) = 1 P(A) + 0(1 P(A)) = p
Var(X
i
) = E[(X
i
p)
2
] = p(1 p)
2
+ (1 p)(0 p) = p(1 p)
Como los experimentos son independientes:
E(f) = E(X
1
) + E(X
2
) + ... + E(X
n
) = np
Var(f) = Var(X
1
) + Var(X
2
) + ...+ Var(X
n
) = np(1 p)
4. TEOREMAS DE BERNOUILLI Y MOIVRE.
TEOREMA DE BERNOUILLI.
Dado k>0, la probabilidad de que la desviacin absoluta de la frecuencia relativa de
A sea mayor que k en la repeticin de n experiencias independientes respecto a la
probabilidad de A tiende a 0 cuando n tiende a .
Dem.



10/14
Apliquemos la desigualdad de Tchebychev a la variable aleatoria
n
f
.
p
n
np
n
f
E

,
`

.
|
n
p p
n
p np
n
f
Var
) 1 ( ) 1 (


,
`

.
|

2 2
4
1 ) 1 (
nk nk
p p
k p
n
f
P

,
`

.
|
ya que [ ] 1 , 0
4
1
) 1 ( p p p
Entonces:
0

,
`

.
|


k p
n
f
P Lim
n
Un caso algo ms general fue obtenido por Poisson, que haca variar la probabilidad
de A de un experimento a otro.
Si la probabilidad de A en el experimento i-simo es p
i
, tenemos que

n
i
i
p f E
1
) (


n
i
i i
p p f Var
1
) 1 ( ) (
y entonces
2 2 2 2
1
4
1
) 1 (
k n k n
p p
k p
n
f
P
n
i
i i

,
`

.
|

siendo

n
i
i
p
n
p
1
1
la probabilidad media.
El teorema de Bernouilli se publico en el ao 1713, 150 aos despus que la
desigualdad de Tchebychev. Originalmente se demostr calculando directamente la
probabilidad
( )

+

,
`

.
|

,
`

.
|

) ( ) (
) 1 (
k p n i k p n
i n i
p p
i
n
nk np f P k p
n
f
P
Bernouilli tard veinte aos en calcular el sumatorio anterior, y probar que tiende a
1 cuando n tiende a .
Sin embargo, hoy en da puede deducirse un resultado mucho ms general que el de
Bernouilli y que fue dado por De Moivre en 1733, y que se podra enunciar como:
La Distribucin Binomial es Asintticamente normal
tambin conocido como Teorema Central del Lmite, en forma reducida.



11/14
En la demostracin de De Moivre, se utilizaba la variable tipificada
) 1 ( p np
np f


Entonces:

+ +

,
`

.
|
< <
) 1 ( ) 1 (
2 1
2 1
) 1 ( ) (
p np np i p np np
i n i
p p
i
n
P


Pues bien



< <
2
1
2
2
2 1
2
1
) (

du e P Lim
u
n
siendo la expresin de la derecha la funcin de distribucin normal.
El clculo de la probabilidad

+ +

,
`

.
|
) 1 ( ) 1 (
2 1
) 1 (
p np np i p np np
i n i
p p
i
n

anterior, cuando n puede hacerse de forma ligeramente distinta, lo que proporciona
otra distribucin lmite, llamada de Poisson, muy til cuando n es muy grande y p es
muy pequea.
Sea un parmetro tal que n p y
n
p q

1 1

,
`

.
|

+

,
`

.
|

,
`

.
|

,
`

.
|

r n
r
r
r n r
n r n
r n n n
n n r
n
r X P

1
!

) 1 ( ) 1 (
1 ) (
K
r n
r
n n r n
r
n n

,
`

.
|

,
`

.
|

,
`

.
|

,
`

.
|

,
`

.
|


1 1
!

1
1
2
1
1
1 L
Tomando lmites cuando n nos queda la distribucin de Poisson


e
r
r X P
r
!
) (
Se verifica que 1
!
0

r
r
e
r

, la esperanza es =np y la varianza es


2
=
En la prctica, se suele utilizar cuando es suceso A es raro y 5 np



12/14
5. APLICACIN AL ANLISIS, INTERPRETACIN Y COMPARACIN DE
DATOS ESTADSTICOS.
La nocin de ley de probabilidad correspondiente a una variable aleatoria se
introduce en Estadstica como un modelo de las regularidades que se observan al
considerar series estadsticas.
Al igual que sucede con todas las teoras de las Matemticas, la segunda parte es ver
como se adaptan los modelos matemticos a la realidad.
Igualmente, si llegamos a establecer criterios que permitan afirmar que una serie
estadstica se puede considerar como una cierta aproximacin de una ley de
probabilidad, podemos admitir que el mecanismo que conduce a estas observaciones
ser anlogo al de los experimentos imaginados para obtener valores del universo que
tiene dicha ley de probabilidad.
Concretamente, al aplicar mtodos estadsticos para obtener nuevos conocimientos
de los fenmenos naturales, se pueden considerar cuatro etapas:
a) Descripcin.
Propone la recogida, clasificacin y presentacin resumida de datos relativos a
un fenmeno.
b) Modelos.
Para explicar los hechos observados se formulan hiptesis, teoras o se buscan
modelos, que expresen en forma matemtica las relaciones que se han observado en
los datos estadsticos.
c) Verificacin.
Tambin llamado Contraste del Modelo, Se realiza mediante la recogida de
nuevos datos estadsticos relativos al fenmeno estudiado. Si la ley se confirma,
podr utilizarse en lo sucesivo. Si no, se descarta.
d) Prediccin.
La teora o modelo establecido permite establecer predicciones.
5.1. Ejemplos.
a) Ley de Mendel.
1) Descripcin.
Mendel estudi el cruce de una variedad de guisantes amarillos con otros verdes.
Los guisantes verdes, al reproducirse, dan siempre verdes, pero los amarillos dan unos
slo amarillos y otros amarillos y verdes. Estos amarillos dan una raza pura que da



13/14
indefinidamente amarillos. Si se cruzan verdes con amarillos de raza pura, se obtiene
una primera raza de hbridos verdes. Si stos se cruzan entre s, se obtienen guisantes
amarillos y verdes aproximadamente en una proporcin 3 a 1.
2) Modelo Matemtico.
Este modelo fue sugerido por el propio Mendel. En los cromosomas del guisante
hay un corpsculo portador del color. En la raza hbrida, unos gametos llevan el gen V y
otros el A en la misma proporcin. Al formarse las clulas, se pueden tener los
siguientes tipos:
V
1
V
2
A
1
V
2
V
1
A
2
A
1
A
2
Como A es dominante, entonces la proporcin de amarillos es de .
3) Verificacin.
En este caso, la comprobacin de la Ley debe hacerse con test de hiptesis, por
ejemplo la
2
de Pearson.
4) Prediccin.
Una vez confirmada la ley, se puede saber con cierta probabilidad cual ser el
resultado del cruzamiento de dos plantas de guisantes en las condiciones anteriores.
b) Calidad en la Produccin de Inyectables.
1) Descripcin.
Se ha observado que una mquina produce inyectables con un porcentaje de
defectuosos del 1% en un lote de 10.000 unidades.
2) Modelo.
El nmero de inyectables defectuosos en una caja de 200 unidades es variable, pero
una teora basada en la observacin y en un modelo del clculo de probabilidades
permite considerar el nmero de defectuosos como una variable de Poisson
3) Verificacin.
Si este modelo es confirmado por la experiencia, se puede utilizar para la
prediccin. Si no es confirmado, se revisa la hiptesis del paso 2.
4) Prediccin.
La hiptesis y teora anterior permite predecir que es prcticamente seguro que en
una caja de 200 unidades de inyectables aparezcan, a lo sumo, cuatro defectuosos.



14/14
BIBLIOGRAFA RECOMENDADA.
Introduccin a la Teora de la Estadstica. Aut.: Mood/Graybill. Ed. Aguilar.
Introduccin a la Probabilidad y la Medida. Aut. Procopio Zoroa. Ed. PPU
Algoritmo. Matemticas II. Cou. Aut.: Vizmanos y Anzola. Edit. SM.
Curso Bsico de Estadstica Econmica. Aut.: M.P. Martn y F.J. Martn. Edit.: AC.

Das könnte Ihnen auch gefallen