Sie sind auf Seite 1von 50

UNIVERSIDAD DE ORIENTE

NCLEO ANZOTEGUI
ESCUELA DE INGENIERA Y CIENCIAS APLICADAS
DEPARTAMENTO DE ELECTRICIDAD
ESTADSTICA

BACHILLER:
GIMMY CISNEROS .CI: 20360385

BARCELONA, FEBRERO DEL 2015.


DISTRIBUCIN DE FRECUENCIAS.

VARIABLES DISCRETAS Y CONTINUAS.

Una distribucin de los datos en categoras que ha demostrado ser til al


organizar los procedimientos estadsticos, es la distincin entre variables
discretas y variables continuas. Una variable discreta es sencillamente una
variable para la que se dan de modo inherente separaciones entre valores
observables sucesivos. Establecen categoras en trminos no cuantitativos
entre distintos individuos o elementos Dicho con ms rigor, se define una
variable discreta como la variable tal que entre 2 cualesquiera valores
observables (potencialmente), hay por lo menos un valor no observable
(potencialmente). Por ejemplo, un recuento del nmero de colonias de un
cultivo en agar es una variable discreta. Mientras que cuentas de 3 y 4 son
potencialmente observables, no lo es una de 3,5 o tambin cuando se clasifica
a las personas en clases sociales: alta, media, baja. O cuando se califica un
servicio de un hospital: excelente, bueno, regular, malo.

Una variable continua es aquella que se presenta cuando el fenmeno


que se mide puede tomar valores cuantitativamente distintos, tiene la propiedad
de que entre 2 cualesquiera valores observables (potencialmente), hay otro
valor observable (potencialmente). Una variable continua toma valores a lo
largo de un continuo, esto es, en todo un intervalo de valores. Longitudes y
pesos son ejemplos de variables continuas. La estatura de una persona, pude
ser 1,70 mts. 1,75 mts., pero en potencia al menos podra tomar cualquier
valor intermedio como 1,73 mts. por ejemplo. Tambin la edad ya que esta
variable puede asumir valores continuos: 1, 2, 3,20, 21,60,61

Un atributo esencial de una variable continua es que, a diferencia de lo


que ocurre con una variable discreta, nunca se la puede medir exactamente.
Con una variable continua debe haber inevitablemente un error de medida.

Un importante principio sobre variables continuas es que siempre se


registran en forma discreta, quedando la magnitud de la distancia entre valores
registrables adyacentes determinada por la precisin de la medicin.

POBLACIN Y MUESTRA.

Poblacin: No es ms que aquel conjunto de individuos o elementos


que le podemos observar, medir una caracterstica o atributo que puedan ser
objeto del estudio estadstico.

Una poblacin est determinada por sus caractersticas definitorias. Por


lo tanto, el conjunto de elementos que posea esta caracterstica se denomina
poblacin o universo. Poblacin es la totalidad del fenmeno a estudiar, donde
las unidades de poblacin poseen una caracterstica comn, la que se estudia
y da origen a los datos de la investigacin.
Entonces, una poblacin es el conjunto de todas las cosas que
concuerdan con una serie determinada de especificaciones. Un censo, por
ejemplo, es el recuento de todos los elementos de una poblacin.

Otros ejemplos de poblacin:

El conjunto formado por todos los estudiantes universitarios en


Venezuela.
El conjunto de todos los estudiantes de una Universidad.
El conjunto de personas fumadoras de una regin.

Son caractersticas medibles u observables de cada elemento por


ejemplo, su estatura, su peso, edad, sexo, etc.

Supongamos que nos interesa conocer el peso promedio de la poblacin


formada por los estudiantes de una universidad. Si la universidad tiene 5376
alumnos, bastara pesar cada estudiante, sumar los 5376 pesajes y dividirlo por
5376. Pero este proceso puede presenta dificultades dentro de las que
podemos mencionar:

Localizar y pesar con precisin cada estudiante:


Escribir todos los datos sin equivocaciones en una lista:
Efectuar los clculos.

Las poblaciones pueden ser finitas e infinitas. Las dificultades son


mayores si en nmero de elementos de la poblacin es infinito, si los elementos
se destruyen, si sufren daos al ser medidos o estn muy dispersos, si el costo
para realizar el trabajo es muy costoso.

Es de fundamental importancia comenzar el estudio definiendo la


poblacin a estudiar.

Las poblaciones suelen ser muy numerosas, por lo que es difcil estudiar
a todos sus miembros; adems de que esto no es posible, no es necesario. Es
como si se quisiera estudiar la composicin qumica del agua de un ro y para
ello se intentar analizar toda el agua que corre por su cauce, cuando
solamente se puede tomar unas muestras para realizar ese estudio y llegar a
conclusiones generalizables con respecto a la composicin qumica del agua a
todo el ro.

Muestra: Es cuando se seleccionan algunos elementos con la intencin


de averiguar algo sobre una poblacin determinada, se basa en medir solo una
parte de la poblacin. Cuando no es posible medir cada uno de los individuos
de una poblacin, se toma una muestra representativa de la misma y se toma
el peso medio en la muestra como una aproximacin del verdadero valor del
peso medio de la poblacin.. Por supuesto, se espera a travs del estudio que
lo que se averige en la muestra sea cierto para la poblacin en su conjunto.
El tamao de la poblacin es la cantidad de elementos de esta y el
tamao de la muestra es la cantidad de elementos de la muestra.

Los datos obtenidos de una poblacin pueden contener toda la


informacin que se desee de ella. De lo que se trata es de extraerle esa
informacin a la muestra, es decir a los datos mustrales sacarle toda la
informacin de la poblacin.

La muestra debe obtener toda la informacin deseada para tener la


posibilidad de extraerla, esto slo se puede lograr con una buena seleccin de
la muestra y un trabajo muy cuidadosos y de alta calidad en la recogida de los
datos.

Es bueno sealar que en un momento una poblacin puede ser muestra


en una investigacin y una muestra puede ser poblacin, esto esta dado por el
objetivo del investigacin, por ejemplo en el caso de determinar la estatura
media de los estudiantes universitarios en Venezuela una muestra poda ser
escoger algunas universidades del pas y realizar el trabajo, si por el contrario
se quiere saber la estatura promedio de los estudiantes de una universidad en
especifico en Venezuela, entonces el conjunto formado por todos los
estudiantes de esta universidad sera la poblacin y la muestra estara dada
por los grupos, carreras o aos seleccionado para realzar el experimento.

1 Mtodo de seleccin de la muestra: Un procedimiento de extraer una


muestra aleatoria de una poblacin finita es el de enumerar todos los
elementos que conforman la poblacin, escribir esos nmeros en bolas o
papelitos echarlos en un bombo o bolsa mezclarlos bien removindolos y sacar
uno a uno tantos como lo indique el tamao de la muestra. En este caso los
elementos de la muestra lo constituirn los elementos de la poblacin cuyos
nmeros coincidan con los extrados de la bolsa o bombo.

Otro procedimiento para obtener una muestra de una poblacin ya sea el


muestreo con remplazo o sin reemplazo es mediante la utilizacin de la tabla
de nmeros aleatorios pero solamente para poblaciones finitas, la utilizacin de
estas tablas puede realizarse de diferentes modos pero en el presente trabajo
solo expondremos el que consideramos mas eficiente ya que no se necesita de
la bsqueda de una gran cantidad innecesaria de nmeros aleatorios en la
tabla, el cual ser ejemplificado.

Existen diferentes tablas de nmeros aleatorios, utilizando como


referencia la tabla de M. G. Kendall y B. Babington Smith, la misma est
constituida por 4 bloques de 1000 nmeros aleatorios dispuestos en 25 filas y
40 columnas.

Veamos como se procede para la utilizacin de la tabla. Consideremos


que se desea extraer de una poblacin de tamao N una muestra de tamao n
se selecciona el bloque, la fila y la columna de la tabla que se va a comenzar, a
partir de esta seleccin (que la hace el muestrista) se toman tantas columnas
como dgitos tiene N.
Comenzando por el primer nmero de las columnas seleccionadas se
irn incluyendo en la muestra aquellos individuos que en la lista de la poblacin
( ya sea de forma horizontal o vertical) ocupa la posicin de los n nmeros de
las columnas seleccionadas que resultan menores que N, en los caso que al
seleccionar un nmero en la tabla de nmeros aleatorios sea mayor que N se
divide este por N y el resto de la divisin que ser un nmero entre 0 y N-1 ser
la posicin del individuo a seleccionar tomando el convenio de que el resto 0
corresponde a la posicin N. Para la aplicacin de este procedimiento requiere
que se fije previamente el mayor mltiplo de N que se considerar, para as
garantizar que todos los restos desde 0 a N -1 tengan la misma probabilidad de
ser seleccionados, por ejemplo si N = 150 y tomando 3 columnas se
consideraran slo aquellos nmeros menores o iguales que 900, los nmeros
mayores que 900 no sern analizados en la seleccin de la muestra.

VARIANZA

En teora de probabilidad y estadstica, la varianza es una medida de la


dispersin de una variable aleatoria respecto a su esperanza . Se
define como la esperanza de la transformacin : esto es,

Est relacionada con la desviacin estndar o desviacin tpica, que se


suele denotar por la letra griega (sigma) y que es la raz cuadrada de la
varianza,

o bien

Es el estadstico de dispersin que mide el grado de variabilidad que


sintetiza el grado de homogeneidad o heterogeneidad de las diferencias
individuales entre los casos de una muestra (o de varias muestras) respecto de
una o varias variables numricas continuas o cuantitativas.

En teora de probabilidad y estadstica la varianza es un estimador de la


divergencia de una variable aleatoria x de su valor esperado E[x]. Tambin se
utilizan la desviacin estndar, la raz de la varianza.

Distinguimos dos smbolos para identificar la varianza: S2 para datos


muestrales, y 2 para datos poblacionales. Note que la frmula para la varianza
muestral presenta en su denominador al tamao de la muestra menos uno,
tendencia adoptada por los estadsticos para denotar una varianza ms
conservadora.
Al igual que ocurre con la desviacin media, podemos definir las frmulas para
datos agrupados en tablas tipo A y tipo B. Para las tablas tipo A tenemos:
Una advertencia en el uso de esta medida, es que al elevar las distancias al
cuadrado, automticamente se elevan las unidades. Por ejemplo, si unidad
trabajada en los datos es centmetros, la varianza da como resultados
centmetros al cuadrado.

VARIANZA MUESTRAL.

Dentro de la estadstica descriptiva, la varianza muestral se utiliza como


medida de dispersin, cuya definicin es:

Operando la ecuacin la varianza muestral se puede expresar como:

Tambin se expresa como la diferencia entre el momento de orden 2 y el


cuadrado del valor esperado:

Otra medida de dispersin similar, pero con la propiedad de insesgadez,


es la cuasi-varianza muestral:

Operando la ecuacin la cuasi varianza muestral se puede expresar


como:

Mientras que la desviacin estndar se puede interpretar como el


promedio de la distancia de cada punto respecto del promedio y est medida
en las mismas unidades que la variable, la varianza est medida en "unidades
al cuadrado".

PROPIEDADES DE LA VARIANZA.

Algunas propiedades de la varianza son:

, propiedad que permite que la definicin de desviacin


tpica sea consistente.

Siendo a y b constantes cualesquiera. De esta


ltima propiedad es fcil ver que la varianza de una constante es cero. i.e.
, que se conoce como frmula
computacional para el clculo de la varianza.

MEDIA

En matemticas y estadstica una media o promedio es una medida de


tendencia central que resulta al efectuar una serie determinada de operaciones
con un conjunto de nmeros y que, en determinadas condiciones, puede
representar por s solo a todo el conjunto. Existen distintos tipos de medias,
tales como la media geomtrica, la media ponderada y la media armnica
aunque en el lenguaje comn, el trmino se refiere generalmente a la media
aritmtica.

En realidad hay muchas clases de promedios y sta se la llama media


aritmtica para denotar la suma de un grupo de observaciones dividida por su
nmero.

Clculo de la media aritmtica

La media aritmtica de un conjunto de datos se obtiene:

1.o Dividiendo la suma de los datos por el nmero total de ellos.

2.o Si los datos vienen en una tabla con sus frecuencias absolutas fi, se
multiplica cada dato xi por su frecuencia y se suman los resultados obtenidos.
Este resultado se divide por el nmero total de datos N.

x = x 1 f 1 + x 2 f 2 + x 3 f 3 + ... + x n f n N = i = 1 n ( x i f i ) N

MEDIANA

En Estadstica, una mediana es el valor de la variable que deja el mismo


nmero de datos antes y despus que l, una vez ordenados estos. De
acuerdo con esta definicin el conjunto de datos menores o iguales que la
mediana representarn el 50% de los datos, y los que sean mayores que la
mediana representarn el otro 50% del total de datos de la muestra.

Existen 2 estrategias para calcular la mediana: Considerando los datos


tal cual, sin agruparlos, o bien cuando los tenemos agrupados en intervalos de
clase. Veamos cada una de ellas.
Datos sin agrupar:

Considerando los datos de una muestra ordenada en


orden creciente y designando la mediana como Me, distinguimos dos casos:

a) Si n es impar, la mediana es el valor que ocupa la posicin una


vez que los datos han sido ordenados (en orden creciente o decreciente),
porque ste es el valor central. Es decir: .

Por ejemplo, si tenemos 5 datos, que ordenados son: x1 = 3, x2 = 6, x3 =


7, x4 = 8, x5 = 9 => El valor central es el tercero: . Este valor
deja dos datos por debajo (x1, x2) y otros dos por encima de l (x4, x5).

b) Si n es par, la mediana es la media aritmtica de las dos


observaciones centrales. Cuando n es par, los dos datos que estn en el centro

de la muestra ocupan las posiciones y . Es decir: .

Por ejemplo, si tenemos 6 datos, que ordenados son: x1 = 3, x2 = 6, x3 =


7, x4 = 8, x5 = 9, x6 = 10 => Hay dos valores que estn por debajo del
y otros dos que quedan por encima del siguiente dato
. Por tanto, cabe considerar la mediana como la media

aritmtica de estos dos datos: .

Datos agrupados:

Al tratar con datos agrupados, si coincide con el valor de una


frecuencia acumulada, el valor de la mediana coincidir con la abscisa
correspondiente. Si no coincide con el valor de ninguna abscisa, se calcula a
travs de semejanza de tringulos en el histograma o polgono de frecuencias
acumuladas, utilizando la siguiente equivalencia:

Dnde Ni y Ni 1 son las frecuencias absolutas tales que

, ai 1 y ai son los extremos, inferior y superior, del intervalo


donde se alcanza la mediana y Me = ai 1 es la abscisa a calcular, la moda. Se
observa que ai ai 1 es la amplitud de los intervalos seleccionados para el
diagrama.

HISTOGRAMA.
En estadstica, un histograma es una representacin grfica de una
variable en forma de barras, donde la superficie de cada barra es proporcional
a la frecuencia de los valores representados. En el eje vertical se representan
las frecuencias, y en el eje horizontal los valores de las variables, normalmente
sealando las marcas de clase, es decir, la mitad del intervalo en el que estn
agrupados los datos.

Se utiliza cuando se estudia una variable continua, como franjas de


edades o altura de la muestra, y, por comodidad, sus valores se agrupan en
clases, es decir, valores continuos.

En los casos en los que los datos son cualitativos (no-numricos), como
sexto grado de acuerdo o nivel de estudios, es preferible un diagrama de
sectores.

Los histogramas son ms frecuentes en ciencias sociales, humanas y


econmicas que en ciencias naturales y exactas. Y permite la comparacin de
los resultados de un proceso.

TIPOS DE HISTOGRAMA.

Diagramas de barras simples: Representa la frecuencia simple (absoluta


o relativa) mediante la altura de la barra la cual es proporcional a la frecuencia
simple de la categora que representa.

Diagramas de barras compuesta: Se usa para representar la informacin


de una tabla de doble entrada o sea a partir de dos variables, las cuales se
representan as; la altura de la barra representa la frecuencia simple de las
modalidades o categoras de la variable y esta altura es proporcional a la
frecuencia simple de cada modalidad.

Diagramas de barras agrupadas: Se usa para representar la informacin


de una tabla de doble entrada o sea a partir de dos variables, el cual es
representado mediante un conjunto de barras como se clasifican respecto a las
diferentes modalidades.

Polgono de frecuencias: Es un grfico de lneas que se usa para


presentar las frecuencias absolutas de los valores de una distribucin en el cual
la altura del punto asociado a un valor de las variables es proporcional a la
frecuencia de dicho valor.

Ojiva porcentual: Es un grfico acumulativo, el cual es muy til cuando


se quiere representar el rango porcentual de cada valor en una distribucin de
frecuencias.

En los grficos las barras se encuentran juntas y en la tabla los nmeros


poseen en el primer miembro un corchete y en el segundo un parntesis, por
ejemplo: (10-20]
Se agrupan los datos en clases, y se cuenta cuntas observaciones
(frecuencia absoluta) hay en cada una de ellas. En algunas variables (variables
cualitativas) las clases estn definidas de modo natural, p.e sexo con dos
clases: mujer, varn o grupo sanguneo con cuatro: A, B, AB, O. En las
variables cuantitativas, las clases hay que definirlas explcitamente (intervalos
de clase).

Se
representan
los
intervalos de
clase en el
eje de
abscisas
(eje
horizontal) y
las
frecuencias,
absolutas o
relativas, en
el de
ordenadas
(eje vertical).

A veces es
ms til
representar
las
frecuencias
acumuladas
.
O representar
simultneamen
te los
histogramas de
una variable en
dos situaciones
distintas.

Otra forma
muy
frecuente,
de
representar
dos
histograma
s de la
misma
variable en
dos
situaciones
distintas.
Otra ms

En las
variables
cuantitativa
s o en las
cualitativas
ordinales se
pueden
representar
polgonos
de
frecuencia
en lugar de
histogramas
, cuando se
representa
la
frecuencia
acumulativa
, se
denomina
ojiva.

CONSTRUCCIN DE UN HISTOGRAMA

Paso 1: Determinar el rango de los datos. Rango es igual al dato mayor


menos el dato menor.

Paso 2: Obtener el nmeros de clases, existen varios criterios para


determinar el nmero de clases (o barras) -por ejemplo la regla de Sturgess-.
Sin embargo ninguno de ellos es exacto. Algunos autores recomiendan de
cinco a quince clases, dependiendo de cmo estn los datos y cuntos sean.
Un criterio usado frecuentemente es que el nmero de clases debe ser
aproximadamente a la raz cuadrada del nmero de datos. Por ejemplo, la raz
cuadrada de 30 (nmero de artculos) es mayor que cinco, por lo que se
seleccionan seis clases.
Paso 3: Establecer la longitud de clase: es igual al rango entre el nmero
de clases.

Paso 4: Construir los intervalos de clases: Los intervalos resultan de


dividir el rango de los datos en relacin al resultado del PASO 2 en intervalos
iguales.

Paso 5: Graficar el histograma: En caso de que las clases sean todas de


la misma amplitud, se hace un grfico de barras, las bases de las barras son
los intervalos de clases y altura son la frecuencia de las clases. Si se unen los
puntos medios de la base superior de los rectngulos se obtiene el polgono de
frecuencias.

POLGONO DE FRECUENCIA

Un polgono de frecuencia es un grfico que se realiza a travs de la


unin de los puntos ms altos de las columnas en un histograma de frecuencia
(que utiliza columnas verticales para mostrar las frecuencias).

Los polgonos de frecuencias para datos agrupados, por su parte, se


construyen a partir de la marca de clase que coincide con el punto medio de
cada columna del histograma de frecuencias acumuladas, que permite
diagramar su correspondiente polgono.

Por ejemplo: un polgono de frecuencia permite reflejar las temperaturas


mximas promedio de un pas en un perodo de tiempo. En el eje X
(horizontal), pueden sealarse los meses del ao (enero, febrero, marzo, abril,
etc.). En el eje Y (vertical), se indican las temperaturas mximas promedio de
cada mes (24,25,21). El polgono de frecuencia se crea al unir con
segmento, todas las temperaturas mximas promedio.

Los polgonos de frecuencia se suelen utilizar cuando se desea mostrar


ms de una distribucin o la clasificacin cruzada de una variable cuantitativa
continua con una cualitativa o cuantitativa discreta en un mismo grfico.

El punto con mayor altura de un polgono de un polgono de frecuencia


representa la mayor frecuencia mientras que el rea bajo la curva incluye la
totalidad de los datos existentes. Cabe recordar que la frecuencia es la
repeticin menor o mayor de un suceso, o la cantidad de veces que un proceso
peridico se repite por unidad de tiempo.

Caractersticas de los polgonos de frecuencias:

No muestran frecuencias acumuladas.


Se prefiere para el tratamiento de datos cuantitativos.
El punto con mayor altura representa la mayor frecuencia.
Suelen utilizarse para representar tablas tipo B.
El rea bajo la curva representa el 100% de los datos. El polgono de
frecuencia esta diseado para mantener la misma rea de las columnas.
Analicemos una porcin de nuestro grfico para probar esta afirmacin:
Observe que cada lnea corta una porcin de la columna, pero a su vez,
agrega una porcin adicional. Ambas porciones son iguales (triangulo
rectngulos iguales), manteniendo el rea global en el grfico.

DISTRIBUCION DE PROBABILIDAD

PROBABILIDAD

Sea un experimento y S un espacio muestral asociado con . Con cada


evento A asociamos un nmero real, designado con P(A) y llamado
probabilidad de A, el cual satisface las siguientes propiedades:

1) 0P(A)1
2) P(s)=1
3) Si A y B son eventos que se excluyen mutuamente, P( AB)= P(A) +
P(B)
4) Si A1, A2,,An, son eventos que se excluyen mutuamente de par
en par entonces:

P( Ai)= P(A1)+P(A2)+.+ P(An)+...


I=1

Observemos que de la propiedad 3 se deduce de inmediato que para


cualquier n finita

n n
P ( Ai)= P(Ai)
i=1 i=1

La propiedad 4 no se sigue; sin embargo, cuando consideramos el


espacio muestral idealizado, esta condicin ser necesaria y por tanto, se
incluye aqu.

La eleccin de estas propiedades de la probabilidad est obviamente


motivada por las caractersticas correspondientes de la frecuencia relativa. La
propiedad antes mencionada como regularidad estadstica, ms tarde se ligara
con esta definicin de probabilidad. Por el momento solo demostraremos que
los valores de P(A) y fA estn prximos uno al otro (en cierto sentido), si fA
se basa en un gran nmero de repeticiones. Este hecho es el que justifica el
empleo de P(A) para medir la probabilidad de que A ocurra.

Por el momento no sabemos como calcular P(A). Solo hemos anotado


algunas propiedades generales que posee P(A).

La probabilidad mide la frecuencia con la que se obtiene un resultado (o


conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se
conocen todos los resultados posibles, bajo condiciones suficientemente
estables.
La teora de la probabilidad se usa extensamente en reas como la
estadstica, la fsica, la matemtica, la ciencia y la filosofa para sacar
conclusiones sobre la probabilidad de sucesos potenciales y la mecnica
subyacente de sistemas complejos.

El estudio cientfico de la probabilidad es un desarrollo moderno. Los


juegos de azar muestran que ha habido un inters en cuantificar las ideas de la
probabilidad durante milenios, pero las descripciones matemticas exactas de
utilidad en estos problemas slo surgieron mucho despus.

Segn Richard Jeffrey, "Antes de la mitad del siglo XVII, el trmino


'probable' (en latn probable) significaba a probable, y se aplicaba en ese
sentido, unvocamente, a la opinin y a la accin. Una accin u opinin
probable era una que las personas sensatas emprenderan o mantendran, en
las circunstancias."

Aparte de algunas consideraciones elementales hechas por Girolamo


Cardano en el siglo XVI, la doctrina de las probabilidades data de la
correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christian
Huygens (1657) le dio el tratamiento cientfico conocido ms temprano al
concepto. Ars Conjectandi (pstumo, 1713) de Jakob Bernoulli y Doctrine of
Chances (1718) de Abraham de Moivre trataron el tema como una rama de las
matemticas. Vase El surgimiento de la probabilidad (The Emergence of
Probability) de Ian Hacking para una historia de los inicios del desarrollo del
propio concepto de probabilidad matemtica.

La teora de errores puede trazarse atrs en el tiempo hasta Opera


Miscellanea (pstumo, 1722) de Roger Cotes, pero una memoria preparada por
Thomas Simpson en 1755 (impresa en 1756) aplic por primera vez la teora
para la discusin de errores de observacin. La reimpresin (1757) de esta
memoria expone los axiomas de que los errores positivos y negativos son
igualmente probables, y que hay ciertos lmites asignables dentro de los cuales
se supone que caen todos los errores; se discuten los errores continuos y se da
una curva de la probabilidad.

Pierre-Simon Laplace (1774) hizo el primer intento para deducir una


regla para la combinacin de observaciones a partir de los principios de la
teora de las probabilidades. Represent la ley de la probabilidad de error con
una curva y = (x), siendo x cualquier error e y su probabilidad, y expuso tres
propiedades de esta curva:

1. Es simtrica al eje y;
2. El eje x es una asntota, siendo la probabilidad del error igual a 0;
3. La superficie cerrada es 1, haciendo cierta la existencia de un error.

Dedujo una frmula para la media de tres observaciones. Tambin


obtuvo (1781) una frmula para la ley de facilidad de error (un trmino debido a
Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel
Bernoulli (1778) introdujo el principio del mximo producto de las
probabilidades de un sistema de errores concurrentes.

El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre


(1805), que lo introdujo en su Noveles mtodos por la determinacin des
orbites des comtes (Nuevos mtodos para la determinacin de las rbitas de
los cometas). Ignorando la contribucin de Legendre, un escritor irlands
estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por
primera vez la ley de facilidad de error,

Siendo c y h constantes que dependen de la precisin de la observacin.


Expuso dos demostraciones, siendo la segunda esencialmente la misma de
John Herschel (1850). Gauss expuso la primera demostracin que parece que
se conoci en Europa (la tercera despus de la de Adrain) en 1809.
Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss
(1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F.
Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que
contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y
Giovanni Schiaparelli (1875). La frmula de Peters (1856) para r, el error
probable de una nica observacin, es bien conocida.

En el siglo XIX, los autores de la teora general incluan a Laplace,


Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard
Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y
Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposicin de
la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad
utilizando teora de la medida.

En la parte geomtrica (vase geometra integral) los colaboradores de


The Educational Times fueron influyentes (Miller, Crofton, McColl,
Wolstenholme, Watson y Artemas Martin).

TEORA DE LA PROBABILIDAD

La probabilidad constituye un importante parmetro en la determinacin


de las diversas causalidades obtenidas tras una serie de eventos esperados
dentro de un rango estadstico.

Existen diversas formas como mtodo abstracto, como la teora


Dempster-Shafer y la teora de la relatividad numrica, esta ltima con un alto
grado de aceptacin si se toma en cuenta que disminuye considerablemente
las posibilidades hasta un nivel mnimo ya que somete a todas las antiguas
reglas a una simple ley de relatividad. As mismo es la parte de ley.
Aplicaciones
Dos aplicaciones principales de la teora de la probabilidad en el da a
da son en el anlisis de riesgo y en el comercio de los mercados de materias
primas. Los gobiernos normalmente aplican mtodos probabilsticos en
regulacin ambiental donde se les llama "anlisis de vas de dispersin", y a
menudo miden el bienestar usando mtodos que son estocsticos por
naturaleza, y escogen qu proyectos emprender basndose en anlisis
estadsticos de su probable efecto en la poblacin como un conjunto. No es
correcto decir que la estadstica est incluida en el propio modelado, ya que
tpicamente los anlisis de riesgo son para una nica vez y por lo tanto
requieren ms modelos de probabilidad fundamentales, por ej. "la probabilidad
de otro 11-S". Una ley de nmeros pequeos tiende a aplicarse a todas
aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace
de las medidas probabilsticas un tema poltico.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier


conflicto generalizado sobre los precios del petrleo en Oriente Medio - que
producen un efecto domin en la economa en conjunto. Un clculo por un
mercado de materias primas en que la guerra es ms probable en contra de
menos probable probablemente enva los precios hacia arriba o hacia abajo e
indica a otros comerciantes esa opinin. Por consiguiente, las probabilidades
no se calculan independientemente y tampoco son necesariamente muy
racionales. La teora de las finanzas conductuales surgi para describir el
efecto de este pensamiento de grupo en el precio, en la poltica, y en la paz y
en los conflictos.

Se puede decir razonablemente que el descubrimiento de mtodos


rigurosos para calcular y combinar los clculos de probabilidad ha tenido un
profundo efecto en la sociedad moderna. Por consiguiente, puede ser de
alguna importancia para la mayora de los ciudadanos entender cmo se
calculan los pronsticos y las probabilidades, y cmo contribuyen a la
reputacin y a las decisiones, especialmente en una democracia.

Otra aplicacin significativa de la teora de la probabilidad en el da a da


es en la fiabilidad. Muchos bienes de consumo, como los automviles y la
electrnica de consumo, utilizan la teora de la fiabilidad en el diseo del
producto para reducir la probabilidad de avera. La probabilidad de avera
tambin est estrechamente relacionada con la garanta del producto.

Se puede decir que no existe una cosa llamada probabilidad. Tambin


se puede decir que la probabilidad es la medida de nuestro grado de
incertidumbre, o esto es, el grado de nuestra ignorancia dada una situacin.
Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la
primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno
mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o
0%, y la eleccin correcta puede ser hecha con precisin por el que ve la carta.
La fsica moderna proporciona ejemplos importantes de situaciones
determinanticas donde slo la descripcin probabilstica es factible debido a
informacin incompleta y la complejidad de un sistema as como ejemplos de
fenmenos realmente aleatorios.

En un universo determinista, basado en los conceptos newtonianos, no


hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta,
si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el
nmero donde la bola parar ser seguro. Naturalmente, esto tambin supone
el conocimiento de la inercia y la friccin de la ruleta, el peso, lisura y redondez
de la bola, las variaciones en la velocidad de la mano durante el movimiento y
as sucesivamente. Una descripcin probabilstica puede entonces ser ms
prctica que la mecnica newtoniana para analizar el modelo de las salidas de
lanzamientos repetidos de la ruleta. Los fsicos se encuentran con la misma
situacin en la teora cintica de los gases, donde el sistema determinantico en
principio, es tan complejo (con el nmero de molculas tpicamente del orden
de magnitud de la constante de Avogadro ) que slo la descripcin
estadstica de sus propiedades es viable.

La mecnica cuntica, debido al principio de indeterminacin de


Heisenberg, slo puede ser descrita actualmente a travs de distribuciones de
probabilidad, lo que le da una gran importancia a las descripciones
probabilsticas. Algunos cientficos hablan de la expulsin del paraso. [cita requerida]
Otros no se conforman con la prdida del determinismo. Albert Einstein
coment estupendamente en una carta a Max Born: Jedenfalls bin ich
berzeugt, da der Alte nicht wrfelt. (Estoy convencido de que Dios no tira el
dado). No obstante hoy en da no existe un medio mejor para describir la fsica
cuntica si no es a travs de la teora de la probabilidad. Mucha gente hoy en
da confunde el hecho de que la mecnica cuntica se describe a travs de
distribuciones de probabilidad con la suposicin de que es por ello un proceso
aleatorio, cuando la mecnica cuntica es probabilstica no por el hecho de que
siga procesos aleatorios sino por el hecho de no poder determinar con
precisin sus parmetros fundamentales, lo que imposibilita la creacin de un
sistema de ecuaciones determinista.

Clculo
Calcular la probabilidad es posible, utilizando un diagrama de rbol, o
tablas y grficas

Ejemplos:

Ejemplo N 1:

La vida media de una lmpara, segn el fabricante, es de 68 meses, con


una desviacin tpica de 5. Se supone que se distribuye segn una distribucin
normal En un lote de 10.000 lmparas. a) Cuntas lmparas superarn
previsiblemente los 75 meses?. b) Cuntos lmparas se estropearn antes de
60 meses?

a) t = (75 -68)/5 = 1,4


P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808

Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses

b) t = (60 -68)/5 = -1,6

P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548

Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60


meses

Ejemplo N2

Una empresa instala en una ciudad 20.000 bombillas para su


iluminacin. La duracin de una bombilla sigue una distribucin normal con
media 302 das y desviacin tpica 40 das. Calcular. a) Cuntas bombillas es
de esperar que se fundan antes de 365 das? Cuntas durarn ms de 400
das? Explica razonadamente las respuestas.

a) Tipificamos el valor 365 t = (365 -302)/40 = 1,575

P (X 365) = P (t 1575 ) = 0,9418

Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836


bombillas se fundirn antes de 365 das

b) Tipificamos el valor 400 t = (400-302)/40 = 2,45

P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071

Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142


bombillas durarn ms de 400 das.

Ejemplo N3

Hallar la probabilidad de que al lanzar al aire dos monedas, salgan:

1) Dos caras.
2) Dos cruces.

3) Dos caras y una cruz.

Ejemplo N4:
Hallar la probabilidad de que al levantar unas fichas de domin se
obtenga un nmero de puntos mayor que 9 o que sea mltiplo de 4.

Ejemplo N5:

Un dado est trucado, de forma que las probabilidades de obtener las


distintas caras son proporcionales a los nmeros de estas. Hallar:

1) La probabilidad de obtener el 6 en un lanzamiento.

2) La probabilidad de conseguir un nmero impar en un lanzamiento.

Ejemplo N6:

Se lanzan dos dados al aire y se anota la suma de los puntos obtenidos.


Se pide:

1) La probabilidad de que salga el 7.


2) La probabilidad de que el nmero obtenido sea par.

3) La probabilidad de que el nmero obtenido sea mltiplo de tres.

Variables aleatorias continuas

Supongamos que el recorrido de X est formado por un gran nmero


finito de valores, por ejemplo, todos los valores x en el intervalo 0x1 de la
forma 0,0.01, 0.02,,0.98, 0.99, 1.00. Con cada uno de esos valores est
asociado un nmero no negativo p (xi)=P(X=xi), i=1,2,, cuya suma es igual a
1. Esta situacin se representa geomtricamente en la figura.

P(x)

x
Matemticamente podra ser ms fcil idealizar la anterior descripcin
probabilstica de X al suponer que X puede tomar todos los valores posibles,
0x1. Si hacemos esto, Qu le sucede a las probabilidades puntuales p(xi)?.
Puesto que los valores posibles de x no son contables, en realidad no podemos
hablar del i-simo valor de X y, por lo tanto, p(xi) pierde significado.

Lo que haremos es sustituir la funcin p, definida solo para x1, x2,,por


una funcin f definida (en el contexto presente) para todos los valores de x,
0x1. Las propiedades de la ecuacin:
p(xi) = 1

i=1
1
se sustituirn por f(x) 0 y f(x) dx =1. Se procede formalmente como sigue.
0

Definicin: Se dice que X es una variable aleatoria continua, si existe


una funcin f, llamada funcin de densidad de probabilidad (fdp) de X, que
satisface las siguientes condiciones:

a) f(x) 0 para toda x,

+
b) f(x) dx = 1.
-

b
c) Para cualquiera b, tal que -< a <b <+, tenemos P(a X b) =
f(x) dx
a
Observaciones:

a) Fundamentalmente queremos decir que X es una variable aleatoria


continua si X puede tomar todos los valores en algn intervalo (c,d),
donde c y d pueden ser - y + respectivamente. La existencia
estipulada de una fdp es un mtodo matemtico que tiene una base
intuitiva considerable y hace ms sencillo nuestros clculos. En relacin
con esto, de nuevo se debe sealar que cuando suponemos que X es
una variable aleatoria continua, estamos considerando la descripcin
idealizada de X.

b) P(c < X < d) representa el rea bajo la grfica de la figura de la fdp f


entre x = c y z = d.

F(x)

x
x=c z=d
c) Una consecuencia de la descripcin probabilstica de X para cualquier
valor especfico de X, por ejemplo xo, es que tenemos P(X=xo)= 0, puesto
que
xo
P(X=xo) = f(x)dx = 0.
xo

Este resultado puede parecer contrario a nuestra intuicin. Debemos


establecer, sin embargo, que si permitimos que X tome todos los valores en un
intervalo, entonces la probabilidad cero no es equivalente con la imposibilidad.
Por lo tanto e el cas continuo, P(A)= no implica A= el conjunto vaco.
Para decirlo de un modo ms informal, consideremos que elegimos un punto al
azar en el segmento {x | 0 x 2}

Aunque quisiramos estar de acuerdo (para fines matemticos) con que


cada punto concebible del segmento pudiera ser el resultado de nuestro
experimento, nos sorprenderamos mucho si en realidad escogiramos el punto
medio del segmento, o cualquier otro punto especfico de ese elemento.
Cuando indicamos esto en un lenguaje matemtico preciso, decimos que el
evento tiene probabilidad 0. En vista de estas consideraciones, todas las
siguientes probabilidades son iguales si X es una variable aleatoria continua:

P(c < X < d), P(c < X < d), P(c < X < d), y P(c < X < d)

d) Aunque aqu no verificaremos los detalles, se puede demostrar que la


anterior asignacin de probabilidades a los eventos en Rx satisface los
axiomas bsicos de probabilidades, donde podemos tomar:
x| - <x<+ como el espacio muestra.
+
e) Si una funcin f* satisface las condiciones, f*(x) 0, para toda x, y
f*(x) dx=K, donde K es un nmero positivo
real (no necesariamente igual a 1), entonces f* no satisface todas las
condiciones para ser una fdp. Sin amargo, podemos definir con facilidad una
nueva funcin, digamos f, en donde trminos de f* como sigue:

f*(x)
f(z)= para toda x
K

Por tanto, f satisface todas las condiciones de una fdp.

f) Si X slo toma valores en un intervalo finito [a, b], simplemente


podemos establecer f(x)=0 para todo x [a, b]. Por tanto, la fdp est definida
para todos los valores reales de x, y debemos exigir que:

Cuando quiera que la fdp se especifique slo para ciertos valores de x,


supondremos que es cero para cualquier otro.
g) f(x) no representa la probabilidad de nada. Hemos observado que por
ejemplo, P(X=2)=0 y, por tanto, f(2) ciertamente no representa esta
probabilidad. Slo cuando la funcin se integra entre dos lmites produce una
probabilidad. Sin embargo, podemos dar una interpretacin de f(x) x como
sigue. Del teorema del valor medio del clculo se deduce que:

x+ x
P (x X x + x) = f(s)ds= x f( x x + x
x

Si x es pequea, f(x) x es aproximadamente igual a P(x X x+


x). ( Si f es continua por la derecha, esta aproximacin llega a ser ms segura
cuando x 0.)

h) Deberamos sealar de nueva cuenta que la distribucin de


probabilidades ( en este caso la fdp es inducida en Rx por las probabilidades
asociadas con eventos en S. As cuando escribimos P(c< X< d), queremos
decir, como siempre, P[c< X(s)<d], que a su vez es igual a P[s | < X(s) <d],
puesto que estos eventos son equivalentes, la definicin anterior, estipula
esencialmente la existencia de una fdp f definida en una Rx tal que
d
P [s | c < X(s) < d] = f(x) dx
c

Nuevamente eliminaremos la naturaleza funcional de X, y por tanto,


estaremos interesados slo en Rx y la fdp f.

i) En este caso contino, otra vez podemos considerar la siguiente


analoga con la mecnica: supngase que tenemos una masa total de una
unidad, distribuida continuamente en el intervalo a x b. Entonces, f(x) la
densidad de la masa en el punto x y
d
f(x) dx representa la masa total contenida en el intervalo c < x < d.
c

Ejemplos:

Ejemplo N 1:

En el anlisis precedente sobre variable aleatoria continua se supuso la


existencia de una fdp. Consideremos un ejemplo simple en el cual podamos
determinar con facilidad la fdp haciendo una suposicin apropiada acerca de la
conducta probabilstica de la variable aleatoria. Supngase que escogemos un
punto en el intervalo (0,1). Representemos la variable aleatoria X cuyo valor es
la coordenada x del punto elegido.
Suposicin: Si I s cualquier intervalo entre (0,1), entonces la Prob [ X
es directamente proporcional a la longitud de I, por ejemplo, L(I). Esto
es,
Prob [X I]= kL(I), donde k es la constante de proporcionalidad. ( Es fcil ver,
tomando I=(0,1)y observando que L((0,1))=1 y Prob[X (0,1)]1, que k=1.)

Obviamente X toma todos los valores en (0,1), Cul es su fdp? Esto es,
Podemos encontrar una funcin f tal que:
b
P (a < X < b) = f(x) dx
a

Ntese que si a < b < 0 o 1 < a < b, P(a < X < b) =0 y,por tanto, f(x)=0.Si 0 < a
< b < 1, P(a< X < b)=b a y, por tanto, f(x)= 1. As encontramos:
1, 0< x < 1,
F(x) =
0, para cualquier otro valor.

F(x) F(x)
(1,2)

X
X=1500 X=2500

Ejemplo N 2:

Supngase que la variable aleatoria X es continua. Sea la fdp f dada por

F(x)= 2x, 0 < x < 1,


= 0 para cualquier otro valor.
+
Claramente, f(x) 0 y f(x)dx = 2x dx =1. Para calcular P( X), slo
debemos
-

evaluar la integral
(2x) dx=1/4
0

El concepto de probabilidad condicional se puede aplicar con propiedad a las


variables aleatorias. As en el ejemplo anterior debimos evaluar P(X<1/2|
X<2/3). Aplicando de manera directa la definicin de probabilidad individual,
tenemos:

P(X |1/3 X 2/3= P(1/3 X )

P(1/3 X 2/3)
1/2
2x dx
1/3 5/36 5
= = =
2/3 1/3 12
2x dx
1/3

Distribucin Normal
En estadstica y probabilidad se llama distribucin normal, distribucin de
Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de
variable continua que con ms frecuencia aparece en fenmenos reales.

La grfica de su funcin de densidad tiene una forma acampanada y es


simtrica respecto de un determinado parmetro. Esta curva se conoce como
campana de Gauss.La importancia de esta distribucin radica en que permite
modelizar numerosos fenmenos naturales, sociales y psicolgicos. Mientras
que los mecanismos que subyacen a gran parte de este tipo de fenmenos son
desconocidos, por la ingente cantidad de variables incontrolables que en ellos
intervienen, el uso del modelo normal puede justificarse asumiendo que cada
observacin se obtiene como la suma de unas pocas causas independientes.
La distribucin normal tambin es importante por su relacin con la
estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms
simples y antiguos.

Algunos ejemplos de variables asociadas a fenmenos naturales que


siguen el modelo de la normal son:

caracteres morfolgicos de individuos como la estatura;


caracteres fisiolgicos como el efecto de un frmaco;
caracteres sociolgicos como el consumo de cierto producto por un
mismo grupo de individuos;
caracteres psicolgicos como el cociente intelectual;
nivel de ruido en telecomunicaciones;
errores cometidos al medir ciertas magnitudes;
etc.

La distribucin normal tambin aparece en muchas reas de la propia


estadstica. Por ejemplo, la distribucin muestral de las medias muestrales es
aproximadamente normal, incluso si la distribucin de la poblacin de la cual se
extrae la muestra no es normal. Adems, la distribucin normal maximiza la
entropa entre todas las distribuciones con media y varianza conocidas, lo cual
la convierte en la eleccin natural de la distribucin subyacente a una lista de
datos resumidos en trminos de media muestral y varianza. La distribucin
normal es la ms extendida en estadstica y muchos tests estadsticos estn
basados en una supuesta "normalidad".
En probabilidad la distribucin normal aparece como el lmite de varias
distribuciones de probabilidad continuas y discretas.

Distribucin normal
Funcin de densidad de probabilidad

La lnea verde corresponde a la distribucin


normal estandar
Funcin de distribucin de probabilidad
Parmetros
>0
Dominio

Funcin de
densidad (pdf)

Funcin de
distribucin (cdf)

Media
Mediana
Moda
Varianza
Coeficiente de
0
simetra
Curtosis 0

Entropa

Funcin
generadora de
momentos (mgf)
Funcin
caracterstica
Ejemplos:

Ejemplo N1:
Supngase que X tiene distribucin N(3,4). Deseamos encontrar un nmero c
tal que:

P(X > c) = 2P (X < c)

Observemos que (X-3)/2 tiene distribucin normal N(0,1). Por tanto,

P( X > c) = P ( X-3 /2 > c-3 /2) = 1 - (c-3/2)

Tambin,

P( X < c)= P ( X-3/2 < c-3/2)= c-3/2)

Por tanto, la condicin anterior se puede escribir 1- c-3/2)] = 2 c-


3/2]. Esto se convierte en c-3)/2= -0.43, obteniendo c=2.14.

Ejemplo N2:
Supngase que la resistencia a romperse de un gnero de algodn (en libras),
llammosle X, est distribuida normalmente con E(X)=165 y V(X)=9.
Suponiendo adems que una muestra de este gnero se considera defectuosa
si X< 162, Cu es la probabilidad de que un gnero elegido al azar sea
defectuoso?

Debemos calcular P(X < 162). Sin embargo,

P(X <162)= P ( X-165/3 < 162-165/3)


=

Observacin:
Una objecin inmediata al uso de la distribucin normal puede encontrarse
aqu. Es obvio que X, la resistencia del genero de algodn , no puede tomar
valores negativos , mientras que una variable aleatoria distribuida normalmente
puede tomar todos los valores positivos y negativos. Sin embargo el modelo
anterior ( en apariencia invalidado debido a las objeciones encontradas) asigna
una probabilidad despreciable al evento {X<0}. Esto es,

P(X<0)= P( X-165/3< 0-165/3) = (-55) lo cual es aproximadamente 0.

Esta situacin ocurrir con frecuencia: se supone que cierta variable aleatoria
X, que sabemos no puede tomar valores negativos, tiene una distribucin
normal tomando as (tericamente, al menos) valores tanto positivos como
negativos. Mientras se escojan los parmetros y de modo que P(X<0)
sea esencialmente cero, tal representacin es perfectamente valida.

Ejemplo N3:

La vida media de una lmpara, segn el fabricante, es de 68 meses, con una


desviacin tpica de 5. Se supone que se distribuye segn una distribucin
normal En un lote de 10.000 lmparas. a) Cuntas lmparas superarn
previsiblemente los 75 meses?. b) Cuntos lmparas se estropearn antes de
60 meses?

a)

t = (75 -68)/5 = 1,4

P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808

Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses

b)

t = (60 -68)/5 = -1,6

P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548

Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60


meses

Ejemplo N4:

Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La


duracin de una bombilla sigue una distribucin normal con media 302 das y
desviacin tpica 40 das. Calcular. a) Cuntas bombillas es de esperar que se
fundan antes de 365 das? Cuntas durarn ms de 400 das? Explica
razonadamente las respuestas.

a)

Tipificamos el valor 365 t = (365 -302)/40 = 1,575

P (X 365) = P (t 1,575 ) = 0,9418

Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836 bombillas


se fundirn antes de 365 das

b)

Tipificamos el valor 400 t = (400-302)/40 = 2,45

P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071

Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142 bombillas


durarn ms de 400 das.

Distribucin Binomial
Definicin:
Consideremos un experimento sea A un evento asociado con
Supongamos que P(A)=p y, por lo tanto, P(A)= 1-p. Consideremos n
repeticiones independientes de Por lo tanto, el espacio muestral consiste
en todas las sucesiones posibles {a1,a2,,an}, donde cada ai es A o A, segn
A o A ocurra en la i-sima repeticin de (Hay 2 de tales sucesiones).
An ms, supongamos que P(A)=p es el mismo para todas las repeticiones.
Definamos la variable aleatoria X como sigue:
X=nmero de veces que ocurri el evento A. Llamamos a X una variable
binomial con los parmetros n y p. Sus valores posibles obviamente son 0, 1,
2,,n. ( Dcimos en forma equivalente que X tiene una distribucin binomial.)
Las repeticiones individuales de se llamarn ensayos de Bernoulli.

En estadstica, la distribucin binomial es una distribucin de probabilidad


discreta que mide el nmero de xitos en una secuencia de n ensayos
independientes de Bernoulli, con una probabilidad fija p de ocurrencia del xito
entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo
son posibles dos resultados. A uno de estos se denomina xito y tiene una
probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p.
En la distribucin binomial el anterior experimento se repite n veces, de forma
independiente, y se trata de calcular la probabilidad de un determinado nmero
de xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de
Bernoulli.
Para representar que una variable aleatoria X sigue una distribucin binomial
de parmetros n y p, se escribe:

La distribucin Binomial es la base del test binomial de significacin estadstica.

Caractersticas analticas
Su funcin de probabilidad est dada por:

donde

, siendo las combinaciones de en ( elementos


tomados de en )

Supongamos que un experimento aleatorio tiene las siguientes caractersticas:

En cada prueba del experimento slo son posibles dos


resultados: el suceso A (xito) y su contrario (fracaso).
El resultado obtenido en cada prueba es independiente de los
resultados obtenidos anteriormente.
La probabilidad del suceso A es constante, la representamos por
p, y no vara de una prueba a otra. La probabilidad de es 1-
p y la representamos por q .
El experimento consta de un nmero n de pruebas.

Todo experimento que tenga estas caractersticas diremos que sigue el modelo
de la distribucin Binomial. A la variable X que expresa el nmero de xitos
obtenidos en cada prueba del experimento, la llamaremos variable aleatoria
binomial.

La variable binomial es una variable aleatoria discreta, slo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como
hay que considerar todas las maneras posibles de obtener k-xitos y (n-k)
fracasos debemos calcular stas por combinaciones (nmero combinatorio n
sobre k).

La distribucin Binomial se suele representar por B(n,p) siendo n y p los


parmetros de dicha distribucin.

Funcin de Probabilidad de la v.a. Binomial


Funcin de probabilidad de la distribucin Binomial o tambin denominada
funcin de la distribucin de Bernoulli (para n=1). Verificndose: 0 p 1

Como el clculo de estas probabilidades puede resultar algo tedioso se han


construido tablas para algunos valores de n y p que nos facilitan el trabajo.

Ver Tabla de la Funcin de Probabilidad de la Binomial

Parmetros de la Distribucin Binomial

Funcin de Distribucin de la v.a. Binomial

siendo k el mayor nmero entero menor o igual a xi.

Esta funcin de distribucin proporciona, para cada nmero real xi, la


probabilidad de que la variable X tome valores menores o iguales que xi.

El clculo de las F(x) = p( X x) puede resultar laborioso, por ello se han


construido tablas para algunos valores de n y p que nos facilitan el trabajo.

Ejemplos:

Ejemplo N 1:

Al poner en funcionamiento una mquina, existe cierta probabilidad de que el


operario cometa un error. De manera realista puede suponerse que ste
aprende en cuanto sabe que la probabilidad de cometer errores disminuye
cuando use la mquina en repetidas ocasiones. Supongamos que el operario
hace n intentos y que los n ensayos son estadsticamente independientes.
Supongamos de manera especifica que P( en error cometido en la i-sima
repeticin)= 1/(i+1),i=1,2,n. Supongamos que se consideran 4 intentos ( esto
es, n=4) y que se define la variable aleatoria X como el nmero de operaciones
hechas sin error en la maquina. Observemos que X no esta distribuida
binomialmente porque la probabilidad de xito no es constante,

Para calcular la probabilidad de X= 3, por ejemplo, procedemos como sigue:


X=3 si y slo si hay exactamente un intento no exitoso. Esto puede suceder en
el primero, en el segundo, tercero o cuarto ensayo.
Por lo tanto,

P(X=3)= 2/3 4/5 +1/2 1/3 4/5 +1/2 2/3 4/5 + 2/3 1/5
= 5/12

Ejemplo N 2:

Consideremos una situacin semejante a la descrita en el ejemplo anterior.


Esta vez supondremos que hay una probabilidad constante p1 de no cometer
error en la mquina durante cada uno de los primeros n1 intentos y una
probabilidad constante p2<p1 de no cometer error en cada una de las
siguientes n2 repeticiones. Sea X el nmero de operaciones exitosas de la
mquina durante los n=n1+n2 intentos independientes. Encontramos una
expresin general para P(X= k). Por la misma razn dada en el ejemplo
precedente, X no esta distribuida binomialmente. Para obtener P(X=k)
procedemos como sigue.

Sea Y1 el nmero de operaciones correctas durante los primeros n1 intentos y


sea Y2el nmero de operaciones correctas durante los segundos n2 intentos.

Por lo tanto Y1 y Y2 son variables aleatorias independientes y X= Y1+Y2. As,


X= si y slo si Y1=r y Y2=k-r, para cualquier entero que satisfaga 0 < r < n1 y
0< k- r < n2-

Las restricciones anteriores sobre r son equivalentes a 0< r < n1 y k-n2< r < k.
Combinndolas podemos escribir

Max (0,k n2) < r < min (k,n19

Por tanto, tenemos :

min(k,n1) r n1-r k-r


n2-(k-r)
P(X=k)= n1 P1 (1- P1) n2
P2 (1-p2)
r=max (0,k-n2) r k- r
r

a
Con la convencin frecuente de que b = 0 cada vez que b > a o b < 0,
podemos
escribir la probabilidad anterior como:

n1 n1 r n1-r n2 k-r n2-k+r


P(X=k) r P1 ( 1-P1) k-r P2 (1-P2)
r=0

Por ejemplo, si P1=0.2, P2=0.1, n1=n2=10 y k=2, la probabilidad anterior se


convierte en:

2 10 r 10-r 10 k-r 2-r 8+r


P(X=2 r 10 ( 0.8) 2-r (0.1) (0.9) = 0.27
r=0

despus de un clculo elemental.

Observacin: supongamos que P1=P2. En este caso, la ecuacin se reducira


a
a k n-k
b P1 ( 1-P1)

.puesto que ahora la variable aleatoria X tiene una distribucin


binomial. Para ver que esto es as, obsrvese que podemos escribir (puesto
que n1+n2=n)

k n-k n1 n1 n2
P(X=k)= P1 (1-P1) r k-r
r=0

n
Para mostrar la suma anterior iguala k comprense simplemente los
coeficientes

k
de las potencias de las potencias d X en ambos lados de la identidad :
n1 n2 n1+n2
(1+X) (1+x) = ( 1+x)

Distribucin de Poisson

Definicin:

Sea X una variable aleatoria que toma los valores posibles: 0,1,n, Si

- k
P(X=k)= e , k= 0,1,,n,
k!

Decimos que X tiene una distribucin de Poisson con parmetro > 0.

Para verificar que la anterior representa una legtima distribucin de


probabilidades, simplemente observemos que
- k -
P(X=k)= (e a /k!)= e e = 1.
k=0 k=0

Observacin:

Puesto que estamos definiendo en forma directa la variable aleatoria en


trminos de su recorrido y distribucin de probabilidades, sin referencia a
ningn espacio muestral original S, podemos suponer que el espacio muestral
S se ha identificado con Rx y e X(s)=s. Es decir, los resultados del experimento
son simplemente los nmeros 0,1,2, y las probabilidades asociadas con cada
uno de esos resultados estn dadas por las ecuaciones anteriores.
Ejemplos:

Ejemplo N 1:

En una concurrida interseccin de trfico la probabilidad p de que un automvil


tenga un accidente es muy escasa, digamos p=0.0001. Sin embargo, durante
cierta parte del da, entre las 4pm y las 6pm un gran nmero de automviles
pasa por la interseccin, digamos 1000. En dichas condiciones, Cul es la
probabilidad de que dos o ms accidentes ocurran durante ese periodo?

Formulemos algunas hiptesis. Supongamos, en primer lugar, que el valor de p


es el mismo para cada uno de los automviles. En segundo lugar, supongamos
que si un automvil tiene o no un accidente, no depende de lo que le suceda a
cualquier otro automvil. (Esta suposicin, obviamente, no es realista; no
obstante la formularemos.) As podremos suponer que si X es el nmero de
accidentes entre los 1000 automviles que llegan, entonces X tiene una
distribucin binomial con p=0.0001. (Otra hiptesis, no indicada de manera
explicita, es que n, el nmero de automviles que pasa por la interseccin
entre las 4pm y las 6pm est predeterminada en 1000.desde luego, un
planteamiento ms realista seria considerar n misma como una variable
aleatoria cuyo valor depende de un mecanismo aleatorio. Sin embargo no
haremos esto aqu, slo consideraremos n como fija.) Por tanto podemos
obtener el valor exacto de la probabilidad deseada:

P(X 2)= 1- P(X=0)-P(X=1)

10000 999
= 1- (0.9999) -1000 (0.0001) (0,9999)
La evaluacin de los valores anteriores da origen a una dificultad considerable.
Puesto que n es grande y p es pequea, aplicamos el teorema de la
Distribucin de Poisson como una aproximacin a la distribucin binomial y
obtenemos la aproximacin siguiente:

-0.1 k
P(X=k) e (0.1)
k!

Por tanto,

-0,1
P(X2)1- e (1+0.1)= 0.0045.

Ejemplo N 2:

Supngase que un proceso de fabricacin produce artculos de tal manera que


cierta proporcin (constante) de artculos, digamos p, son defectuosos. Si se
obtiene un lote n de tales artculos, la probabilidad de obtener exactamente k
defectuosos pude calcularse de la distribucin binomial como

n k n-k
P(X=k)= k P (1-P)

, donde X es el nmero de defectuosos en el lote. Si n es grande y p es


pequea (como sucede a menudo), debemos aproximar la probabilidad anterior
por:

-np k
P(X=k) e (np)

k!

Supngase, por ejemplo, que un fabricante produce artculos de los cuales


alrededor de 1 en 1000 son defectuosos. Esto es, p= 0,001. Por tanto, usando
la distribucin binomial, encontramos que en un lote de 500 artculos la
probabilidad de que ninguno sea defectuoso es:

500
(0.999) = 0.609. si aplicamos la aproximacin de Poisson, esta probabilidad
puede escribirse como:

-0.5
e = 0.61.
La probabilidad de encontrar 2 o ms artculos defectuosos es, de acuerdo con
la aproximacin de Poisson:
-0.5
1e (1+0.5)= 0.085

Distribucin Chi-Cuadrada

Definicin:

Un caso especial muy importante de la distribucin gama, se obtiene si


hacemos = y r =n/2, donde n es un entero positivo. Obtenemos una familia
de distribuciones de un parmetro con fdp

n/2-1 -z/2. z >0


f(z) = 1 z e
n/2
2 (n/2)

Una variable aleatoria Z que tiene fdp dada por la ecuacin anterior se dice
que tiene una distribucin X- cuadrada con n grados de libertad ( se denota
con:
2
En la figura se muestra la fdp para n= 1,2 y n > 2. Una consecuencia inmediata
de la ecuacin:

2
E(X)= r/ , V(X9= r /

Es que si Z tiene una fdp de la ecuacin:

n/2-1 -z/2. z >0


f(z) = 1 z e
n/2
2 (n/2)

Tenemos:

E(Z)=n , V(Z)= 2n
f(z) f(z) f(z)

z z
z
(a) n=1 (b) n=2 (c)n>2

La distribucin X- cuadrada tiene muchas aplicaciones importantes en


inferencia estadstica. Debido a su relevancia, la distribucin X- cuadrada est
tabulada para diversos valores del parmetro n.

F(z)

1-
2 z
X

La Distribucin chi-cuadrado no tiene sentido para valores negativos de x,


como se puede ver en la figura.

Tngase en cuenta que para k = 1 y k = 2 la funcin de densidad para x = 0, se


hace infinito:

Para el resto de los valores de k, para x = 0, la funcin vale 0.


La Distribucin de probabilidad de esta funcin para valores menores de un x
dado, que representamos por

Donde:

Esta integral no tiene una solucin conocida, y solo se conocen mtodos


numricos para calcular sus valores, hay distintos tipos de tablas y algoritmos
para ordenador con los que se pueden calcular sus soluciones, veamos una
tabla distribucin chi-cuadrado y su modo de utilizacin.

La Tabla
Esta tabla presenta la distribucin de probabilidad de chi-cuadrado para
distintos valores de k(de 1 a 10) y de x(de 0 a 20 de 0,2 de incremento),
presentndolo con seis cifras decimales, separadas de tres en tres por un
espacio en blanco para facilitar la lectura, en la fila superior estn los valores
de k, y en la columna de la izquierda los de x, donde se cruzan la columna de
la k buscada y la fila de la x, se encuentra el valor de la probabilidad acumulada
desde 0 a la x buscada.

Ejemplo:

Cual es la Distribucin de probabilidad de chi-cuadrado de 4 grados de libertad


de que x< 1,2
Buscando en la tabla la columna del 4 y la fila de 1,2, tenemos:

Para otros valores de x

En la tabla podemos encontrar directamente la probabilidad: , pero


se pueden presentar otros casos, veamos algunos.
Para la variable mayor que x

Para calcular , partimos de la expresin:

La probabilidad de que la variable estadstica sea menor que x ms la


probabilidad de que sea mayor que x es la certeza, de probabilidad 1.
Operando:

Ejemplo
Calcular la distribucin de probabilidad de una variable estadstica chi-
cuadrado, de 6 grados de libertad sea mayor de 3,4.

segn lo anterior:

buscando en la tabla tenemos:

con lo que tenemos:

Operando tenemos:

que es la respuesta a la pregunta.

Para la variable mayor que x1 y menor que x2

Para calcular la probabilidad de que:


Siendo:

Tenemos que:

Ejemplo
Cual es la probabilidad de que una variable chi-cuadrado de 8 grados de
libertad este comprendida entre 3,4 y 5,6.
Esto es:

segn la tabla tenemos:

segn lo anterior, tenemos que:

sustituyendo los valores:

operando:

Con lo que tenemos la respuesta.

Interpolacin lineal.
La funcin chi-cuadrado es continua para x mayor que cero, pero en la tabla
solo se recogen algunos de sus valores, si bien la tabla podra hacerse ms
extensa el numero de valores recogidos siempre seria finito, para calcular los
valores no recogidos en la tabla podemos emplear la nterpolacin lineal.

La interpolacin lineal, parte de unos puntos conocidos de la funcin, y los


valores intermedios los determina por la recta que une estos dos puntos, este
mtodo siempre aade un cierto error, al sustituir la funcin: y= f(x) por la recta
que une dos puntos: y= r(x), que siempre ser menor que tomar el valor
conocido ms prximo de la funcin, ver la figura, es importante que los puntos
tomados estn lo ms prximos entre s, para que este error sea el mnimo
posible.
La expresin:

determina el valor y de la funcin para un x dado, partiendo de dos puntos


conocidos (x1,y1) y (x2,y2), siendo x1 < x < x2.

Ejemplo
Cual es la probabilidad de una distribucin chi-cuadrado de 5 grados de
libertad, de que x sea menor que 1,75.
Esto es:

el valor 1,75 no esta en la tabla, pero si tenemos que:

sustituyendo en la expresin:

tenemos que:

operando tenemos:

esto es:

que resulta:

que es el resultado buscado:

Tabla inversa de distribucin chi-cuadrado

Otra forma de tabla de distribucin chi-cuadrado, en la cual los valores de


bsqueda son los grados de libertad y la probabilidad acumulada, dada la
expresin
En este tipo de tablas se parte de los valoras conocidos k y p, y se obtiene x,
de forma inversa a lo visto anteriormente, lo que resulta interesante pera
responder a la pregunta:
Para una distribucin chi-cuadrado de k grados de libertad, cual es el valor de x
que deja a su izquierda una probabilidad p.
Este tipo de problema en la practica, suele ser ms usual, la tabla es ms
compacta y tambin nos permite calcular la probabilidad con la tabla directa.
En la tabla tenemos en la fila superior las probabilidades P, en la columna de la
izquierda los grados de libertad k, donde se cruzan la fila y la columna
correspondientes el valor de x que en una funcin chi-cuadrado de k grados de
libertad, deja a su izquierda una probabilidad P.

Ejemplo:

Cual es el valor de x, de una distribucin chi-cuadrado de 6 grados de libertad,


que deja a su izquierda una probabilidad del 80%

Consultando la tabla tenemos que:

Calculo de la probabilidad con la tabla inversa.


Empleando esta tabla podemos realizar clculos directos como en la anterior,
normalmente ser necesaria recurrir a la interpolacin lineal para obtener los
resultados

Ejemplo:

Cul es la distribucin de probabilidad de chi-cuadrado de 4 grados de


libertad de que x < 1,2 ?
este es el mismo ejemplo que en la tabla directa, veamos como se hara en
este caso:
la pregunta es:
este valor no figura en la tabla pero si tenemos en la fila de k= 4, que:

por la expresin de interpolacin lineal:

sustituyendo los valores de este caso:

operando:

esto es:

que da como resultado:

esto es:

como se puede ver hay una diferencia del orden de la tercera cifra decimal,
respecto a la bsqueda directa en la tabla, esta diferencia se produce por la
interpolacin lineal, al sustituir la funcin por la recta que une dos puntos
conocidos, y a la relativamente gran diferencia entre x1 y x2, que es el 60% al
valor de x1.

Para valores de k grandes

cuando el valor de k es suficientemente grande se tiene en cuenta que:

Con lo que podemos aproximar la distribucin Chi-cuadrado por la distribucin


normal, de media k y desviacin tpica raz de 2k, empleando la tabla
distribucin normal tipificada para su clculo.
Otro Ejemplo:

2
Supngase que la velocidad V de un objeto tiene distribucin N(0,1). Sea
K=mV 72 la energa cintica del objeto. Para encontrar la fdp de K, busquemos
primero la fdp de
2
S= V . Al aplicar directamente el teorema:
2
Sean X una variable aleatoria continua con fdp f y Y=X . Entonces, la variable
aleatoria Y tiene fdp dada por:

g(y)= 1 [f( y) + f(-y)]


2 y

Se tiene entonces que:

1
g(s)= [ s) + (- s)]
2s

-1/2 -s/2
=s 1 e
2

Si comparamos esto con la ecuacin:

n/2-1 -z/2. z >0


f(z) = 1 z e
n/2
2 (n/2)

Y recordamos que (1/2)= , observamos que S tiene una distribucin:


2
X1 . As encontramos que el cuadrado de una variable aleatoria con
distribucin N(0,1) tiene una distribucin
2
X1. (Este es el resultado que generalizaremos posteriormente)

Ahora podemos obtener la fdp h de la energa cintica K. Puesto que K es una


funcin montona de 2
V,
Cuya fdp esta dada por la g anterior, tenemos directamente;

-1/2 -k/m
H(k)=2/m g(2/m k)= 2/m 1/2 (2/m k) e ,k>0
2 2
A fin de evaluar P(K5)=P ((m/2) V 5) = P(V 10/m)

Esta ltima probabilidad se puede obtener de manera directa de las tablas de la


2
distribucin x- cuadrada ( si m es conocida) puesto que V tiene una
distribucin
2 2 2
x1 . Puesto que E( V )= 1 y la varianza ( V )= 2, entonces de la ecuacin:

E(Z)=n , V(Z)= 2n

Encontramos directamente:
2
E(K)=m/2 y V(K)= m /2

Distribucin de Weibull

La distribucin de Weibull, que recibe su nombre del investigador sueco que la


desarroll, se caracteriza por considerar la tasa de fallos variable, siendo
utilizada por su gran flexibilidad, al poder ajustarse a una gran variedad de
funciones de fiabilidad de dispositivos o sistemas.

La distribucin de Weibull complementa a la distribucin exponencial y a la


normal, se usa cuando se sabe de antemano que una de ellas es la que mejor
describe la distribucin de fallos o cuando se han producido muchos fallos (al
menos 10) y los tiempos correspondientes no se ajustan a una distribucin ms
simple.

La distribucin de Weibull nos permite estudiar cul es la distribucin de fallos


de un componente clave de seguridad que pretendemos controlar y que a
travs de nuestro registro de fallos observamos que stos varan a lo largo del
tiempo y dentro de lo que se considera tiempo normal de uso.

Definicin:

Modificando la nocin de tasa constante de fallas que condujo la ley


exponencial de falla. Supngase que la tasa de fallas Z, asociada con T, la
duracin de un artculo, tiene la forma siguiente:
-1
Z(t)= () t ,

Donde y son constantes positivas. De la ecuacin:


t
- 0 Z(s) ds
F(t)= Z(t) e

Obtenemos la expresin siguiente para la fdp de T:



-1 -t
F(t)= () t e , t > 0, , > 0

Se dice que la variable aleatoria con fdp dada por la ecuacin anterior tiene una
distribucin de Weibull. La figura muestra la fdp para =1 y =1,2,3. La funcin
De confiabilidad R est dada por:

-t
R(t)= e que es una funcin decreciente.

f(t)

=1
=3
=2

0.4 0.8 1.2

Observacin:

La distribucin exponencial es un caso especial de distribucin de Weibull,


puesto que obtenemos la distribucin exponencial si hacemos =1 en la
ecuacin:

-1
Z(t)= () t

La suposicin de la ecuacin anterior establece que Z(t) no es una constante,


sino ue es proporcional a las potencias de t. Por ejemplo, si =2 , Z es una
funcin lineal de t; si =3, Z es una funcin cuadrtica de t, etc. As, Z es una
funcin creciente, decreciente o constante de t, segn el valor de como se
indica en la figura:
z(t) z(t) z(t)

=1 t >1 t 0<< 1 t
Z es constante Z es creciente Z es
decreciente

Ejemplos:

Ejemplo N 1:

Los datos siguientes corresponden a los tiempos de falla de cierto componente


de un aeroplano: 23, 261, 87, 7, 120, 14, 62, 47, 225, 71, 246, 21, 42, 20, 5, 12,
120, 11, 3, 14, 71, 11, 14, 11, 16, 90, 1, 16, 52, 95.
Este tipo de datos se modela generalmente con una distribucin Weibull, cuya
funcin de densidad est dada por
(1)

Supongamos que se desea hacer inferencias sobre el parmetro , con base


en la distribucin inicial no informativa

y los datos listados previamente. Supongamos tambin que interesa

estudiar la distribucin predictiva de una observacin futura en vista de la


informacin disponible.

Dadas observaciones de (1) y la distribucin inicial ,

la distribucin final de est dada por

En este caso es posible integrar analticamente, por lo que despus de un


poco de lgebra obtenemos las siguientes expresiones para las distribuciones
de inters.
Densidad marginal de :
(2)

Densidad predictiva de :

(3)

Das könnte Ihnen auch gefallen