Sie sind auf Seite 1von 10

CONSULTA DE ESTADÍSTICA DESCRIPTIVA

VARIABLE ALEATORIA

Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y
las proposiciones de las matemáticas y la estadística. Según sus características, las
variables se clasifican de distinto modo.

Se denomina variable aleatoria (o estocástica) a la función que adjudica eventos


posibles a números reales (cifras), cuyos valores se miden en experimentos de tipo
aleatorio. Estos valores posibles representan los resultados de experimentos que
todavía no se llevaron a cabo o cantidades inciertas.

Cabe destacar que los experimentos aleatorios son aquellos que, desarrollados bajo
las mismas condiciones, pueden ofrecer resultados diferentes. Arrojar una moneda
al aire para ver si sale cara o ceca es un experimento de este tipo.

La variable aleatoria, en definitiva, permite ofrecer una descripción de la probabilidad


de que se adoptan ciertos valores. No se sabe de manera precisa qué valor adoptará
la variable cuando sea determinada o medida, pero sí se puede conocer cómo se
distribuyen las probabilidades vinculadas a los valores posibles. En dicha distribución
incide el azar.

Se conoce como distribución de probabilidad, dentro del ámbito de la probabilidad


y la estadística, a una función que le da a cada uno de los sucesos que se definen
sobre una variable aleatoria un valor que denota cuán probable es que tenga lugar el
suceso que representa. Para definirla se parte del conjunto de todos los sucesos,
siendo cada uno de ellos el rango de la variable en cuestión.

Desde una perspectiva teórica formal, las variables aleatorias son funciones que se
definen sobre un un espacio de probabilidad (también llamado espacio
probabilístico), un concepto de las matemáticas que modeliza un determinado
experimento aleatorio. Lo normal es que un espacio de probabilidad cuente con los
siguientes tres componentes:
en primer lugar, un conjunto denominado espacio muestral, que reúne todos los
resultados posibles del experimento, los cuales se conocen con el nombre de sucesos
elementales;

el grupo de todos los sucesos aleatorios. El par compuesto por este componente y el
anterior se denomina espacio de medida;

* finalmente, una medida de probabilidad que determina la probabilidad de que cada


suceso tenga lugar y que sirve para verificar que se cumplan los axiomas de
Kolmogórov.

Los axiomas de Kolmogórov se resumen a continuación: la certeza de que se


presente el espacio muestral en el experimento aleatorio; para determinar la
probabilidad de un suceso, se asigna un número entre 0 y 1; si nos encontramos
frente a sucesos mutuamente excluyentes, entonces la suma de sus probabilidades
es igual a la probabilidad de que se presente uno de ellos. Los sucesos o eventos
mutuamente excluyentes, por su parte, son aquellos que no pueden tener lugar de
forma contemporánea.

Las variables aleatorias discretas son aquellas cuyo rango está formado por una
cantidad finita de elementos o que sus elementos pueden enumerarse de manera
secuencial. Supongamos que una persona arroja un dado tres veces: los resultados
son variables aleatorias discretas, ya que pueden obtenerse valores del 1 al 6.

En cambio, la variable aleatoria continua se vincula a un recorrido o rango que


abarca, en teoría, la totalidad de los números reales, aunque solo sea accesible una
cierta cantidad de valores (como la altura de un grupo de personas).

Este concepto también se aprovecha en la programación, donde existe una clara


limitación para el rango de posibles elementos, ya que esto depende de la memoria,
la cual es finita. Cuanto mayor sea el espacio disponible para la distribución de
probabilidad y la complejidad que puedan tener los sucesos, más realista será la
simulación. Uno de los ámbitos en los cuales puede resultar útil la variable aleatoria
es la animación de personajes en tiempo real, donde se pretende que un modelo en
tres dimensiones reaccione y se relacione con el entorno de forma realista mientras
es controlado por un ser humano.

VARIABLES ALEATORIAS DISCRETAS

Distribución binomial

La distribución binomial es típica de las variables que proceden de un experimento


que cumple las siguientes condiciones:

1) El experimento está compuesto de n pruebas iguales, siendo n un número


natural fijo.

2) Cada prueba resulta en un suceso que cumple las propiedades de la


variable binómica o de Bernouilli, es decir, sólo existen dos posibles
resultados, mutuamente excluyentes, que se denominan generalmente como
éxito y fracaso.

3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas.


P(éxito) = p ; P(fracaso) = 1 - p = q

4) Las pruebas son estadísticamente independientes,

En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos en las n


pruebas se llama variable binomial. Evidentemente, el espacio muestral estar
compuesto por los números enteros del 0 al n. Se suele decir que una variable
binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con
reemplazamiento.

La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo


n el número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la
distribución.

La manera más fácil de calcular de valor de números combinatorios, como los


incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia
La media y la varianza de la variable binomial se calculan como:

Media = μ = n p

Varianza = σ2 = n p q

Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por


ejemplo, el caso en que n = 4:

Distribución hipergeométrica

Una variable tiene distribución hipergeométrica si procede de un experimento que


cumple las siguientes condiciones:

1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto


finito de N objetos.

2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos.

X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral es el


conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante pues
depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son
independientes entre sí.

La función de probabilidad de la variable hipergeométrica es:

Los parámetros de la distribución son n, N y K.

Los valores de la media y la varianza se calculan según las ecuaciones:

Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muy


poco de una prueba a otra, así pues, la variable, en este caso, es esencialmente
binomial; en esta situación, N suele ser muy grande y los números combinatorios se
vuelven prácticamente inmanejables, así pues, la probabilidades se calculan más
cómodamente aproximando por las ecuaciones de una binomial con p = K / N.

La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la de la


variable antes de la aproximación; sin embargo, la varianza de la variable binomial
es ligeramente superior a la de la hipergeométrica.

el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto
sea que n << N.

El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo,


mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial
= 0,25 y n = 4)
Distribución de poisson

Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.

El experimento que la genera debe cumplir las siguientes condiciones:

1. El número de éxitos que ocurren en cada región del tiempo o del


espacio es independiente de lo que ocurra en cualquier otro tiempo o
espacio disjunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra fuera
de él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio.

Como consecuencia de estas condiciones, las variables Poisson típicas son variables
en las que se cuentan sucesos raros.

La función de probabilidad de una variable Poisson es:

El parámetro de la distribución es λ que es igual a la media y a la varianza de la


variable.

Esta característica puede servirnos para identificar a una variable Poisson en casos
en que se presenten serias dificultades para verificar los postulados de definición.

La distribución de Poisson se puede considerar como el límite al que tiende la


distribución binomial cuando n tiende a y p tiende a 0, siendo np constante (y
menor que 7); en esta situación sería difícil calcular probabilidades en una variable
binomial y, por tanto, se utiliza una aproximación a través de una variable Poisson
con media l = n p.

La varianza de la variable aproximada es ligeramente superior a la de la variable


binomial.

Las variables Poisson cumplen la propiedad de que la suma de variables Poisson


independientes es otra Poisson con media igual a la suma las medias.

El aspecto de la distribución depende muchísimo de la magnitud de la media. Como


ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ = 1,5 (arriba a la
derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al

crecer λ y que, en paralelo, la gráfica empieza a tener un aspecto acampanado.


VARIABLES ALEATORIAS CONTINUAS

Distribución normal o de Gauss

La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor


importancia en el campo de la estadística.

Una variable es normal cuando se ajusta a la ley de los grandes números, es decir,
cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la
que influyen infinitas causas de efecto infinitesimal.

Las variables normales tienen una función de densidad con forma de campana a la
que se llama campana de Gauss.

Su función de densidad es la siguiente:

Los parámetros de la distribución son la media y la desviación típica, μ y σ,


respectivamente. Como consecuencia, en una variable normal, media y desviación
típica no deben estar correlacionadas en ningún caso (como desgraciadamente
ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la
normal.

La curva normal cumple las siguientes propiedades:

1) El máximo de la curva coincide con la media.

2) Es perfectamente simétrica respecto a la media (g1 = 0).

3) La curva tiene dos puntos de inflexión situados a una desviación típica de la


media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas.
4) Sus colas son asintóticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habría que


integrar la función de densidad entre los extremos del intervalo. por desgracia (o por
suerte), la función de densidad normal no tiene primitiva, es decir, no se puede
integrar. Por ello la única solución es referirse a tablas de la función de distribución
de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de
triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una


correspondencia de sus valores con los de otra variable con distribución normal,
media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia
entre ambas variables se obtiene mediante la ecuación:

La función de distribución de la variable normal tipificada está tabulada y,


simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.

De forma análoga a lo pasaba con las variables Poisson, la suma de variables


normales independientes es otra normal.

Histograma de una normal idealizada Histograma de una muestra variable normal


Distribución exponencial

Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad


es:

Su parámetro es β.

La media y la varianza de la distribución exponencial son:

Das könnte Ihnen auch gefallen