Sie sind auf Seite 1von 21

1.2 definiciones elementales de probabilidad.

La probabilidad es, en realidad, un valor numérico que debe cumplir con ciertas
condiciones o propiedades matemáticas y que se asocia a un evento o suceso
determinado para expresar el grado de confianza en la verificación futura de dicho
evento.

Evento o Suceso

Un evento es un conjunto formado por uno o más posibles resultados, asociados a un


experimento aleatorio, por ejemplo al lanzar un dado numerado de 1 al 6, los eventos
serían: 1, 2, 3, 4, 5, 6.

Tipos de Eventos:

Existen eventos imposibles, improbables, probables, seguros:

 Es probable que me bañe.


 Es seguro que amanezca después de la noche.
 Es imposible que mañana sea domingo, si hoy es lunes.
 Es improbable que mamá me deje sin desayunar.
 Cuando llueve la tierra se moja (esto es seguro).
 Mi tía encuentra una olla llena de monedas de oro
(esto es posible, pero no probable).
 Juan juega en el patio con sus compañeros, él no está solo en el patio (esto es
probable).

Los conceptos "seguro", "imposible" o "casual"

 Seguro: lo que siempre ocurre.


 Imposible: lo que nunca sucede (ni sucederá)
 Casual: lo que puede suceder.
 A) EXPERIMENTO.- Es toda acción sobre la cual vamos a realizar una medición u
observación, es decir cualquier proceso que genera un resultado definido.
 B) EXPERIMENTO ALEATORIO.- Es toda actividad cuyos resultados no se
determinan con certeza. Ejemplo: lanzar una moneda al aire. No podemos
determinar con toda certeza ¿cuál será el resultado al lanzar una moneda al aire?,
por lo tanto constituye un experimento aleatorio.
 C) ESPACIO MUESTRAL (S).- Es un conjunto de todos los resultados posibles que se
pueden obtener al realizar un experimento aleatorio. Ejemplo: sea el experimento
E: lanzar un dado y el espacio muestral correspondiente a este experimento es: S =
(1, 2, 3, 4, 5, 6(.
 D) PUNTO MUESTRAL.- Es un elemento del espacio muestral de cualquier
experimento dado.
 E) EVENTO O SUCESO.- Es todo subconjunto de un espacio muestral. Se denotan
con letras mayúsculas: A, B, etc. Los resultados que forman parte de este evento
generalmente se conocen como "resultados favorables". Cada vez que se observa
un resultado favorable, se dice que "ocurrió" un evento. Ejemplo: Sea el
experimento E: lanzar un dado. Un posible evento podría ser que salga número
par. Definimos el evento de la siguiente manera: A = sale número par = (2, 4, 6(,
resultados favorables n(E) = 3
 Los eventos pueden ser:
 i) Evento cierto.- Un evento es cierto o seguro si se realiza siempre. Ejemplo: Al
introducirnos en el mar, en condiciones normales, es seguro que nos mojaremos.
 ii) Evento imposible.- Un evento es imposible si nunca se realiza. Al lanzar un dado
una sola vez, es imposible que salga un 10
 iii) Evento probable o aleatorio.- Un evento es aleatorio si no se puede precisar de
antemano el resultado. Ejemplo: ¿Al lanzar un dado, saldrá el número 3?
 F) PROBABILIDAD.- Es el conjunto de posibilidades de que un evento ocurra o no
en un momento y tiempo determinado. Dichos eventos pueden ser medibles a
través de una escala de 0 a 1, donde el evento que no pueda ocurrir tiene una
probabilidad de 0 (evento imposible) y un evento que ocurra con certeza es de 1
(evento cierto).
 La probabilidad de que ocurra un evento, siendo ésta una medida de la posibilidad
de que un suceso ocurra favorablemente, se determina principalmente de dos
formas: empíricamente (de manera experimental) o teóricamente (de forma
matemática).
 i) Probabilidad empírica.- Si E es un evento que puede ocurrir cuando se realiza un
experimento, entonces la probabilidad empírica del evento E, que a veces se le
denomina definición de frecuencia relativa de la probabilidad, está dada por la
siguiente fórmula:


 Nota: P(E), se lee probabilidad del evento E
 ii) Probabilidad teórica.- Si todos los resultados en un espacio muestral S finito son
igualmente probables, y E es un evento en ese espacio muestral, entonces la
probabilidad teórica del evento E está dada por la siguiente fórmula, que a veces
se le denomina la definición clásica de la probabilidad, expuesta por Pierre Laplace
en su famosa Teoría analítica de la probabilidad publicada en 1812:


 G) POSIBILIDADES.- Las posibilidades comparan el número de resultados
favorables con el número de resultados desfavorables. Si todos los resultados de
un espacio muestral son igualmente probables, y un número n de ellos son
favorables al evento E, y los restantes m son desfavorables a E, entonces las
posibilidades a favor de E sonde de n(E) a m(E), y las posibilidades en contra de E
son de m(E) a n(E)
 Ejemplos ilustrativos: Mathías se le prometió comprar 6 libros, tres de los cuales
son de Matemática. Si tiene las mismas oportunidades de obtener cualquiera de
los 6 libros, determinar las posibilidades de que le compren uno de Matemática.
 Solución:
 Número de resultados favorables = n(E) = 3
 Número de resultados desfavorables = m(E) = 3
 Posibilidades a favor son n(E) a m(E), entonces,
 Posibilidades a favor = 3 a 3, y simplificando 1 a 1.
 Nota: A las posibilidades de 1 a 1 se les conoce como "igualdad de posibilidades" o
"posibilidades de 50-50"

1.3 estudio de las variables por su forma aleatoria.


Para su estudio, las variables aleatorias se clasifican en:

 Variables aleatorias discretas

Diremos que una variable aleatoria es discreta si su recorrido es finito o infinito


numerable.

Generalmente, este tipo de variables van asociadas a experimentos en los cuales se


cuenta el número de veces que se ha presentado un suceso o donde el resultado es una
puntuación concreta.

Los puntos del recorrido se corresponden con saltos en la gráfica de la función de


distribución, que correspondería al segundo tipo de gráfica visto anteriormente.

 Variables aleatorias continuas

Son aquellas en las que la función de distribución es una función continua. Se corresponde
con el primer tipo de gráfica visto.

Generalmente, se corresponden con variables asociadas a experimentos en los cuales la


variable medida puede tomar cualquier valor en un intervalo; mediciones biométricas, por
ejemplo.
Un caso particular dentro de las variables aleatorias continuas y al cual pertenecen todos
los ejemplos usualmente utilizados, son las denominadas variables aleatorias
absolutamente continuas.

 Variables aleatorias absolutamente continuas

Diremos que una variable aleatoria X continua tiene una distribución absolutamente
continua si existe una función real f, positiva e integrable en el conjunto de números
reales, tal que la función de distribución F de X se puede expresar como

Una variable aleatoria con distribución absolutamente continua, por extensión, se la


clasifica como variable aleatoria absolutamente continua.

A la función f se la denomina función de densidad de probabilidad de la variable X.

Hay que hacer notar que no toda variable continua es absolutamente continua, pero los
ejemplos son complicados, algunos utilizan para su construcción el conjunto de Cantor, y
quedan fuera del nivel y del objetivo de este curso.

Igualmente indicaremos que los tipos de variables comentados anteriormente forman


únicamente una parte de todos los posibles tipos de variables, sin embargo contienen
prácticamente todas las variables aleatorias que encontramos usualmente.

Tal como se estudiará más adelante, existen algunas familias de funciones de distribución,
tanto dentro del grupo de las discretas como de las continuas, que por su importancia
reciben un nombre propio y se estudiarán en los capítulos siguientes.

Las v.a permiten definir la probabilidad como una función numérica (de variable real) en
lugar de como una función de conjunto como se había definido antes

Ejemplo 3: Tiramos una moneda 3 veces. Representamos cara por c y cruz por z.

W = {ccc, ccz, czc, zcc, czz, zcz, zzc, zzz}

La probabilidad de cada suceso elemental es 1/8. Por ejemplo p(ccc)=1/8, ya que la


probabilidad de sacar cara en una tirada es 1/2 según la definición clásica y las tiradas son
independientes.
Definimos la v.a. X: número de caras, que puede tomar los valores {0, 1, 2, 3}. Se buscan
todos los puntos muestrales que dan lugar a cada valor de la variable y a ese valor se le
asigna la probabilidad del suceso correspondiente.

A esta función se le denomina función densidad de probabilidad (fdp), que


desgraciadamente "funciona" de distinta manera en las variables discreta que en las
continuas. En el caso de las variables discretas, como en el ejemplo, es una función que
para cada valor de la variable da su probabilidad.

1.3.1 estudio del caso univariado aplicado de negocios de


innovación tecnológica. Las funciones de densidad. El valor
esperado y varianza. La distribución normal y las derivadas de
distribución normal.
Consiste en el análisis de cada una de las variables estudiadas por separado, es decir, el
análisis esta basado en una sola variable. Las técnicas más frecuentes de análisis
univariado son la distribución de frecuencias para una tabla univariada y el análisis de las
medidas de tendencia central de la variable. Se utiliza únicamente en aquellas variables
que se midieron a nivel de intervalo o de razón (ver Therese L. Baker, 1997). La
distribución de frecuencias de la variable requiere de ver como están distribuidas las
categorías de la variable, pudiendo presentarse en función del número de casos o en
términos porcentuales.

Imagínate que quieres estudiar la altura de las personas de una población de una gran
ciudad. La variable numérica es la altura de las personas en cm.

En esta ciudad son 2M de personas. Quieres ves como se distribuye la altura en cm de


todas las personas que habitan en la gran ciudad. Pero recoger todos los datos de la
población es imposible. Como dice un colega mío “¡Tardarías 1000!”

Así que decides encuestar a 100 personas al azar (es decir escoges una muestra aleatoria)
y miras el histograma de densidad. (Recuerda que el de densidad significa que la suma de
las áreas del histograma suma 1)
Pero ves que aún no te queda claro como se distribuyen las alturas de las personas. Crees
que son pocas las personas que has encuestado. Te sientes con energía y encuestas a
1000 personas. Y pintas el histograma de densidad.
Buff… Empiezas a intuir cómo de distribuye tu variable numérica pero eres ambicioso.
Contrastas a 10 personas para hace la encuesta a 1000 personas cada. En total tienes una
muestra de 10.000 personas. Y pintas el histograma de densidad.
Fíjate como cada vez la distribución de tu variable es cada vez más suave y puedes intuir
mejor como es la forma de la distribución. De hecho, de la densidad de la distribución.

Imagínate que res capaz de obtener los valores de la altura de 100.000 personas. Y pintas
el histograma de densidad.

Ahora puedes ver como eres capaz de un contorno mucho más fino. Podrías dibujar el
contorno fácilmente. ¡Mira esta imagen!
“la función de densidad es precisamente este contorno. es una línea continua que
representa la distribución de densidad de toda la población”

Valor esperado

El valor esperado es un concepto fundamental en el estudio de las distribuciones de


probabilidad. Desde hace muchos años este concepto ha sido Aplicado ampliamente en el
negocio de seguros y en los últimos veinte años ha Sido aplicado por otros profesionales
que casi siempre toman decisiones en
Condiciones de incertidumbre.
Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos
Cada valor que ésta puede asumir por la probabilidad de ocurrencia de ese
Valor y luego sumamos los productos. Es un promedio ponderado de los
Resultados que se esperan en el futuro.

Sea X una Variable Aleatoria que toma valores en un conjunto discreto (en un
conjunto finito de números en uno infinito como: los naturales, los enteros o los
racionales), por ejemplo si la variable aleatoria X toma los siguientes valores:

X = 0, 1, 2, 3, … decimos que es discreta

La probabilidad de que X tome cada uno de sus valores viene dada por la función
de probabilidad:

P(X = i ), para i = 0, 1, 2, 3, ... ;


Sea P(X = i ) = pi para i = 0, 1, 2, 3, ... Se tiene que p1 + p2 + p3 +...+ pn +... = 1

Se define el Valor Esperado de una Variable Aleatoria con distribución discreta

como:

µ = E(X) = ∑xf (x)

Y para una variable aleatoria con distribución continua como

−∞
µ = E(X) = ∫ xf (x)dx

Varianza

Se podría usar un argumento parecido para justificar las fórmulas para la varianza
de la población 2 σ y la desviación estándar de la población σ . Estas medidas
numéricas describen la dispersión o variabilidad de la variable aleatoria mediante
el “promedio” o “valor esperado” de las desviaciones cuadráticas de los valores de
x a partir de su media µ .

Sea x variable aleatoria discreta con distribución de probabilidad f(x) y media µ .

La varianza de x es: La varianza de x es: σ2 = E[( - X µ) ] =∑(x - µ)2 f (x)

Sea x variable aleatoria continua con distribución de probabilidad f(x) y media µ .



La varianza de x es : σ2 = E[( X -µ)2 ] = ∫ (x- µ)2 f x dx.

Distribución normal

En estadística y probabilidad se llama distribución normal, distribución de Gauss,


distribución gaussiana o distribución de Laplace-Gauss, a una de las distribuciones de
probabilidad de variable continua que con más frecuencia aparece en estadística y en la
teoría de probabilidades.1

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto


de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss
y es el gráfico de una función gaussiana.2

La importancia de esta distribución radica en que permite modelar numerosos fenómenos


naturales, sociales y psicológicos. 3Mientras que los mecanismos que subyacen a gran
parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables
incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse
asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes.

De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación


alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la
estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por


mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de


la normal son:

 caracteres morfológicos de individuos como la estatura;


 caracteres fisiológicos como el efecto de un fármaco;
 caracteres sociológicos como el consumo de cierto producto por un mismo grupo
de individuos;
 caracteres psicológicos como el cociente intelectual;
 nivel de ruido en telecomunicaciones;
 errores cometidos al medir ciertas magnitudes;
 etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por


ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal,
cuando la distribución de la población de la cual se extrae la muestra no es normal. 4
Además, la distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestral y varianza. La
distribución normal es la más extendida en estadística y muchos tests estadísticos están
basados en una "normalidad" más o menos justificada de la variable aleatoria bajo
estudio.

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de


probabilidad continuas y discretas.
1.3.2 Estudio del caso univariado aplicado de negocios de
innovación tecnológica. La distribución conjunta, la distribución
marginal y la condicional, el valor esperado y las varianzas
condicionales. La covarianza y el coeficiente de correlacion. La
independencia.
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X y Y es la
distribución de probabilidad de la intersección de eventos de X y Y, esto es, de los eventos
X e Y ocurriendo de forma simultánea. En el caso de solo dos variables aleatorias se
denomina una distribución bivariada, pero el concepto se generaliza a cualquier número
de eventos o variables aleatorias.
1 Distribuciones conjuntas Vamos a extender las definiciones de las funciones de densidad
y distribucion de una variable aleatoria para representar estas funciones de varias
variables aleatorias. 1.1 Caso discreto Definici´on 1 Si X1, . . . , Xn son n variables aleatorias
discretas, la distribuci´on de probabilidad conjunta de X1, . . . , Xn, est´a determinada por
pX1,...,Xn (x1, . . . , xn) = P(X1 = x1; . . . ; Xn = xn) . ∞ < x1, . . . , xn < ∞ Igual que en el caso
de una ´unica variable, la funci´on conjunta pX1,...,Xn asigna probabilidades diferentes de
zero a un n´umero finito de combinaciones de (x1, . . . , xn). Las probabilidades distintas de
zero deben sumar 1. Teorema 1 Si X1, . . . , Xn son n variables aleatorias discretas, con
funci´on de probabilidad conjunta pX1,...,Xn (x1, . . . , xn), entonces: 1. 0 ≤ pX1,...,Xn (x1, . .
. , xn) ≤ 1 para todo (x1, . . . , xn)

Cada uno de los eventos de una variable aleatoria discreta representa eventos
mutuamente excluyentes. Si la variable aleatoria es bivariante entonces los eventos
representados por son eventos mutuamente excluyentes también.

Es posible construir las funciones de probabilidad univariadas conociendo la función de


distribución multivariada haciendo la unión de todas las posibilidades existentes de los
eventos mutuamente excluyentes para las demás variables aleatorias.

Función de probabilidad marginal

Si y son variables aleatorias discretas conjuntas con función de probabilidad


. Entonces las funciones de probabilidad marginal de y ,
respectivamente, están dadas por:
Ejemplo

Para ilustrar este hecho consideremos el ejemplo del lanzamiento de los dados. Sabemos
que la probabilidad de que al lanzar solo un dado la probabilidad de cada una de las caras
es de 1/6. Si queremos llegar a este resultado desde la función de distribución tendríamos:

Función de probabilidad condicional

Recordemos que las probabilidades condicionales nos daban una forma de medir la
probabilidad de que pasara un evento dado que conocíamos la ocurrencia de otro evento.
¿Qué pasa si los eventos los describimos a través de variables aleatorias?. En este caso:

Si el evento es descrito a través de la variable y el evento como ,


entonces:

Siempre que

En general, si y son variables aleatorias discretas:

Ejemplo
De un grupo de 3 guitarristas, 2 bajistas y 4 bateristas se van a seleccionar 2 músicos para
presentar un show. Denotemos con el número de guitarristas y con el número de
bateristas$. Encontrar la probabilidad de que se seleccione un baterista dado que se
seleccionó un bajista.

Calcular la función de distribución conjunta, la distribución marginal para y y

 La covarianza es el valor que refleja en qué cuantía dos variables aleatorias


varían de forma conjunta respecto a sus medias.

Nos permite saber cómo se comporta una variable en función de lo que hace otra
variable. Es decir, cuando X sube ¿Cómo se comporta Y? Así pues, la covarianza puede
tomar los siguiente valores:

Covarianza (X,Y) es menor que cero cuando “X” sube e “Y” baja. Hay una relación
negativa.

Covarianza (X,Y) es mayor que cero cuando “X” sube e “Y” sube. Hay una relación
positiva.

Covarianza (X,Y) es igual que cero cuando “X” sube e “Y” baja. No hay relación existente
entre las variables “X” e “Y”.

Cálculo de la covarianza

La fórmula de la covarianza se expresa como sigue:

Dónde la y con el acento es la media de la variable Y, y la x con el acento es la media de la


variable X. “i” es la posición de la observación y “n” el número total de observaciones.

El coeficiente de correlación es una medida que determina el grado al que se asocian los
movimientos de dos variables.

Así, el coeficiente de correlación es un número que cuantifica algún tipo de relación y/o
dependencia, es decir, relaciones estadísticas entre dos o más variables aleatorias o
valores de datos observados.
El rango de valores del coeficiente de correlación es de -1.0 a 1.0. Si una correlación
calculada es superior a 1,0 o inferior a -1,0, se ha cometido un error. Una correlación de -
1,0 indica una correlación negativa perfecta, mientras que una correlación de 1,0 indica
una correlación positiva perfecta.

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre
sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso
ocurra o no, es decir, cuando ambos sucesos no están relacionados.

Dos sucesos son independientes si la probabilidad de que ocurran ambos


simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de

ellos, es decir, si

1.3.3 el estudio de la distribución normal bivariada aplicado a


negocios de innovación tecnológica.
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X y Y es la
distribución de probabilidad de la intersección de eventos de X y Y, esto es, de los eventos X e Y
ocurriendo de forma simultánea. En el caso de solo dos variables aleatorias se denomina una
distribución bivariada, pero el concepto se generaliza a cualquier número de eventos o variables
aleatorias.

Cuando queremos describir conjuntamente dos variables estadísticas, el primer paso será (al igual
que en el caso de la estadística univariada), representar los datos en una tabla de
frecuencias. Ahora, a cada caso le corresponde no un valor sino dos (uno para cada una de las
variables). Así, en el caso de que intentemos relacionar el peso y la altura de las personas, a cada
persona le asociamos un par de valores (peso, altura).

Los pares de valores así formados constituyen la distribución bidimensional. La tabla de frecuencias
consiste en una tabla de doble entrada en la que se recogen tanto las frecuencias de cada una de
las variables por separado como los pares de puntuaciones que cada caso obtiene en ambas
variables (frecuencia conjunta).

Las puntuaciones pueden aparecer sin agrupar o agrupadas en intervalos, no teniendo por qué ser
el número de intervalos de las dos variables iguales entre sí, así como la amplitud de los mismos.

Organización y representación de los datos con más de una variable

Los datos se organizan en tablas de contingencia


Para representar ,por ejemplo, dos variables cualitativas la variable Xi (con I categorías) y la variable
Yj (con J categorías) se construirá una tabla de doble entrada con I filas y J columnas. Dentro cada
casilla de la tabla se encontrarán las frecuencias conjuntas de las dos variables (nij).

j=1 j=2 …….. J ni

i =1 n11 n12 …….. n1J n1

i =2 n21 n22 …….. n2J n2

i =3 n31 n33 …….. n3J n3

…….. …….. …….. …….. ……..

I nI1 nI2 …….. nIJ nI

nj n1 n2 nJ N

Ejemplo

Tabaquismo Yj

Género Fumador No fumador Exfumador ni

Xi Varón 30 50 20 100

Mujer 30 10 10 50

nj 60 60 30 150

Tenemos dos variables:

La variable Xi : Género con I=2 categorías

La variable Yj : Tabaquísmo con J=3 categorías


Dónde

N=150 sujetos ( 100 varones y 50 mujeres) ;

60 fumadores, 60 no fumadores y 30 exfumadores

con 50 varones no fumadores n12,

frente a 10 mujeres no fumadoras n22

Donde:

N es el total de sujetos de la muestra

Las casillas de la tabla contienen la distribución de frecuencias conjuntas ( nij)

Los laterales derecho e inferior de la tabla contienen la distribución de frecuencias marginales ( ni


y nj).

Las distribuciones de frecuencias conjuntas también pueden expresarse en términos relativos

pij= nij/n

Tabaquismo Yj

Género Fumador No fumador Exfumador pi

Xi Varón 0,20 0,33 0,13 0,66

Mujer 0,20 0,07 0,07 0,34

pj 0,40 0,40 0,20 1

Además de las frecuencias absolutas y relativas también aparece el concepto de distribución


condicionada.

Distribución de tabaquismo dado que se es varón nj/i=1

Distribución de género dado que se es fumador ni/j=1

Las frecuencias relativas también pueden estar condicionadas por ejemplo:


Tabaquismo Yj

Género Fumador No fumador Exfumador pi

Xi Varón 0,30=30/100 0,50=50/100 0,20=20/100 1

Mujer 0,60=0,30/50 0,20=10/50 0,20=10/50 1

De los varones un 30% fuma, un 50% no fuma y un 20% es exfumador

Tabaquismo Yj

Género Fumador No fumador Exfumador

Xi Varón 0,50=30/60 0,83=50/60 0,67=20/30

Mujer 0,50=30/60 0,17=10/60 0,33=10/30

pj 1 1 1

De los fumadores un 50% son hombres y un 50% son mujeres; de los no fumadores el 83% son
varones, y el 17% son mujeres; de los exfumadores el 67% son varones y el 33% son mujeres.

1.4 acercamiento al análisis exploratorio de datos para los


negocios de innovación tecnológica.
El análisis exploratorio tiene como objetivo identificar el modelo eórico más adecuado para
representar la población de la cual proceden los datos muestrales. Dicho análisis se basa en
gráficos y estadísticos que permiten explorar la distribución identificando características tales
como: valores atípicos o outliers, saltos o discontinuidades, concentraciones de valores, forma de
la distribución, etc. Por otra parte, este análisis se puede realizar sobre todos los casos
conjuntamente o de forma separada por grupos. En este último caso los gráficos y estadísticos
permiten identificar si los datos proceden de una o varias poblaciones, considerando la variable
que determina los grupos como factor diferenciador de las poblaciones. También permite
comprobar, mediante técnicas gráficas y contrastes no paramétricos, si los datos han sido
extraídos de una población con distribución aproximadamente normal

El objetivo del análisis exploratorio es resumir y visualizar datos de manera que se facilite
la identificación de tendencias o patrones que los subyacen y que son relevantes para
responder alguna pregunta de interés.

Un importante concepto en Estadística es el de variable aleatoria ya que permiten describir


fenómenos aleatorios, donde existevariabilidad. Los datos de las variables aleatorias varían
en torno a valores característicos que proveen información valiosa para comprender el
fenómeno en estudio.

El análisis exploratorio sintetiza valores de variables aleatorias tratando de maximizar la


relación señal/ruido del conjunto de datos.

En las clases de este Capítulo se proveen herramientas de la Estadística Descriptiva para


organizar, representar y explorar datos de una variable sin pretender extender los
resultados a una población de la cual estos podrían provenir.

A través de medidas resumen y una variedad de gráficos se muestran de manera sintética


las cantidades relevadas en distintos tipos de estudios, estudios poblacionales o
estudios muestrales, estudios experimentales o estudios observacionales).

En la exploración de datos las técnicas a usar dependen del tipo de variable, el cual está
íntimamente asociado a la escala de medición (Escala Nominal, Escala Ordinal, Escala
Intervalar y Escala de Razón). Para variables cuantitativas se usan medidas resumen tales
como medias, desvíos estándar, mínimos y máximos e histogramas y gráficos de barras,
mientras que para variables cualitativas o categorizadas se usan porcentajes y gráficos de
sectores y de barras apiladas.
Referencias bibliográficas
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2
/B0C2m1t5.htm
http://www.revistanova.org/index.php?option=com_content&view=article&i
d=57&Itemid=64
https://es.khanacademy.org/math/probability/probability-
geometry/probability-basics/a/probability-the-basics
https://tereom.github.io/est-aplicada-15/03-univariados.html
https://conceptosclaros.com/para-que-sirve-la-funcion-densidad-
probabilidad/

https://www.uv.es/ceaces/tex1t/1%20normal/ngeneral.htm

file:///C:/Users/park/Downloads/Documents/handout5.pdf
https://mangosound.wordpress.com/2017/03/31/distribuciones-de-
probabilidad-marginal-y-condicional/
https://economipedia.com/definiciones/covarianza.html
https://www.enciclopediafinanciera.com/definicion-coeficiente-de-
correlacion.html
https://es.wikipedia.org/wiki/Independencia_(probabilidad)

https://portal.uah.es/portal/page/.../APUNTES-DESCRIPTIVA-TEMA3-4_0.doc

http://www.fca.proed.unc.edu.ar/mod/book/view.php?id=3270
http://www.ub.edu/aplica_infor/spss/cap2-3.htm

Das könnte Ihnen auch gefallen