Beruflich Dokumente
Kultur Dokumente
GRUPO 4
I. Dedicatoria ……………………………………………………………………. 3
V. Conclusión …………………………………………………………………... 15
DEDICATORIA
En primer lugar, a dios por habernos permitido llegar hasta este punto y habernos
dado salud, ser el manantial de vida y darnos lo necesario para seguir adelante
día a día para lograr nuestros objetivos, además de su infinita bondad y amor y
nuestros Padres por estar ahí cuando más los necesitamos.
I. Introducción
El Análisis Bivariado Implica el análisis comparativo de dos variables una de las cuales
modifica a la otra.
a) Llamaremos a cada una de las variables con, niveles o intervalos o clases para la
variable X, y niveles o intervalos o clases para la variable Y.
Sin embargo, los resultados que aparecen al establecer relaciones significativas entre
dos variables son de naturaleza descriptiva y tales resultados no explican por qué ocurre
dicha relación. Esto es, una correlación entre dos variables no implica necesariamente
una relación causal entre ellas puesto que en cualquier correlación podría existir una
tercera variable que explique la asociación entre las dos variables que han sido medidas
(relación espuria). A su vez, se debe verificar que la variable independiente (causa)
anteceda temporalmente a la variable dependiente (efecto).
Del mismo modo, se hace necesaria la existencia de una teoría que nos permita
discriminar entre las simples relaciones estadísticas y las relaciones causales
propiamente tales.
El nivel de significación constituye el valor crítico a partir del cual estamos dispuestos a
aceptar o rechazar una hipótesis dentro de ciertos márgenes razonables de error, siendo
el máximo estándar en ciencias sociales de un 5% (95% de confianza).
La Correlación
y trata de medir la dependencia lineal que existe entre las dos variables. Su cuadrado
se denomina coeficiente de determinación, r2.
La correlación está basada en la asociación lineal, es decir, que cuando los valores de
una variable aumentan los valores de la otra variable pueden aumentar o
disminuir proporcionalmente. Por ejemplo, la altura y el peso tienen una relación
lineal positiva, a medida que aumenta la altura aumenta el peso. Si realizamos
un gráfico de puntos con ambas variables la nube de puntos se asemejará a
una diagonal si hay correlación entre las variables.
Por lo general, no suelen haber muchas diferencias entre los resultados, aunque pueden
variar los resultados sobre todo cuando se trabaja con muestras pequeñas.
El realizar la representación gráfica de los datos para demostrar la relación entre el valor
del coeficiente de correlación y la forma de la gráfica es fundamental ya que existen
relaciones no lineales.
c. El coeficiente de correlación mide solo la relación con una línea recta. Dos
variables pueden tener una relación curvilínea fuerte, a pesar de que su
correlación sea pequeña. Por tanto, cuando analicemos las relaciones entre dos
variables debemos representarlas gráficamente y posteriormente calcular el
coeficiente de correlación.
La covarianza, que en este ejemplo es el producto de peso (kg) por talla (cm), para que
no tenga dimensión y sea un coeficiente, se divide por la desviación típica de X (talla) y
por la desviación típica de Y (peso) con lo que obtenemos el coeficiente de correlación
de Pearson que en este caso es de 0.885 e indica una importante correlación entre las
dos variables. Es evidente que el hecho de que la correlación sea fuerte no implica
causalidad. Si elevamos al cuadrado el coeficiente de correlación obtendremos el
coeficiente de determinación (r2=0.783) que nos indica que el 78.3% de la variabilidad
en el peso se explica por la talla del niño. Por lo tanto, existen otras variables que
modifican y explican la variabilidad del peso de estos niños. La introducción de más
variable con técnicas de análisis multivariado nos permitirá identificar la importancia de
que otras variables pueden tener sobre el peso.
Ejemplo:
Y/X 100 50 25
14 1 1 0
18 2 3 0
22 0 1 2
1 Calcular la covarianza.
2 Obtener e interpretar el coeficiente de correlación lineal.
3 Ecuación de la recta de regresión de Y sobre X.
xi yi fi xi · fi xi2 · fi yi · fi yi2 · fi xi · yi · fi
100 14 1 100 10 000 14 196 1 400
100 18 2 200 20 000 36 648 3 600
50 14 1 50 2 500 14 196 700
50 18 3 150 7 500 54 972 2 700
50 22 1 50 2 500 22 484 1 100
25 22 2 50 1 250 44 968 1 100
10 600 43 750 184 3 464 10 600
La Regresión Lineal
donde:
β0, β1, β2,… βp : parámetros, miden la influencia que las variables explicativas tienen sobre
el regrediendo.
Muchas técnicas han sido desarrolladas para llevar a cabo el análisis de regresión.
Métodos familiares tales como la regresión lineal y la regresión por cuadrados mínimos
ordinarios son paramétricos, en que la función de regresión se define en términos de un
número finito de parámetros desconocidos que se estiman a partir de los datos.
La regresión no paramétrica se refiere a las técnicas que permiten que la función de
regresión consista en un conjunto específico de funciones, que puede ser
de dimensión infinita.
Ejemplo:
Utilice este análisis para probar qué tan bien una muestra de datos categóricos se ajusta
a una distribución teórica.
Por ejemplo, usted puede comprobar si un dado es justo, lanzando el dado muchas
veces y utilizando una prueba de bondad de ajuste de chi-cuadrada para determinar si
los resultados siguen una distribución uniforme. En este caso, el estadístico de chi-
cuadrada cuantifica qué tanto varía la distribución observada de los conteos con
respecto a la distribución hipotética.
Los cálculos para estas pruebas son iguales, pero la pregunta que se está tratando de
contestar puede ser diferente.
¿Es lo mismo tomar somníferos o placebos para dormir bien o mal en este grupo de
enfermos?
(Es importante caer en la cuenta de que la suma de las frecuencias observadas debe
de ser igual a la suma de las frecuencias teóricas).
Para este cálculo, tenemos que basarnos en la fórmula: (total filas x total columnas) /
total
Como dijimos antes, la suma de las frecuencias observables debía de ser igual a la
suma de las frecuencias esperadas. En este caso podemos decir, que dicho pronóstico
se cumple:
– Suma frecuencias observadas = 170
– Suma de frecuencias esperadas: 39, 71 + 85, 29 + 14, 29 + 30, 71 = 170
Paso 3: Calcular los grados de libertad. En este caso, como son dos los criterios de
clasificación, el grado de libertad se calcularía así:
Grados de libertad = (nº de filas – 1) por (nº de columnas – 1)
Grados de libertad = (2 – 1)(2 – 1) = 1 x 1 = 1
Paso 4: Calcular el valor de chi cuadrado (usando para ello la fórmula escrita al principio
de esta entrada)