Sie sind auf Seite 1von 4

Glosario

1. Análisis de correlación: se utiliza para medir la intensidad de la asociación


entre las variables numéricas.
2. Análisis de regresión lineal múltiple: nos permite establecer la relación que
se produce entre una variable dependiente Y
y un conjunto de variables independientes (X1, X2, ... XK).
3. Análisis de regresión simple: Nos permite establecer la relación entre una
variable dependiente y una variable independiente.
4. Análisis residual: análisis de los residuales que se usan para determinar si
parecen ser válidas las suposiciones hechas acerca del modelo de regresión.
El análisis de residuales también se usa para identificar observaciones
atípicas y observaciones influyentes.
5. Coeficiente de asimetría Pearson: es un valor que indica la asimetría.
Simbólicamente representada por As.
6. Coeficiente de correlación lineal de Pearson: es un número que mide la
intensidad de la asociación lineal entre dos variables, el coeficiente de
correlación es representado por “r”.
7. Coeficiente de correlación: medida de la intensidad de la relación lineal entre
dos variables.
8. Coeficiente de determinación: es un valor que se obtiene elevando al
cuadrado el coeficiente de correlación, se representa simbólicamente por r2
y puede tomar valores de 0 y 1.
9. Coeficiente de determinación: medida de la bondad de ajuste de la ecuación
de regresión estimada. Se puede interpretar como la proporción de la
variabilidad de la variable dependiente y que es explicada por la ecuación de
regresión estimada.
10. Correlación de rango: Método para hacer análisis de correlación cuando los
datos no están disponibles en forma numérica, pero cuando la información
es suficiente para clasificar los datos.
11. Correlación serial: Existe cuando las observaciones sucesivas a través del
tiempo se relacionan entre sí.
12. Correlación: Es una medida de la relación entre dos o más variables. La
correlación puede tomar valores entre –1 y +1. El valor de –1 representa una
correlación negativa perfecta mientras un valor de +1 representa una
correlación perfecta positiva. Un valor de 0 representa una falta de
correlación
13. Covarianza: es una medida de la asociación lineal entre dos variables
14. Diagrama de dispersión: es un gráfico utilizado para representar la relación
entre valores observados de dos variables numéricas.
15. Diagrama de dispersión: es un tipo de diagrama matemático que utiliza
las coordenadas cartesianas para mostrar los valores de dos variables para
un conjunto de datos.
16. Diagramas de dispersión: grafica de datos bivariados en la que la variable
independiente va en el eje horizontal y la variable dependiente va en el eje
vertical.
17. Ecuación de regresión estimada: estimación de la ecuación de regresión
obtenida a partir de datos muéstrales, empleando el método de mínimos
cuadrados. En la regresión lineal simple, la ecuación de regresión estimada
es Ẏ= b0+b1x.
18. Ecuación de regresión: ecuación que describe como está relacionada la
media o valor esperado de la variable dependiente con la variable
independiente; es la regresión lineal simple E(y)= β0+β1x.
19. Error cuadrado medio: estimación insesgada de la varianza del término del
error ð2. Se denota ECM o s2.
20. Error estándar de estimación: raíz cuadrada del error cuadrado medio, se
denota s. es una estimación de ð2, la desviación estándar del error.
21. Error estándar: es la desviación estándar de la distribución maestral de un
estadístico.
22. Error estándar: es la desviación estándar de la distribución maestral de
un estadístico.
23. Grafica de probabilidad normal: grafica en la que los residuales
estandarizados se grafican contra los puntos normales. Esta grafica ayuda
determinar si parecen ser validas la suposición de que los términos del error
tienen una distribución de probabilidad normal.
24. Graficas de residuales: representación gráfica de los residuales, se usa para
determinar si parecen ser válidas las suposiciones hechas acerca del modelo
de regresión.
25. Intervalo de confianza: estimación por intervalo del valor medio de Y para un
valor dado de X.
26. Intervalo de predicción: estimación por intervalo de un solo valor de Y para
un valor dado de X.
27. Método de mínimos cuadrados: procedimiento empleado para obtener la
ecuación de regresión estimada. El objetivo es minimizar Σ(yi-ẏ1)2.
28. Modelo de regresión: ecuación que describe como están relacionadas Y y X,
más un término del error; en la regresión lineal simple, el modelo de regresión
es Y= β0+β1x+€.
29. Observación atípica: dato u observación que no sigue la tendencia del resto
de los datos.
30. Observación influyente: observación en a que la variable independiente tiene
un valor extremo.
31. Punto de gran influencia: observaciones en la que la variable independiente
tiene valores extremos.
32. Regresión lineal múltiple: El modelo de regresión lineal múltiple sirve para
explicar una variable respuesta continua en términos de varios factores o
variables explicativas continuas.
33. Regresión lineal simple: análisis de regresión en el que participa una variable
independiente y una variable dependiente, y en el que la relación entre estas
variables se aproximan mediante una línea recta.
34. Regresión polinómica: Es un tipo especial de regresión múltiple donde
aparecen como variables independientes una única variable y potencias de
ésta (al cuadrado, al cubo).
35. Regresión: Técnica estadística que relaciona una variable dependiente (y)
con la información suministrada por otra variable independiente (x); ambas
variables deben ser continuas. Si asumimos relación lineal, utilizaremos la
regresión lineal simple. Entre las restricciones de la RLS se incluyen: Los
residuos deben ser normales; las observaciones independientes; la
dispersión de los residuos debe mantenerse a lo largo de la recta de
regresión.
36. Residual estandarizado: valor obtenido al dividir un residual entre su
desviación estándar.
37. Residual i: diferencia que existe entre el valor observado en la variable
dependiente y valor pronosticado empleando la ecuación de regresión
estimada; para la observación i, el residual i es yi-ẏ1.
38. SPEARMAN (rho de Spearman): Coeficiente de correlación ordinal análogo
al coeficiente r de Pearson de correlación lineal.
39. Tabla ANOVA: en el análisis de varianza, tabal que se usa para resumir los
cálculos necesarios en la prueba F de significancia.
40. Variable aleatoria: Variable cuyo resultado varía según la muestra según una
distribución de probabilidad.
41. Variable continua: Aquella que puede tomar una infinidad de valores, de
forma que dados dos valores cualesquiera, también pueda tomar cualquier
valor entre dichos valores.
42. Variable dependiente: la variable que se predice o explicada. Se denota Y
43. Variable dependiente: variable que va a predecir.

Das könnte Ihnen auch gefallen