Beruflich Dokumente
Kultur Dokumente
estadísticas
2
Una variable
Una variable
categórica
Prueba binomial
(Dicotómica)
Situaciones de acierto-error, verdadero-
falso,a favor-en contra,presencia-ausencia.
6
n1=número de éxitos P1= Proporción de éxitos
7
8
9
EJEMPLO
11
¿Puede afirmarse que el número de
recuperaciones que se obtienen con esa
terapia es mayor que el esperado por simple
recuperación espontánea?
12
Variable dicotómica: recuperación, no
recuperación
n= 20
π1= proporción poblacional de pacientes
recuperados
P1=9/20=.45
13
14
15
16
La conclusión es que los datos disponibles
no permiten afirmar que la proporción de
mejoras que se obtiene con la terapia sea
más alta que la proporción de mejoras que
se producen de forma espontánea.
17
EJEMPLO SPSS
18
Prueba Chi cuadrada de
Pearson sobre bondad
de ajuste
(Politómica)
Bondad de ajuste
20
Bondad de ajuste
21
ni= frecuencias observadas
mi= frecuencias esperadas
22
Datos recogidos previamente, con respecto a
fumar, muestran que la población de
mexicanos mayores de 25 años se
distribuye:
.30 fumadores
.12 ex fumadores
.58 no fumadores
23
Queremos saber si la población adolescente
en México se comporta de la misma manera.
24
25
26
27
Puede concluirse que las frecuencias
observadas no se ajustan a las que se
derivan de las proporciones propuestas en la
hipótesis nula.
Es decir, no parece probable que la muestra
seleccionada proceda de una población
donde las proporciones de fumadores, ex
fumadores y no fumadores sean .30,.12 y .
58 respectivamente. 28
29
Una variable
cuantitativa basada
en el centro
Prueba t de
Student para una
muestra
Sirve para tomar decisiones acerca del valor
poblacional de la media de una variable.
Permite responder a preguntas del tipo
¿Puede afirmarse que el cociente intelectual
medio de un determinado colectivo es
mayor que 100?
32
¿Es cierto que el peso medio de los recién
nacido de madres fumadores no alcanza los
2.5kg?
33
T de Student sirve para contrastar hipótesis
sobre el parámetro media ,asumiendo
condiciones de independencia entre
observaciones y normalidad de la población
muestreada.
34
Supongamos utilizamos un método de educación
tradicional en una escuela, se obtiene una media de
6 en determinada prueba. Llega un experto y propone
un nuevo método. La escuela está dispuesta a
adoptar el nuevo método siempre y cuando el
rendimiento no que se obtenga no sea menor al que
se tenía anteriormente.
Se hace el respectivo tratamiento y la respectiva
medida. 35
Se obtuvo una media 5 y una desviación
típica de 1.3
Con este resultado y considerando que en la
distribución de los datos no se da ni fuerte
asimetría ni valores atípicos ¿Qué decisión
deberían tomar?
36
37
38
39
Como -3.45 <-1.72 se rechaza H0. Por tanto,
puede concluirse que el promedio obtenido
con el nuevo método es significativamente
menor que el que se venía obteniendo con el
método actual; en consecuencia no parece
haber justificación para adoptar el nuevo
método.
40
41
Prueba de
Wilcoxon para
una muestra
T de Student sirve para contrastar hipótesis
sobre el parámetro media ,asumiendo
condiciones de independencia entre
observaciones y normalidad de la población
muestreada.
43
Esas condiciones no siempre se dan.
No siempre se cumple normalidad y
tampoco se es posible tener muestras muy
grandes.
44
Wilcoxon permite contrastar hipótesis sobre
el centro de una variable cuantitativa sin
necesidad de asumir normalidad.
45
Algunos datos sugieren que el peso de los
recién nacidos de las madres fumadoras es
más bajo que el de los recién nacidos de
madres no fumadoras.
46
Mediana= 2.18
47
48
49
Como el valor del estadístico del contraste
(36) es mayor que el punto crítico (26) , se
mantiene H0. Por tanto, los datos no aportan
evidencia suficiente para pensar que la
mediana (la media si asumimos simetría del
peso de los recién nacidos de madres
fumadoras es menor que 2.5Kg.
50
51
Una variable
cuantitativa basada
en la dispersión
Contraste sobre
una varianza
Habitualmente dirigimos nuestra atención al
centro de la distribución (t de student o
Wilcoxon)
54
El centro no siempre informa acerca de los
cambios que se producen en un conjunto de
datos.
Ejemplo, Sabemos que el CI se distribuye
normalmente con media 100 y desviación
típica 15.
55
También sabemos que los sujetos afectados
de problemas perceptivos disminuyen su
rendimiento en algunas tareas que incluyen
las pruebas de CI.
56
Supongamos que el CI medio de una
determinada población de sujetos con
problemas perceptivos vale 90 con una
desviación típica de 10. Y supongamos que
un psicólogo está convencido de que sabe
como entrenar a estos sujetos para mejorar
su CI.
57
Para comprobarlo selecciona una muestra
aleatoria de esa población, aplica
entrenamiento y al medir el CI de los sujetos
encuentra una media de 90 y una desviación
típica de 12.6.
58
Si comparamos medias no encontraríamos
diferencias.
Hay desviaciones típicas distintas, en el
grupo experimental hay mayor desviación
típica,algunos puntajes aumentaron algunos
disminuyeron.
59
Esta prueba no determina qué tipo de
sujetos se benefician o empeoran o por qué
razón ocurre esto.
60
La población general CI: media 90 y d.e. 15
Población problemas perceptivos CI: media
90 y d.e. 10
n=25
Media del grupo experimental: 90
Desviación estándar grupo experimental:
12.6
61
62
63
Puesto que el valor del estadístico del
contraste (28.1) es mayor que el punto
crítico (36.42) se rechaza H0. Por tanto, la
varianza de las puntuaciones ha aumentado
con el entrenamiento. El aumento de la
varianza en un conjunto de datos cuya
media no cambia está indicando que unas
puntuaciones han aumentado y otras han
disminuido.
64
Una variable
cuantitativa basada
en la forma
Prueba Kolmogorov-
Smirnov sobre bondad
de ajuste
A las pruebas que permiten valorar la forma
de una distribución se les suele llamar
pruebas de bondad de ajuste, pues sirven
para valorar si la distribución de una
variable se ajusta o no (se parece o no) a
una determinada distribución de
probabilidad teórica.
67
Kolmogorov-Smirnov sirve para contrastar
hipótesis de bondad de ajuste con una
variable cuantitativa.
69
Retomemos los datos del pesos
70
¿Es razonable asumir que estos datos
proceden de una distribución normal con
media 2.5 y desviación típica de 1?
71
72
Las puntuaciones Yi son las mismas que los datos
originales.
La función de distribución empírica F(Yi) se obtiene
dividiendo la posición i de cada valor Y entre el valor de
puntuaciones
73
La función de probabilidad teórica F0(Yi) se ha
obtenido calculando la probabilidad acumulada hasta
cada valor Zi en la curva normal tipificada.
74
Como el valor del estadístico del contraste
(.30) es menor que el punto crítico (.349), se
mantiene H0.
Esto no significa que pueda afirmarse que la
distribución de la variable Yi es normal con
parámetros 2.5 y 1.
75
Pero si que con los datos disponibles es
razonable asumir que la distribución de la
variable Yi podría tener esas características
76
Dos variables
Dos variables
categóricas
Las categorías de las variables pueden ser o no las
mismas.
79
Cuando contamos con categorías distintas el
análisis suele dirigirse casi de forma
exclusiva al estudio de la relación entre las
variables mediante el contraste de la
hipótesis de independencia.
80
Cuando las categorías son iguales, además
de estudiar si existe relación, es posible y
suele interesar aspecto como:
homogeneidad marginal, asimetría absoluta,
simetría relativa, acuerdo, cuasi-
independencia.
81
Dos variables
categóricas
(Relacionarlas)
Prueba Chi cuadrada
de Pearson sobre
independencia
¿Existe relación entre dos variables
categóricas?
84
Se cuenta con una muestra aleatoria de 200
participantes a los cuales se les preguntó su
sexo y su comportamiento relacionado a
fumar.
85
86
87
Puesto que el valor obtenido en el
estadístico de contraste es mayor (9.95) que
el punto crítico (5.99) se rechaza H0.
Se puede concluir que la variable Sexo y
tabaquismo, no son independientes, o lo que
es lo mismo, están relacionadas.
88
Dos variables
categóricas
(Compararlas)
Prueba de
Homogeneidad
marginal
Anteriormente
91
Anteriormente estudiamos
independencia.
(60/80=.75), (30/120)=.25
92
Ahora no queremos
preguntarnos si hay relación,
queremos saber si la opinión
difiere antes y después.
93
En la hipótesis de independencia se
comparan proporciones que son
independientes entre sí.
94
HIPÓTESIS DE INDEPENDENCIA
El contraste de hipótesis de
independencia estaría
informando acerca de si
ambas opiniones están o
no relacionadas, lo cual
permitiría saber si las
personas que están a favor
de la eutanasia tienden o
no a estar a favor del
aborto. 95
HIPÓTESIS DE HOMOGENEIDAD MARGINAL
El contraste de la hipótesis
de homogeneidad marginal
estaría informando acerca
de su la proporción de
personas que están a favor
de la eutanasia difiere de la
proporción de personas que
están a favor del aborto.
96
HIPÓTESIS DE HOMOGENEIDAD MARGINAL
Es una hipótesis de
simetría que permite
valorar el cambio : indica si
el número de personas que
cambian en una dirección
difiere del número de
personas que cambia en la
otra dirección.
97
En la hipótesis de homogeneidad marginal
se están comparando dos proporciones
relacionadas
98
Prueba Mcnemar
(Dos variables
dicotómicas)
▪ Prueba de homogeneidad marginal
referida a dos variables dicotómicas
100
▪ 250 sujetos con su preferencia entre dos
líderes políticos A y B
▪ Mediciones antes y después de un debate
político
101
▪ Queremos saber si las preferencias de los
sujetos han cambiado tras el debate, es
decir, si la proporción de personas que
prefieren al líder político A y la de
personas que prefieren al líder B son o no
las mismas después del debate.
102
103
104
▪ Puesto que el estadístico del contraste
(20,01) es mayor que el punto crítico
(3.84) se rechaza H0. Puede concluirse
que la proporción de personas que
prefiere al líder A en el momento antes
difiere de esa misma proporción en el
momento después (Han pasado de
Pt1=70/250=.28 a Pt2=112/250=.45)
105
Prueba Mcnemar-Bowker
(Dos variables
politómicas)
En el caso de que las variables tengan más
de dos categorías, la prueba de simetría
puede contrastarse aplicando una
modificación del estadístico de McNemar
propuesta por Bowker:
107
108
109
Este resultado permite rechazar la hipótesis
de simetría y concluir que los cambios de
preferencia no se reparten de igual forma
entre los tres líderes.
110
Si se quisiese averiguar qué pauta siguen los
cambios observados, hacia que líder o
líderes se dirigen los cambios en las
preferencias entonces se se debería de
contrastar la hipótesis de simetría con cada
pareja de líderes (A-B,A-C,B-C)
111
Dos variables
categóricas
(Relacionarlas)
Índice de riesgo
relativo
Anteriormente habíamos visto situaciones
como: medir la misma variable dos veces, o
en pares de sujetos, o medir dos variables
con las mismas categorías.
114
El interés ahora será estudiar la relación
entre dos variables dicotómicas distintas.
115
Estamos interesados en analizar el grado de
relación existente entre una variable
dicotómica a la que llamaremos factor
(tabaquismo) y otra variable dicotómica a la
que llamaremos desenlace o respuesta
(infarto).
116
117
Se cuenta con este tipo de datos en estudios
longitudinales: hacia delante o hacia atrás.
118
Los estudios prospectivos o de cohorte
(hacia delante) se clasifica a los sujetos en
dos grupos dependiendo de la presencia o
ausencia de algún factor de interés y se
hace seguimiento durante un periodo de
tiempo para determinar la proporción de
sujetos de cada grupo en los que se da el
desenlace.
119
En los estudios retrospectivos o de casos y
controles (hacia atrás) se forman dos grupos
de sujetos a partir de la presencia o
ausencia de la respuesta o desenlace de
estudio y se hace seguimiento de los
eventos anteriores intentando encontrar
información sobre la proporción en la que
aparece en cada grupo un determinado
factor de interés.
120
RIESGO RELATIVO
121
Índice de Riesgo Relativo
122
Índice de Riesgo Relativo
123
Un riesgo relativo de 1 indica que la
proporción de desenlaces es la misma en
ambos grupos.
Un valor mayor a 1 indica que la proporción
de desenlaces entre los sujetos expuestos es
mayor.
Un valor menor a 1 indica que la proporción
de desenlaces entre los sujetos no expuestos
es mayor. 124
Por ejemplo, un Índice de riesgo relativo
igual a 5 indica que la proporción de
desenlaces para los sujetos expuestos es
cinco veces mayor que para los sujetos no
expuestos.
125
PORCENTAJE DE RIESGO ATRIBUBILE O FRACCIÓN ETIOLÓGICA
126
Dado que en el grupo de no expuestos
también se observan desenlaces, la simple
incidencia en el grupo de expuestos no sirve
como cuantificación directa del porcentaje
de desenlaces atribuibles.
127
El riesgo atribuible se obtiene restando la
proporción de desenlaces de ambos grupos.
128
El riesgo atribuible
=.12-.04=.08
El porcentaje de
riesgo atribubile
=100(.08)/.12=67%
129
Una variable
categórica y una
variable cuantitativa
Si la categórica es
de dos niveles
Prueba T de student
para dos muestras
independientes
ESTA PRUEBA YA LA HABÍAMOS VISTO
ANTERIORMENTE
133
El contraste de esta hipótesis se traduce en
la posibilidad de comparar dos grupos en
una variable cuantitativa.
134
Se utiliza una tipificación de la diferencia entre las
medias muestrales.
135
Se están comparando las medias de dos
poblaciones a partir de las medias
muestrales obtenidas en muestras aleatorias
extraídas de esas poblaciones.
136
Es necesario que las poblaciones
muestreadas sean normales.
137
Aumentar el puntaje de niños en una
prueba Raven a través de entrenamiento.
138
139
¿Permiten estos datos afirmar que los
sujetos entrenados rinden mejor en el test
Raven que los sujetos no entrenados?
140
141
142
Se puede concluir que el promedio de los
sujetos entrenados es significativamente
más alto que el de los sujetos no
entrenados.
143
Prueba de Mann-
Whitney
La prueba de Mann-Whitney sirve al igual
que la T de Student para muestras
independientes.
145
Representa una excelente alternativa
cuando se incumple el supuesto de
normalidad o cuando no es apropiado utilizar
la prueba T porque el nivel de medida de la
variable cuantitativa es ordinal.
146
Las muestras deben de ser aleatorias e
independientes.
147
S1 representa la suma de los rangos
asignados a la muestra Y1
S2 la suma de los rangos asignados a la
muestra Y2 148
Si asumimos que las dos muestras se han
extraído de la misma población o de dos
poblaciones idénticas, cabe esperar que S1 y
S2 sean aproximadamente iguales.
150
151
152
El valor de S1 es mayor que el punto cr´tico
(127) por lo tanto se rechaza la hipótesis nula.
156
Seguimos en la situación en la que una
variable categórica define grupos y tenemos
una variable cuantitativa que queremos
comparar entre los grupos.
157
Sirve para valorar el efecto de varios
tratamientos sobre una variable cuantitativa
o para comparar varios grupos en alguna
medida cuantitativa de interés.
158
Normalmente se hablaría de Análisis de
varianza de un factor pero este requiere que
se den condiciones de normalidad de las
poblaciones muestreadas, igualdad de las
varianza poblacionales, nivel de medida
intervalar o de razón.
159
Kruskal-Wallis no necesita asumir normalidad
y permite trabajar con datos ordinales.
160
161
162
163
164
Puesto que el valor del estadístico del
contraste (11.94) es mayor que el punto
crítico (5.99) se rechaza H0. Concluyendo
que el rendimiento medio de las tres
poblaciones comparadas no es el mismo.
165
Dos variables
cuantitativas
(relacionarlas)
Coeficientes de
correlación
Coeficiente de
correlación de
Pearson
Dado que se basa en la covarianza,la
magnitud del coeficiente de correlación en
valor absoluto mide el grado de relación
lineal.
Cuando toma un signo positivo se habla de
una relación lineal positiva, cuando toma un
signo negativo se habla de una relación
lineal negativa.
169
Un valor próximo a 0 indica la no existencia
de relación lineal.
170
171
172
173
Clusters
174
Coeficiente de
correlación de
Spearman