Beruflich Dokumente
Kultur Dokumente
Tópicos de Estatística
Paula Marta Bruno, Ana Isabel Carita, Ana Diniz, Inês Gonçalves, Júlia Teles
12 Regressão linear
12.1. Introdução ............................................................................................................. 99
12.2. Regressão linear simples ....................................................................................... 100
12.2.1. Modelo ....................................................................................................... 105
12.2.2. Inferência estatística sobre os coeficientes de regressão ............................. 105
12.2.3. Validação de pressupostos ......................................................................... 111
12.3. Regressão linear múltipla ..................................................................................... 111
12.3.1. Modelo ....................................................................................................... 111
12.3.2. Inferência estatística sobre os coeficientes de regressão ............................. 115
12.3.3. Validação de pressupostos ......................................................................... 117
12.3.4. Métodos stepwise para seleção de variáveis ............................................... 118
12.4. Ilustrações com SPSS ............................................................................................. 120
Bibliografia
Capítulo 7
Inferência estatística para duas populações
7.1. Introdução
Alguns dos métodos de inferência apresentados são ilustrados através de aplicações com
o software estatístico SPSS.
Estatística II
Sejam X11, X12, , X1n1 e X 21, X 22, , X 2n2 duas amostras aleatórias independentes, de
dimensões n1 e n2 , provenientes de duas populações X1 e X 2 , com E X1 1 e
E X 2 2 , respetivamente.
Uma estimativa pontual para 1 2 é x 1 x 2 .
Tendo em conta que a diferença entre variáveis aleatórias normais independentes tem
distribuição normal e que
E X1 X 2 E X1 E X 2 1 2
e
12 22
var X1 X 2 var X1 var X 2 ,
n1 n2
então a distribuição da diferença entre médias amostrais é
2 2
X1 X 2 N 1 2, 1 2 ,
n1 n2
o que é equivalente a
X1 X2 1 2
Z N 0,1 .
12 22
n1 n2
2
Inferência estatística para duas populações
Hipóteses a testar:
H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
Estatística de teste:
X1 X2 0
Z
12 22
n1 n2
que, sob a validade de H0 , tem distribuição N 0,1 .
Regra de decisão:
3
Estatística II
Exemplo 7.1
Admite-se que as alturas (em metros) de indivíduos adultos do sexo masculino em
dois países P1 e P2 seguem distribuições normais com valores médios 1 e 2 ,
respetivamente, e a mesma variância 2 0.0064 m2 . A informação obtida em
duas amostras independentes recolhidas nos referidos países é
n1 18, x1 1.68 m e n2 15, x 2 1.71 m .
Resolução:
Sejam as variáveis aleatórias:
X1 – altura de um indivíduo adulto do sexo masculino no país P1 ,
X 2 – altura de um indivíduo adulto do sexo masculino no país P2 .
X1 N 1, 0.08 , X 2 N 2, 0.08 , X1 e X 2 independentes.
4
Inferência estatística para duas populações
18 15
18
1.681.71 1.96 0.0064 0.0064 , 1.681.71 1.96 0.0064 0.0064
15
,
donde obtemos o intervalo 0.085 , 0.025 .
Nota:
Num teste de hipóteses bilateral,
H0 : 1 2 0 vs H1 : 1 2 0
não rejeitamos a hipótese nula, ao nível de significância , se e só se o intervalo a
100 1 % de confiança para 1 2 contém o ponto 0.
X1 X2 1 2
T tn1 n2 2
1 1
Sp
n1 n2
onde
1 1 1 1
x1 x 2 t n n 2;1/2 s p , x1 x 2 tn1 n2 2;1/2 s p
1 2
n1 n2 n1 n2
5
Estatística II
Hipóteses a testar:
H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
Estatística de teste:
X1 X2 0
T
1 1
Sp
n1 n2
que, sob a validade de H0 , tem distribuição t de Student com n1 n2 2 graus
de liberdade.
Regra de decisão:
Nota:
Este teste de comparação de valores médios é vulgarmente conhecido como teste t
para amostras independentes.
Exemplo 7.2
Um investigador está interessado em comparar duas populações de crianças, A e
B , relativamente à média da idade com que começam a andar. O investigador
admite que as idades (em meses) com que as crianças das duas populações
começam a andar são variáveis aleatórias com distribuição normal com valores
6
Inferência estatística para duas populações
idade criança A 12.0 13.3 11.8 11.7 12.7 11.0 12.0 12.1 10.6 11.7 11.2 11.7
idade criança B 12.2 12.5 13.1 13.7 14.0 12.5 11.8 13.8 14.0 11.5 13.7 12.9
Resolução:
Sejam as variáveis aleatórias:
X A – idade com que uma criança da população A começa a andar,
X B – idade com que uma criança da população B começa a andar.
X A N A, A , X B N B , B , com A e B desconhecidos e X A e X B
independentes.
7
Estatística II
8
Inferência estatística para duas populações
Estatística de teste:
X1 X2 0
T
S12 S22
n1 n2
Regra de decisão:
ˆ
sB
nA nB
12 12
0.518 0.770 2
21.189 ;
sA4 sB4 0.5182 0.7702
nA2 nA 1 nB2 nB 1 122 11 122 11
9
Estatística II
11.81712.975 2.080
0.518 0.770
12
12
, 11.81712.975 2.080
0.518 0.770
12
12
,
donde obtemos o intervalo 1.839 , 0.477 .
Sejam X1 e X 2 variáveis aleatórias com distribuições não normais, tais que E X1 1 ,
E X 2 2 e var X1 12 , var X 2 22 finitas, com n1 30 e n2 30 .
Atendendo ao teorema limite central tem-se
10
Inferência estatística para duas populações
Hipóteses a testar:
H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
ou H0 : 1 2 0 vs H1 : 1 2 0
Estatística de teste:
X1 X2 0
Z
12 22
n1 n2
que, sob a validade de H0 , tem distribuição aproximada N 0,1 .
No caso de 1 e 2 serem desconhecidos, no cálculo do valor observado da
estatística de teste substitui-se 1 e 2 por s1 e s2 , respetivamente.
Regra de decisão:
Nota:
No caso em que as distribuições de X1 e X 2 são não normais e as dimensões de
ambas as amostras são superiores ou iguais a 30 podemos usar uma metodologia
paramétrica. A estatística de teste a utilizar é a estatística Z com distribuição
aproximadamente N 0,1 . Como para valores elevados do número de graus de
liberdade, a distribuição t de Student se aproxima da distribuição N 0,1 , o SPSS,
assim como outros softwares estatísticos, não utiliza a distribuição normal mas sim
a distribuição t de Student, o que embora não seja teoricamente correto, não traz
consequências práticas e simplifica a sua utilização.
11
Estatística II
Sejam X11, X12, , X1n1 e X 21, X 22, , X 2n2 duas amostras aleatórias independentes, de
dimensões n1 e n2 , provenientes de duas populações X1 e X 2 , tais que E X1 1 ,
E X 2 2 e var X1 12 , var X 2 22 , respetivamente.
Uma estimativa pontual para 12 / 22 é s12 / s22 .
22
s12 s12
2 ,
s2 F n 1,n 1;1 /2 s22 F n 1,n 1; /2
1 2 1 2
12
Inferência estatística para duas populações
Hipóteses a testar:
H0 : 12 22 vs H1 : 12 22
ou H0 : 12 22 vs H1 : 12 22
ou H0 : 12 22 vs H1 : 12 22
Estatística de teste:
S12 22 S12 S12
F 1
S 22 12 S 22 S 22
que, sob a validade de H0 , tem distribuição F de Fisher-Snedecor com n1 1
graus de liberdade no numerador e n2 1 graus de liberdade no denominador.
Regra de decisão:
Nota:
Uma alternativa mais robusta a este teste para a igualdade de variâncias é o teste
de Levene, que pode ser usado para estudar a igualdade de variâncias quer em
duas quer em mais de duas populações independentes e que pode ser efetuado por
exemplo no software SPSS.
13
Estatística II
Como
f 0.673 0.288 e f 0.673 3.474 ,
o que é equivalente a
0.518 0.518
, ,
0.770 3.474 0.770 0.288
14
Inferência estatística para duas populações
Nota:
Num teste de hipóteses bilateral,
A2 A2
H0 : 1 vs H1 : 1
B2 B2
não rejeitamos a hipótese nula, ao nível de significância , se e só se o intervalo a
100 1 % de confiança para A2 / B2 contém o ponto 1.
Hipóteses a testar:
H0 : As distribuições dos ranks das duas populações são idênticas
vs
H1 : As distribuições dos ranks das duas populações não são idênticas.
Seja n1 a menor das dimensões das duas amostras, n2 a dimensão da outra amostra e
N n1 n2 a dimensão da amostra constituída pelas observações das duas amostras
combinadas. Começamos por atribuir ordens, no sentido crescente, à amostra combinada
x1:N , x 2:N , , x N :N .
Caso exista empates atribui-se a cada uma das observações empatadas o respetivo rank
médio.
Estatística de teste:
Tn ,n ranks das observações da amostra de dimensão n1 na amostra combinada .
1 2
15
Estatística II
Tn1,n2 tem, sob a validade de H0 , uma distribuição exata, com pontos críticos
tabelados por Wilcoxon-Mann-Whitney (tabela não disponibilizada).
Regra de decisão:
Nas tabelas do teste de Wilcoxon-Mann-Whitney são dados os p-values. A partir
do valor p , a regra de decisão ao nível de significância consiste em rejeitar H 0
se p .
Atendendo ao facto da estatística de teste ser uma soma, o teorema limite central
permite, sob certas condições (considerar n1 8 ou n2 8 é prática usual), efetuar a
aproximação da distribuição de Tn1,n2 à distribuição normal com valor médio e variância
dados, respetivamente, por
N 1
E Tn1,n2 n1
2
e
n1n2 N 1
var Tn1,n2 .
12
Deste modo,
Z
Tn ,n E Tn ,n
1 2
1 2
var Tn ,n
1 2
tem, sob a validade de H0 , distribuição aproximada N 0,1 .
No caso de haver empates, a variância de Tn1,n2 deve ser corrigida,
g
n1n2 N 1 n1n2
var Tn1,n2
12N N 1
12
i 1 i i 1 ,
i 1
Notas:
1. Em geral, os softwares estatísticos fornecem os p-values deste teste, quer para a
estatística Tn1,n2 (p-value exato), quer para a estatística Z (p-value aproximado).
Sempre que se dispõe de valores exatos são estes que devem ser utilizados.
2. Nesta disciplina não serão utilizadas as tabelas com os pontos críticos do teste
de Wilcoxon-Mann-Whitney. Para efetuar este teste recorre-se à aproximação à
distribuição normal ou à utilização das tabelas do output do software SPSS.
16
Inferência estatística para duas populações
Exemplo 7.3
Para comparar as alturas dos alunos da FMH e do ISA foram aleatoriamente
recolhidas duas amostras de alturas (em cm) de 10 alunos da FMH e de 13 alunos
do ISA, respetivamente. Os valores registados são apresentados na tabela
altura aluno FMH 172 174 173 181 179 166 176 180 177 150
altura aluno ISA 168 179 171 182 184 178 179 183 175 185 182 186 179
Resolução:
Considere as variáveis aleatórias:
X FMH – altura de um aluno da FMH,
X ISA – altura de um aluno do ISA.
Efetuámos, no software SPSS, testes de normalidade para as variáveis X FMH e
X ISA (ver Secção 7.4) e verificámos que para a variável X FMH essa condição não é
satisfeita. Assim, na impossibilidade de efetuar o teste t para amostras
independentes vamos utilizar o teste de Wilcoxon-Mann-Whitney.
Pretendemos testar as hipóteses:
H0 : As distribuições dos ranks de X FMH e X ISA são idênticas
vs
H1 : As distribuições dos ranks de X FMH e X ISA não são idênticas.
altura aluno FMH 172 174 173 181 179 166 176 180 177 150
rank altura aluno FMH 5 7 6 17 13.5 2 9 16 10 1
altura aluno ISA 168 179 171 182 184 178 179 183 175 185 182 186 179
rank altura aluno ISA 3 13.5 4 18.5 21 11 13.5 20 8 22 18.5 23 13.5
17
Estatística II
2
10 13 24 10 13
var T10,13
12 23 22
12
i 1 i i 1
i 1
Nota:
Tal como nos testes paramétricos, também é possível enunciar e efetuar testes não
paramétricos unilaterais.
7.3.1. Introdução
18
Inferência estatística para duas populações
Sejam X11, X12, , X1n e X 21, X 22, , X 2n duas amostras aleatórias emparelhadas, de
dimensão n , provenientes de duas populações X1 e X 2 com valores médios 1 e 2 e
variâncias 12 e 22 , respetivamente.
Quando pretendemos fazer inferência paramétrica para a diferença de valores médios,
consideramos uma nova variável aleatória D X1 X 2 , tal que E D D e
var D D2 , sendo, em geral, D2 desconhecido.
Uma estimativa pontual para D 1 2 é d x1 x 2 .
19
Estatística II
sD sD
d t , d t
n 1;1 /2 n 1;1 /2
n n
Hipóteses a testar:
H0 : D 0 vs H1 : D 0
ou H0 : D 0 vs H1 : D 0
ou H0 : D 0 vs H1 : D 0
Estatística de teste:
D 0
T
SD
n
que, sob a validade de H0 , tem distribuição t de Student com n 1 graus de
liberdade.
Regra de decisão:
Notas:
1. Este teste de comparação de valores médios é vulgarmente conhecido como
teste t para amostras emparelhadas.
2. Se X1 e X 2 são variáveis aleatórias com distribuição normal, então
D X1 X 2 é uma variável aleatória com distribuição normal. Contudo, pode
acontecer que alguma ou as duas variáveis X1 e X 2 não tenham distribuição
normal, e a variável aleatória D tenha essa distribuição. Para realizar o teste t
20
Inferência estatística para duas populações
Exemplo 7.4
O peso (em kg) de estudantes que participam num programa de emagrecimento é
registado no início e no final desse programa. Numa amostra de dimensão 12,
obtiveram-se as seguintes observações:
estudante 1 2 3 4 5 6 7 8 9 10 11 12
peso inicial 69.0 71.0 74.2 65.8 74.2 73.6 76.1 71.7 68.5 72.9 77.1 64.4
peso final 67.0 71.5 72.8 68.0 73.9 74.4 72.4 71.8 67.9 72.7 76.2 64.3
Resolução:
Sejam as variáveis aleatórias:
X1 – peso de um estudante no início do programa de emagrecimento,
X 2 – peso de um estudante no final do programa de emagrecimento.
Considere que a alteração de peso de um estudante, isto é, peso inicial menos peso
final, é uma variável aleatória D X1 X 2 com distribuição N D , D , com D
desconhecido. Os valores observados da variável aleatória D são:
estudante 1 2 3 4 5 6 7 8 9 10 11 12
d 2.0 −0.5 1.4 −2.2 0.3 −0.8 3.7 −0.1 0.6 0.2 0.9 0.1
12 12 2
12 di2 di
i 1
i 1 12 26.7 (5.6)2
sD 2.1897 1.480 .
12 11 12 11
21
Estatística II
portanto
0.467 2.201 1.480 , 0.467 2.201 1.480 ,
12 12
sD sD
d z , d z
1 /2 1 /2
n n
22
Inferência estatística para duas populações
Hipóteses a testar:
H0 : D 0 vs H1 : D 0
ou H0 : D 0 vs H1 : D 0
ou H0 : D 0 vs H1 : D 0
Estatística de teste:
D 0
Z
SD
n
que, sob a validade da hipótese nula, tem distribuição aproximada N 0,1 .
Regra de decisão:
Nota:
No caso em que a distribuição de D é não normal e a dimensão da amostra das
diferenças é superior ou igual a 30 podemos usar uma metodologia paramétrica. A
estatística de teste a utilizar é a estatística Z com distribuição aproximadamente
N 0,1 . Como para valores elevados do número de graus de liberdade, a
distribuição t de Student se aproxima da distribuição N 0,1 , o SPSS, assim como
outros softwares estatísticos, não utiliza a distribuição normal mas sim a
distribuição t de Student, o que embora não seja teoricamente correto, não traz
consequências práticas e simplifica a sua utilização.
23
Estatística II
seguintes situações: (i) as amostras terem dimensão reduzida; (ii) a amostra das
diferenças não ser proveniente de uma população normal; (iii) as variáveis estarem numa
escala ordinal.
Sejam X11, X12, , X1n e X 21, X 22, , X 2n duas amostras aleatórias emparelhadas, de
dimensão n , provenientes de duas populações X1 e X 2 . Podemos considerar, tal como
no teste paramétrico, uma variável aleatória D X1 X 2 .
Hipóteses a testar:
H0 : As distribuições dos ranks das duas populações são idênticas
vs
H1 : As distribuições dos ranks das duas populações não são idênticas.
O teste de Wilcoxon utiliza as ordens (ranks) das diferenças em vez das próprias
diferenças. Os valores absolutos das diferenças são ordenados crescentemente, sendo
depois atribuído ao rank o respetivo sinal (positivo ou negativo). Se a hipótese nula for
verdadeira é de esperar que entre as maiores diferenças umas sejam positivas e outras
negativas. Deste modo, somando os ranks de sinal positivo e somando os de sinal
negativo, é de esperar que, sob a validade de H0 , essas somas sejam idênticas. Pelo
contrário, as duas somas serem muito distintas é um indicador de diferença entre as
duas populações. Assim, considera-se
Estatística de teste:
24
Inferência estatística para duas populações
Regra de decisão:
Nas tabelas do teste de Wilcoxon são dados os p-values. A partir do valor p , a
regra de decisão ao nível de significância consiste em rejeitar H 0 se p .
Atendendo ao facto da estatística de teste ser uma soma, o teorema limite central
permite, sob certas condições (considerar n 15 é uma prática usual), efetuar a
aproximação da distribuição de T à distribuição normal com valor médio e variância
dados, respetivamente, por
n n 1
E T
4
e
n n 12n 1
var T .
24
Assim,
Z
T E T
var T
Notas:
1. Em geral, os softwares estatísticos fornecem os p-values deste teste, quer para a
estatística T (p-value exato), quer para a estatística Z (p-value aproximado).
Sempre que se dispõe de valores exatos são estes que devem ser utilizados.
2. Nesta disciplina não serão utilizadas as tabelas com os pontos críticos do teste
de Wilcoxon. Para efetuar este teste recorre-se à aproximação à distribuição
normal ou à utilização das tabelas do output do software SPSS.
3. No software SPSS, por vezes, a aproximação é feita com base na estatística T .
25
Estatística II
Exemplo 7.5
Com o objetivo de comparar os tempos (em segundos) despendidos por crianças na
realização de uma tarefa antes e depois de um processo de aprendizagem, foram
aleatoriamente escolhidas 10 crianças para participar num estudo, tendo cada uma
delas sido submetida a uma avaliação no desempenho dessa tarefa. Depois de um
mês de aprendizagem foram novamente avaliadas no desempenho da mesma tarefa.
Os resultados constam da tabela
criança 1 2 3 4 5 6 7 8 9 10
tempo antes da aprendizagem 68 60 41 90 86 72 56 61 87 80
tempo depois da aprendizagem 69 57 39 89 88 74 54 59 77 81
Resolução:
Sejam as variáveis aleatórias:
X1 – tempo despendido por uma criança na realização da tarefa antes do
processo de aprendizagem,
X 2 – tempo despendido por uma criança na realização da tarefa depois do
processo de aprendizagem.
Considere que a alteração de tempo de uma criança, isto é, tempo inicial menos
tempo final, é uma variável aleatória D X1 X 2 . Os valores observados da
variável aleatória D são:
criança 1 2 3 4 5 6 7 8 9 10
d −1 3 2 1 −2 −2 2 2 10 −1
criança 1 10 4 5 6 3 7 8 2 9
d −1 −1 1 −2 −2 2 2 2 3 10
rank | d | 2 2 2 6 6 6 6 6 9 10
sinal d
26
Inferência estatística para duas populações
Assim,
T 2 6 6 6 9 10 39 e T 2 2 6 6 16 .
Consultando uma tabela da distribuição exata da estatística de teste de Wilcoxon
(fora do âmbito desta disciplina) encontramos o p-value deste teste de hipóteses
fazendo
p 2 P T 39 2 0.14 0.28 .
Como p 0.28 0.05 , não rejeitamos a hipótese nula para 0.05 , ou seja, não
existe evidência estatística de que tenha havido alteração no tempo de desempenho
da tarefa depois do processo de aprendizagem.
O valor médio de T é
10 (10 1)
E T 27.5
4
1
96.25 1 1 1 1 2 1 2 2 1 .
48 1
Como há 3 observações empatadas no primeiro grupo de empates então 1 3 . Do
mesmo modo, como há 5 observações empatadas no segundo grupo de empates,
então 2 5 . Assim,
1
var T 96.25 2 3 4 4 5 6 93.25
48
e a aproximação é dada por
aprox . aprox .
T N 27.5, 93.25 , isto é, Z
T 27.5
93.25
N 0,1 .
27
Estatística II
Nota:
Tal como no teste de Wilcoxon-Mann-Whitney, também para o teste não
paramétrico de Wilcoxon é possível enunciar e efetuar testes de hipóteses
unilaterais.
Exemplo 7.2
Recordemos que
X A – idade com que uma criança da população A começa a andar,
X B – idade com que uma criança da população B começa a andar.
Comecemos por averiguar se podemos considerar válidas as suposições de
normalidade das variáveis X A e X B .
Utilizando o software estatístico SPSS, obtemos o output
Explore
população
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
T-Test
Group Statistics
29
Estatística II
Exemplo 7.3
Recordemos que
X FMH – altura de um aluno da FMH,
X ISA – altura de um aluno do ISA,
e que pretendemos comparar as alturas dos alunos da FMH e do ISA.
Comecemos por averiguar se podemos considerar válidas as suposições de
normalidade das variáveis X FMH e X ISA .
Utilizando o software estatístico SPSS, obtemos o output
Explore
faculdade
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
30
Inferência estatística para duas populações
NPar Tests
Mann-Whitney Test
Ranks
a
Test Statistics
altura
Mann-Whitney U 31,500
Wilcoxon W 86,500
Z -2,083
Asymp. Sig. (2-tailed) ,037
b
Exact Sig. [2*(1-tailed Sig.)] ,036
Exact Sig. (2-tailed) ,037
Exact Sig. (1-tailed) ,018
Point Probability ,001
a.
b.
Exemplo 7.4
Recordemos que
X1 – peso de um estudante no início do programa de emagrecimento,
X 2 – peso de um estudante no final do programa de emagrecimento,
D X1 X 2 .
Pretendemos testar as hipóteses:
H0 : D 0 vs H1 : D 0 .
Começamos por testar as hipóteses
H0 : D tem distribuição normal vs H1 : D não tem distribuição normal .
Utilizando o software estatístico SPSS, obtemos o output
31
Estatística II
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
*
peso inicial - peso final ,135 12 ,200 ,962 12 ,818
*.
a.
T-Test
Paired Samples Statistics
N Correlation Sig.
Pair 1 peso inicial & peso final 12 ,928 ,000
Paired Differences
32
Inferência estatística para duas populações
Exemplo 7.5
Recordemos que
X1 – tempo despendido por uma criança na realização da tarefa antes do
processo de aprendizagem,
X 2 – tempo despendido por uma criança na realização da tarefa depois do
processo de aprendizagem,
D X1 X 2 ,
e que pretendemos comparar os tempos obtidos pelas crianças antes e depois da
aprendizagem.
Começamos por testar as hipóteses
H0 : D tem distribuição normal vs H1 : D não tem distribuição normal .
Utilizando o software estatístico SPSS, obtemos o output
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
a.
NPar Tests
N
a
Negative Ranks 4 4.00 16.00
Positive Ranks b
6 6.50 39.00
c
Ties 0
Total 10
a.
b.
c.
33
Estatística II
a
Test Statistics
Z -1.191 b
Asymp. Sig. (2-tailed) .234
Exact Sig. (2-tailed) .281
Exact Sig. (1-tailed) .141
Point Probability .035
a.
b.
34
Capítulo 8
Inferência estatística para mais de duas populações
com base em amostras independentes
8 Inferência estatística para mais de duas populações com base em amostras independentes
8.1. Introdução
Exemplo 8.1
O diretor de um estabelecimento de ensino pré-escolar pretende comparar o tempo
médio de execução, em quatro tarefas distintas, realizado por crianças com cinco
anos de idade. As crianças são selecionadas aleatoriamente para fazer parte do
estudo, sendo também aleatória a atribuição das tarefas. Deste modo,
constituem-se quatro grupos de crianças, cada um dos quais irá desempenhar uma
tarefa e regista-se os tempos (em minutos) de execução das tarefas.
Como fazer para averiguar se existe diferença significativa entre o tempo médio de
execução das quatro tarefas?
Estatística II
observações
tempo tarefa A 31 25 28 30 32 28 29 31 27
tempo tarefa B 24 26 27 25 30 32 28 27 29 25
tempo tarefa C 30 31 30 28 31 30 28 32
tempo tarefa D 25 27 26 23 21 22 24 22 26
Sejam X11, X12, , X1n1 , X 21, X 22, , X 2n2 , , Xk 1, Xk 2, , Xknk k amostras
aleatórias independentes, de dimensões n1 , n2 , , nk , provenientes de k populações
(ou grupos) com distribuição normal, X1 N 1, 1 , X 2 N 2, 2 , ,
Xk N k , k , respetivamente. Pretende-se testar
36
Inferência estatística para mais de duas populações com base em amostras independentes
Para inferir sobre os valores médios é necessário considerar a variabilidade global que
pode ser medida por
k ni k ni
2 2
SST Xij X Xij Xi Xi X
i 1 j 1 i 1 j 1
k ni k ni k
Xi j Xi ni Xi X
2 2
Xi j Xi 2 Xi X .
i 1 j 1 i 1 j 1 i 1
Xi j Xi 0 2 Xi X X ij Xi 0 ,
j 1 i 1 j 1
logo
k ni k
.
2 2
SST Xij Xi ni Xi X
i 1 j 1 i 1
37
Estatística II
SS B
k 1
F
2
Fk 1,N k ,
SSW
N k
2
Hipóteses a testar:
H0 : 1 2 k
vs
H1 : r s para algum par r , s com r , s 1, 2, , k e r s.
Estatística de teste:
SS B
MS B
F k 1
SSW MSW
N k
que, sob a validade de H0 , tem distribuição F de Fisher-Snedecor com k 1 e
N k graus de liberdade.
Regra de decisão:
Rejeitar H0 , ao nível de significância , se f Fk 1,N k ;1 , sendo f o valor
observado da estatística de teste e Fk 1,N k ;1 o quantil de probabilidade 1
da distribuição F de Fisher-Snedecor com k 1 graus de liberdade no numerador
e N k graus de liberdade no denominador.
38
Inferência estatística para mais de duas populações com base em amostras independentes
Nota:
Os parâmetros sobre os quais se está a fazer inferência são os valores médios, no
entanto, a estatística de teste é definida à custa da decomposição da variabilidade,
razão pela qual se chama a este método análise de variância.
2
SST Xij X Xij2 NX 2 ,
i 1 j 1 i 1 j 1
k k
n X
2
SS B ni Xi X i
2
i NX 2 ,
i 1 i 1
k ni k ni k
2
SSW Xij Xi Xij2 ni Xi2 .
i 1 j 1 i 1 j 1 i 1
1 x 11 x 12 x 1n1 n1 n
j 11 x 1 j x1
x 21 x 22 x 2n2 n2 n
j 2 1 x 2 j x2
grupos
2
k xk1 xk 2 x knk nk nk
j 1 x kj xk
N x ij x
No que respeita aos resultados, estes costumam ser apresentados sob a forma de um
quadro que designamos por tabela ANOVA, mais precisamente, one-way ANOVA
Total SST N 1
39
Estatística II
Resolução:
Sejam as variáveis aleatórias
Xi – tempo de execução da i -ésima tarefa realizada por uma criança de 5 anos,
em que Xi N i , , i A, B,C , D .
Pretendemos testar as hipóteses
H0 : A B C D
vs
H1 : pelo menos dois dos valores médios são diferentes.
Para calcular o valor observado da estatística de teste, é conveniente completar a
tabela de dados escrevendo
n
observações ni j
i
1 x ij xi
tempo tarefa A 31 25 28 30 32 28 29 31 27 9 261 29
tempo tarefa B 24 26 27 25 30 32 28 27 29 25 10 273 27.3
tempo tarefa C 30 31 30 28 31 30 28 32 8 240 30
tempo tarefa D 25 27 26 23 21 22 24 22 26 9 216 24
N 36 990 x 27.5
4
SS B ni x i2 N x 2 9 292 10 27.32 8 302 9 242 27225
i 1
27405.9 27225 180.9,
4 ni 4
SSW x ij2 ni x i2 27552 27405.9 146.1 .
i 1 j 1 i 1
40
Inferência estatística para mais de duas populações com base em amostras independentes
Como f 13.207 2.922 , rejeitamos a hipótese nula para 0.05 , isto é, para
este nível de significância podemos concluir que existe diferença significativa entre
pelo menos dois dos tempos médios de execução das tarefas.
Nota:
O exemplo apresentado é um exemplo meramente académico no sentido em que
apresenta uma situação pouco aconselhável para a aplicação da análise de
variância simples pelo facto das amostras terem dimensão reduzida. A razão para a
utilização destes dados prende-se com a necessidade de exemplificar os cálculos
associados ao método de análise de variância simples.
Quando verificamos que os k valores médios não são todos iguais, estamos interessados
em saber quais desses k valores médios são responsáveis pelas diferenças. Como já foi
referido, a aplicação de testes t de Student para a comparação de cada par de valores
médios não é correta, pois teríamos que efetuar um elevado número de testes, mais
precisamente C 2k , sendo difícil conhecer com exatidão o nível de significância global.
A solução para este problema consiste em formular testes de comparações múltiplas, que
permitem investigar onde se encontram as possíveis diferenças entre os k valores
médios, controlando simultaneamente o nível de significância global. O teste HSD
(honestly significant difference) de Tukey, o teste de Scheffé e o teste de Duncan são
alguns exemplos de testes de comparações múltiplas. Estes testes diferem no modo como
analisam as diferenças entre os valores médios e no método de controlo do nível de
significância. Em qualquer um destes testes, efetua-se
k! k k 1
C 2k
2! k 2 ! 2
Resolução:
Para testar a igualdade de variâncias
H0 : A2 B2 C2 D2
vs
H1 : pelo menos duas das variâncias são diferentes.
dij ni di
tempo tarefa A 2 4 1 1 3 1 0 2 2 9 1.778
tempo tarefa B 3.3 1.3 0.3 2.3 2.7 4.7 0.7 0.3 1.7 2.3 10 1.960
tempo tarefa C 0 1 0 2 1 0 2 2 8 1.000
tempo tarefa D 1 3 2 1 3 2 0 2 2 9 1.778
N 36 d 1.656
42
Inferência estatística para mais de duas populações com base em amostras independentes
Depois calcula-se
SST 146.1 36 1.6562 47.429 ,
Notas:
1. Sendo a homogeneidade de variâncias um pressuposto da ANOVA, o teste de
Levene deve ser efetuado antes do teste de análise de variância simples para
comparação de valores médios. Utilizaremos o software SPSS sempre que for
necessário efetuar o teste de Levene. A ilustração e a interpretação deste teste
são apresentadas na Secção 8.5.
2. Tal como para o teste t para amostras independentes, também para a análise
de variância simples, Welch propôs uma correção à estatística de teste no caso
em que falha a suposição de igualdade de variâncias. Utilizaremos o software
SPSS sempre que for necessário efetuar o cálculo da estatística de Welch.
3. O teste de Tukey pode ser uma opção para teste de comparações múltiplas
quando se verifica a igualdade de variâncias. Quando este pressuposto falha,
pode utilizar-se, por exemplo, o teste de Games-Howell. Utilizaremos o software
SPSS sempre que for necessário efetuar os testes de comparações múltiplas de
Tukey ou de Games-Howell.
43
Estatística II
Hipóteses a testar:
O teste de Kruskal-Wallis utiliza as ordens (ranks) das observações em vez das próprias
observações. Se a hipótese nula for verdadeira é de esperar que qualquer ordem possa ser
atribuída a qualquer uma das observações das k amostras. Se a hipótese nula não for
verdadeira, pelo menos uma das amostras tem ranks bastante distintos das restantes.
Estatística de teste:
k
12 Ri2
N N 1
H 3 N 1
i 1
ni
44
Inferência estatística para mais de duas populações com base em amostras independentes
k
12 Ri2
N N 1 ni
3 N 1
i 1
H g
l3 l
l 1
1
N3 N
Regra de decisão:
Rejeitar H0 , ao nível de significância , se H 2k 1;1 , sendo H o valor
observado da estatística de teste e 2k 1; o quantil de probabilidade da
distribuição qui-quadrado com k 1 graus de liberdade.
Exemplo 8.2
Um investigador pretende comparar a sociabilidade de alunos universitários de
diferentes áreas (Letras, Desporto e Ciências). Com esse objetivo, selecionou
aleatoriamente alunos de cada uma das três áreas e aplicou um teste padronizado
de sociabilidade, tendo obtido os scores (numa escala de 0 a 100)
Para 0.05, será que existe diferença entre os scores de sociabilidade de alunos
das três áreas?
Resolução:
Considere as variáveis aleatórias
X1 – score de sociabilidade de um aluno de Letras,
X 2 – score de sociabilidade de um aluno de Desporto,
X 3 – score de sociabilidade de um aluno de Ciências.
Neste caso k 3 , n1 5 , n2 6 , n 3 6 e N 17 .
Efetuando a ordenação da amostra combinada obtemos a seguinte tabela
45
Estatística II
R2 16 13 11 15 10 14 79 ,
R3 1 2 5 3 6 7 24 .
O valor observado da estatística de teste é
3
12 Ri2
H 3 18
17 18 i 1 ni
12 502 792 242
3 18 10.163.
17 18 5 6 6
46
Inferência estatística para mais de duas populações com base em amostras independentes
Notas:
1. Pela mesma razão que não fazemos vários testes t de Student para perceber
entre que grupos existem diferenças significativas quando se rejeita a hipótese
nula da análise de variância, também não é correto utilizar vários testes de
Wilcoxon-Mann-Whitney para detetar entre que grupos existem diferenças
significativas quando se rejeita a hipótese nula do teste de Kruskal-Wallis.
2. O software SPSS disponibiliza o teste de Dunn-Bonferroni que, no entanto, não é
tão potente quanto o de Conover e Iman.
Exemplo 8.1
Recordemos que
Xi – tempo de execução da i -ésima tarefa realizada por uma criança de 5 anos,
em que E Xi i e v a r Xi i2 , i A, B,C , D .
Pretendemos testar as hipóteses:
H0 : A B C D
vs
H1 : pelo menos dois dos valores médios são diferentes .
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
47
Estatística II
Oneway
Descriptives
tempo
N Mean Std. Deviation Std. Error Lower Bound Upper Bound Minimum Maximum
A 9 29,00 2,236 ,745 27,28 30,72 25 32
B 10 27,30 2,497 ,790 25,51 29,09 24 32
C 8 30,00 1,414 ,500 28,82 31,18 28 32
D 9 24,00 2,121 ,707 22,37 25,63 21 27
Total 36 27,50 3,057 ,509 26,47 28,53 21 32
tempo
ANOVA
tempo
48
Inferência estatística para mais de duas populações com base em amostras independentes
Ao testar
H0 : A B vs H1 : A B ,
obtém-se para a estatística de teste o valor de 1.7/0.982 1.732 , a que
corresponde o p-value p 0.325 .
Ao testar
H0 : A C vs H1 : A C ,
obtém-se para a estatística de teste o valor de 1.0/1.038 0.963 , a que
corresponde o p-value p 0.771 .
Ao testar
H0 : A D vs H1 : A D ,
obtém-se para a estatística de teste o valor de 5.0/1.007 4.964 , a que
corresponde o p-value p 0.001 .
49
Estatística II
Ao testar
H0 : B C vs H1 : B C ,
obtém-se para a estatística de teste o valor de 2.7/1.014 2.664 , a que
corresponde o p-value p 0.055 .
Ao testar
H0 : B D vs H1 : B D ,
obtém-se para a estatística de teste o valor de 3.3/0.982 3.361 , a que
corresponde o p-value p 0.010 .
Ao testar
H0 : C D vs H1 : C D ,
obtém-se para a estatística de teste o valor de 6.0/1.038 5.779 , a que
corresponde o p-value p 0.001 .
Assim, ao nível de significância de 5%, rejeita-se as hipóteses nulas A D
( p 0.001 0.05 ), B D ( p 0.010 0.05 ) e C D ( p 0.001 0.05 ),
concluindo-se que existe diferença significativa entre os tempos médios de execução
da tarefa D e os tempos médios de execução das outras três tarefas ( A , B e C ).
Exemplo 8.2
Recordemos que
X1 – score de sociabilidade de um aluno de Letras,
X 2 – score de sociabilidade de um aluno de Desporto,
X 3 – score de sociabilidade de um aluno de Ciências.
Atendendo às dimensões das amostras, tal como foi referido anteriormente, vamos
efetuar o teste de Kruskal-Wallis, testando as hipóteses
H0 : As distribuições dos ranks de X1, X 2 e X 3 são idênticas
vs
H1 : As distribuições dos ranks de X1, X 2 e X 3 não são idênticas.
Utilizando o software estatístico SPSS, obtemos o output
NPar Tests
Kruskal-Wallis Test
Ranks
50
Inferência estatística para mais de duas populações com base em amostras independentes
Chi-Square 10,163
df 2
b.
Ao testar
H0 : As distribuições dos ranks de X1 e X 2 são idênticas
vs
H1 : As distribuições dos ranks de X1 e X 2 não são idênticas
obtém-se para a estatística de teste o valor de −1.036, a que corresponde o p-value
p 0.901 .
Ao testar
H0 : As distribuições dos ranks de X1 e X 3 são idênticas
vs
H1 : As distribuições dos ranks de X1 e X 3 não são idênticas
obtém-se para a estatística de teste o valor de 1.962, a que corresponde o p-value
p 0.149 .
51
Estatística II
Ao testar
H0 : As distribuições dos ranks de X 2 e X 3 são idênticas
vs
H1 : As distribuições dos ranks de X 2 e X 3 não são idênticas
obtém-se para a estatística de teste o valor de 3.144, a que corresponde o p-value
p 0.005 .
Ao nível de significância de 5%, conclui-se que apenas existe diferença significativa
entre os scores de sociabilidade dos alunos de Desporto e Ciências.
Nota:
A obtenção do p-value exato para o teste de Kruskal-Wallis requer um esforço
computacional elevado, sendo, em geral, difícil de obter, pelo que se utiliza
habitualmente o p-value assintótico.
52
Capítulo 9
Inferência estatística para mais de duas populações
com base em medidas repetidas
9 Inferência estatística para mais de duas populações com base em medidas repetidas
9.1. Introdução
Exemplo 9.1
O diretor de um estabelecimento de ensino pré-escolar pretende comparar o tempo
médio de execução, em quatro tarefas distintas, realizado por crianças com 5 anos
de idade. As crianças são selecionadas aleatoriamente para fazer parte do estudo, e
cada uma das crianças irá desempenhar cada uma das tarefas por ordem também
aleatória.
Considere que no estudo participaram 8 crianças e designemos por A , B , C , D as
quatro tarefas. Os tempos de execução (em minutos) obtidos pelas crianças nas
tarefas foram os seguintes:
Estatística II
criança
1 2 3 4 5 6 7 8
tempo tarefa A 31 25 28 30 32 28 28 30
tempo tarefa B 24 26 27 25 30 32 28 27
tempo tarefa C 30 31 30 28 31 30 31 33
tempo tarefa D 25 27 26 23 21 22 26 25
Numa primeira análise, este exemplo parece idêntico ao Exemplo 8.1, no entanto, a
experiência foi planeada de forma bem distinta. No Exemplo 8.1 foram selecionadas 36
crianças, aqui apenas 8. No Exemplo 8.1 cada criança desempenhava apenas uma das
tarefas, aqui cada criança realiza as quatro tarefas. Neste caso, a análise a efetuar tem
que ter em conta o efeito do indivíduo, pois trata-se de uma experiência com medidas
repetidas.
Seja Xij , i 1,, k e j 1,, n , a variável aleatória que representa o valor observado
no i-ésimo nível do fator para o j-ésimo indivíduo. As variáveis Xij , com j 1,, n , são
independentes e identicamente distribuídas à variável Xi , sendo E Xi j E Xi i ,
para i 1,, k . Admita-se que as k amostras aleatórias são provenientes de uma
população com distribuição normal multivariada e que as variâncias das diferenças da
variável dependente entre cada par de níveis do fator são iguais.
Para averiguar se existe diferença nos valores médios de Xi entre os níveis do fator deve
testar-se, à semelhança do que acontece na análise de variância simples, as hipóteses
H0 : 1 2 k
vs
H1 : r s para algum par r , s com r , s 1, 2, , k e r s.
Tal como no Capítulo 8, para inferir sobre os valores médios precisamos considerar a
variabilidade global. O efeito médio global pode ser avaliado por
54
Inferência estatística para mais de duas populações com base em medidas repetidas
k n
1
X
kn Xi j
i 1 j 1
permite avaliar o efeito médio do nível i do fator. Então SSW pode ser decomposta em
duas parcelas
k n k n
2
2
SSW Xij X j Xij Xi Xi X X X j
i 1 j 1 i 1 j 1
k n k n k n
2 2
Xi X Xij Xi X j X 2 Xi X Xij Xi X j X .
i 1 j 1 i 1 j 1 i 1 j 1
55
Estatística II
logo
k k n
2 2
SSW n Xi X Xij Xi X j X .
i 1 i 1 j 1
Podemos escrever
SSW SS fator SS E ,
onde
k
,
2
SS fator n Xi X
i 1
k n
2
SS E Xij Xi X j X .
i 1 j 1
Representa-se por
SS B SSW SS fator SS E
MS B , MSW , MS fator e MS E
n 1 n(k 1) k 1 k 1n 1
o quadrado médio entre indivíduos, o quadrado médio “dentro” dos indivíduos, o
quadrado médio do fator em estudo e o quadrado médio do erro, respetivamente. Para
testar se existe diferença, em termos médios, entre os níveis do fator em estudo, utiliza-se
a estatística F dada por
MS fator
F
MS E
Hipóteses a testar:
H0 : 1 2 k
vs
H1 : r s para algum par r , s com r , s 1, 2, , k e r s.
56
Inferência estatística para mais de duas populações com base em medidas repetidas
Estatística de teste:
SS fator
k 1 MS fator
F
SS E MS E
k 1n 1
que, sob a validade de H0 , tem distribuição F de Fisher-Snedecor com k 1 graus
de liberdade no numerador e k 1n 1 graus de liberdade no denominador.
Regra de decisão:
Rejeitar H0 , ao nível de significância , se f Fk 1,k 1n 1;1 , sendo f o valor
observado da estatística de teste e Fk 1,k 1n 1;1 o quantil de probabilidade
1 da distribuição F de Fisher-Snedecor com k 1 graus de liberdade no
numerador e k 1n 1 graus de liberdade no denominador.
Nota:
Os cálculos a efetuar para a obtenção do valor observado para a estatística de teste
podem ser facilitados utilizando as expressões equivalentes
k n
X 2
SST Xij2 ,
i 1 j 1 kn
n X 2j X 2
SSB ,
j 1 k kn
k n n X 2j
SSW Xij2 ,
i 1 j 1 j 1 k
k Xi2 X 2
SS fator ,
i 1 n kn
57
Estatística II
indivíduo
1 2 n somas
1 x 11 x 12 x 1n x 1
x 21 x 22 x 2n x 2
fator
2
k xk1 xk 2 x kn xk
somas x 1 x 2 x n x
No que respeita aos resultados, estes costumam ser apresentados sob a forma de um
quadro que designamos por tabela ANOVA para medidas repetidas
Total SST kn 1
criança
1 2 3 4 5 6 7 8 somas
tempo tarefa A 31 25 28 30 32 28 28 30 232
tempo tarefa B 24 26 27 25 30 32 28 27 219
tempo tarefa C 30 31 30 28 31 30 31 33 244
tempo tarefa D 25 27 26 23 21 22 26 25 195
somas 110 109 111 106 114 112 113 115 890
58
Inferência estatística para mais de duas populações com base em medidas repetidas
donde,
4 8
x 2 8902
SST x ij2 25046 25046 24753.125=292.875 ,
i 1 j 1
48 32
8 x 2j x2 99072
SS B 24753.125 24768 24753.125=14.875 ,
j 1
4 48 4
4 8 8 x 2j
SSW x ij2 25046 24768 278.000 ,
i 1 j 1 j 1
4
Como f 10.240 3.098 , rejeitamos a hipótese nula para 0.05 , isto é, para
este nível de significância podemos concluir que existe diferença significativa entre
pelo menos dois dos tempos médios de execução das tarefas.
59
Estatística II
k! k k 1
C 2k
2! k 2 ! 2
Tal como no caso da ANOVA simples com base em amostras independentes, também na
ANOVA simples para medidas repetidas há pressupostos que é necessário verificar. Os
pressupostos da análise de variância simples para medidas repetidas incluem suposições
de normalidade e esfericidade (dado que se trata de observações não independentes, é
necessário impor condições sobre as variâncias e as covariâncias).
60
Inferência estatística para mais de duas populações com base em medidas repetidas
Notas:
1. Quando falha o pressuposto de esfericidade, deve fazer-se uma correção ao
número de graus de liberdade da distribuição da estatística de teste, como por
exemplo a correção de Greenhouse-Geisser ou a de Huynh-Feldt. Utilizaremos o
software SPSS sempre que for necessário efetuar esta correção.
2. No caso em que falha o pressuposto de esfericidade, os testes de comparações
múltiplas com correções de Bonferroni ou de Sidak mantêm-se válidos.
Hipóteses a testar:
H0 : As distribuições dos ranks das k populações são idênticas
vs
H1 : As distribuições dos ranks das k populações não são idênticas.
O teste de Friedman utiliza as ordens (ranks) das observações em vez das próprias
observações. Para efetuar o teste de Friedman atribuímos ordens às observações de cada
indivíduo separadamente. Se a hipótese nula for verdadeira é de esperar que a
distribuição das ordens seja idêntica em cada amostra.
Seja n a dimensão de cada uma das k amostras. Sob a validade de H0 , o valor esperado
para a soma das ordens em cada amostra (isto é, em cada nível do fator) é n k 1 / 2 . O
teste de Friedman determina quanto é que a soma das ordens para cada amostra, Ri ,
i 1, , k , difere do valor esperado.
Estatística de teste:
k
12
nk k 1
F Ri2 3n k 1
i 1
61
Estatística II
jl3 jl
j 1 l 1
1
nk k 2 1
Regra de decisão:
Rejeitar H0 , ao nível de significância , se F 2k 1;1 , sendo F o valor
observado da estatística de teste e 2k 1;1 o quantil de probabilidade 1 da
distribuição qui-quadrado com k 1 graus de liberdade.
Exemplo 9.2
A fim de avaliar se houve diferença no aproveitamento dos alunos ao longo do ano
letivo, um professor observou as médias das classificações de dez alunos no final de
cada período
aluno 1 2 3 4 5 6 7 8 9 10
média 1º período 8 15 13 7 13 14 9 13 7 14
média 2º período 14 17 12 10 14 12 8 14 13 16
média 3º período 15 17 14 12 16 13 11 16 12 17
Que conclusão pode tirar, ao nível de significância de 5%, sobre as médias das
classificações obtidas pelos alunos no final dos três períodos?
Resolução:
Considere as variáveis aleatórias,
Xij – média da classificação no final do período i do aluno j, i 1,2, 3, j 1, ,10,
Xi – média da classificação no final do período i, i 1, 2, 3 .
Como X1 não segue uma distribuição normal (ver ilustração na Secção 9.5), vai
utilizar-se o teste de Friedman para testar as hipóteses
62
Inferência estatística para mais de duas populações com base em medidas repetidas
aluno 1 2 3 4 5 6 7 8 9 10
rank média 1º período 1 1 2 1 1 3 2 1 1 1
rank média 2º período 2 2.5 1 2 2 1 1 2 3 2
rank média 3º período 3 2.5 3 3 3 2 3 3 2 3
R2 2 2.5 1 2 2 1 1 2 3 2 18.5 ,
R3 3 2.5 3 3 3 2 3 3 2 3 27.5 .
Neste caso, só há empates na ordenação do 2º indivíduo; assim,
g1 g 3 g 4 g10 0 , g2 1 e 21 2 , pelo que o valor observado da
estatística de teste é
k
12
nk k 1
Ri2 3n k 1
i 1
F gj
n
jl3 jl
1 j 1 l 1
nk k 2 1
12
10 3 4
142 18.52 27.52 3 10 4
9.692.
23 2
1
10 3 8
63
Estatística II
Exemplo 9.1
Recordemos que
Xij – tempo de execução da i -ésima tarefa realizada pela j -ésima criança,
i A, B,C , D , j 1, , 8 , em que E Xi j i .
Pretendemos testar as hipóteses
H0 : A B C D
vs
H1 : pelo menos dois dos valores médios são diferentes.
Comecemos por verificar os pressupostos da ANOVA para medidas repetidas.
Para averiguar a suposição de normalidade efetuamos os testes de hipóteses
Explore
64
Inferência estatística para mais de duas populações com base em medidas repetidas
Measure: tempo_execução
Descriptive Statistics
a
Mauchly's Test of Sphericity
Measure: tempo_execução
b
Epsilon
a.
b.
Measure: tempo_execução
65
Estatística II
Estimates
Measure: tempo_execução
66
Inferência estatística para mais de duas populações com base em medidas repetidas
Ao testar
H0 : A B vs H1 : A B ,
obtém-se para a estatística de teste o valor de 1.625/1.224 1.328 , a que
corresponde o p-value p 1.000 .
Ao testar
H0 : A C vs H1 : A C ,
obtém-se para a estatística de teste o valor de 1.500/0.945 1.587 , a que
corresponde o p-value p 0.939 .
Ao testar
H0 : A D vs H1 : A D ,
obtém-se para a estatística de teste o valor de 4.625/1.388 3.332 , a que
corresponde o p-value p 0.075 .
Ao testar
H0 : B C vs H1 : B C ,
obtém-se para a estatística de teste o valor de 3.125/0.953 3.279 , a que
corresponde o p-value p 0.081 .
Ao testar
H0 : B D vs H1 : B D ,
obtém-se para a estatística de teste o valor de 3.000/1.488 2.016 , a que
corresponde o p-value p 0.502 .
67
Estatística II
Ao testar
H0 : C D vs H1 : C D ,
obtém-se para a estatística de teste o valor de 6.125/0.789 7.761 , a que
corresponde o p-value p 0.001 .
Ao nível de significância de 5%, apenas se rejeita a hipótese nula C D
( p 0.001 0.05 ), logo existe diferença significativa entre os tempos médios de
execução das tarefas C e D .
Exemplo 9.2
Recordemos que
Xij – média da classificação no final do período i do aluno j, i 1, 2, 3, j 1, ,10.
Comecemos por verificar os pressupostos da ANOVA para medidas repetidas.
Para averiguar a suposição de normalidade efetuamos os testes de hipóteses
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
média classificação 1º período ,304 10 ,009 ,834 10 ,038
*
média classificação 2º período ,154 10 ,200 ,963 10 ,822
*
média classificação 3º período ,179 10 ,200 ,915 10 ,319
*.
a.
68
Inferência estatística para mais de duas populações com base em medidas repetidas
Friedman Test
Ranks
Mean Rank
média classificação 1º período 1,40
média classificação 2º período 1,85
média classificação 3º período 2,75
a
Test Statistics
N 10
Chi-Square 9,692
df 2
Ao testar
H0 : As distribuições dos ranks de X1 e X 2 são idênticas
vs
H1 : As distribuições dos ranks de X1 e X 2 não são idênticas
obtém-se para a estatística de teste o valor de −1.006, a que corresponde o p-value
p 0.943 .
69
Estatística II
Ao testar
H0 : As distribuições dos ranks de X1 e X 3 são idênticas
vs
H1 : As distribuições dos ranks de X1 e X 3 não são idênticas
obtém-se para a estatística de teste o valor de −3.019, a que corresponde o p-value
p 0.008 .
Ao testar
H0 : As distribuições dos ranks de X 2 e X 3 são idênticas
vs
H1 : As distribuições dos ranks de X 2 e X 3 não são idênticas
obtém-se para a estatística de teste o valor de −2.012, a que corresponde o p-value
p 0.133 .
Ao nível de significância de 5%, conclui-se que apenas existe diferença significativa
entre as distribuições dos ranks das médias das classificações no final do 1º e 3º
períodos.
Nota:
O p-value exato para a estatística de teste do teste de Friedman é frequentemente
disponibilizado pelos softwares estatísticos. Sempre que se dispõe de valores exatos
são estes que devem ser utilizados.
70
Capítulo 10
Inferência estatística sobre proporções
10 Inferência estatística paramétrica sobre proporções
10.1. Introdução
Exemplo 10.1
Com o objetivo de estudar a incidência de determinada lesão nos praticantes de
uma modalidade de ginástica foram inquiridos 58 praticantes dessa modalidade,
dos quais 9 referiram ter tido a lesão.
A variável de interesse é ter ou não ter contraído a lesão. Esta variável é uma
variável qualitativa, mais precisamente, uma variável dicotómica pois apenas
assume dois valores distintos, sim e não. Os métodos de inferência apresentados
nos capítulos anteriores não podem ser aplicados neste tipo de variáveis.
Considere-se uma população constituída por indivíduos que pertencem a uma de duas
categorias, A ou A , e represente-se por p a proporção de indivíduos que pertencem à
categoria A . Seja X1, X 2 , , Xn uma amostra aleatória de dimensão n proveniente
dessa população tal que
1 se o indivíduo i pertence à categoria A
Xi .
0 se o indivíduo i não pertence à categoria A
Deste modo, a variável aleatória
n
X Xi
i 1
72
Inferência estatística sobre proporções
Atendendo ao facto da variável aleatória X ser uma soma, pelo teorema limite central,
se n for suficientemente grande, tem-se
aprox .
X N np, np 1 p ,
pelo que
X p 1 p
N p,
aprox .
n n ,
o que é equivalente a
X
p aprox .
Z n N 0,1 .
p 1 p
n
Notas:
1. O ponto médio do intervalo de confiança de Clopper-Pearson pode não coincidir
com a estimativa pontual da proporção, contrariamente ao que acontece com o
intervalo de confiança de Wald.
2. O software SPSS disponibiliza o intervalo de confiança de Clopper-Pearson, mas
não o intervalo de confiança de Wald.
73
Estatística II
Hipóteses a testar:
H 0 : p p0 vs H1 : p p0
ou H 0 : p p0 vs H1 : p p0
ou H 0 : p p0 vs H1 : p p0
Estatística de teste: X
que, sob a validade de H0 , tem distribuição B n, p0 .
Regra de decisão:
Rejeitar H0 , ao nível de significância , se p -value , em que p -value é obtido
do seguinte modo:
Nota:
Este teste que utiliza a distribuição binomial é vulgarmente conhecido como teste
binomial para a proporção.
Atendendo ao facto da estatística de teste ser uma soma, como vimos anteriormente,
pelo teorema limite central, se n for suficientemente grande, tem-se
X
p aprox .
Z n N 0,1 .
p 1 p
n
74
Inferência estatística sobre proporções
Nota:
O software SPSS disponibiliza o teste binomial para a proporção, mas não o teste
que utiliza a aproximação à distribuição normal.
Exemplo 10.2
Numa amostra, obtida aleatoriamente, de 50 alunos da FMH, 38 afirmam gostar
de fazer férias de verão na praia.
a) Ao nível de significância 0.05 , teste se é de admitir que a percentagem de
alunos da FMH que gostam de fazer férias de verão na praia é superior a 70%.
b) Determine um intervalo a 95% de confiança para a proporção de alunos da
FMH que gostam de fazer férias de verão na praia.
Resolução:
Designemos por
X – variável aleatória que representa o número de alunos da FMH, numa
amostra de dimensão 50, que gostam de fazer férias de verão na praia
X B 50, p , onde p é a proporção de alunos da FMH que gostam de fazer
férias de verão na praia.
a) Pretendemos testar
H0 : p 0.7 vs H1 : p 0.7 .
Utilizando o teste binomial, o valor observado da estatística de teste é x 38 e
o respetivo p-value
50
p pU P X 38 C i50 0.7i 0.350i 0.223 .
i 38
75
Estatística II
Como
0.2 pˆ 0.8
npˆ 50 0.76 38 5 ,
n 1 pˆ 50 (1 0.76) 12 5
podemos, alternativamente, utilizar a estatística de teste com distribuição
aproximada à distribuição normal.
Neste caso, o valor observado da estatística de teste é
pˆ p0 0.76 0.7
z 0.926 .
p0 1 p0 0.7 0.3
n 50
Como 0.05 , tem-se z1 z 0.95 1.645 . Dado que z 0.926 1.645 , não
rejeitamos a hipótese nula ao nível de significância de 5%.
76
Inferência estatística sobre proporções
Considere-se duas populações constituídas por indivíduos que pertencem a uma de duas
categorias, A ou A , e represente-se por p1 e p2 as proporções de indivíduos que, em
cada uma das populações, pertencem à categoria A . Sejam X11, X12, , X1n1 e
X21, X22, , X2n2 duas amostras aleatórias independentes de dimensões n1 e n2 ,
provenientes dessas populações, tais que
1 se o indivíduo i da população 1 pertence à categoria A
X1i i 1,, n1 ,
0 se o indivíduo i da população 1 não pertence à categoria A
1 se o indivíduo i da população 2 pertence à categoria A
X 2i i 1,, n2 .
0 se o indivíduo i da população 2 não pertence à categoria A
Deste modo, as variáveis aleatórias
n1 n2
X1 X1i e X 2 X 2i
i 1 i 1
77
Estatística II
x1 x 2
pˆ1 pˆ2 ,
n1 n2
o que é equivalente a
X1 X 2
p1 p2
n1 n2 aprox .
Z N 0,1 .
p1 1 p1 p2 1 p2
n1 n2
Hipóteses a testar:
H0 : p1 p2 p0 vs H1 : p1 p2 p0
ou H0 : p1 p2 p0 vs H1 : p1 p2 p0
ou H0 : p1 p2 p0 vs H1 : p1 p2 p0
78
Inferência estatística sobre proporções
Estatística de teste:
X X 2
1
n1 n2 p0
Z
p1 1 p1 p2 1 p2
n1 n2
que, sob a validade de H0 , tem distribuição aproximada N 0,1 . Como p1 e p2
são desconhecidos são substituídos por p̂1 e p̂2 , respetivamente.
Em termos práticos, tendo em conta a aproximação efetuada, esta estatística de
teste só deve ser utilizada se 0.2 pˆj 0.8 , n j pˆj 5 e n j 1 pˆj 5 , para
j 1,2 .
Regra de decisão:
Nota:
O software SPSS não disponibiliza, nem o intervalo de confiança nem o teste de
hipóteses para a diferença de proporções com aproximação à distribuição normal.
No capítulo seguinte iremos ver um teste realizável no software SPSS para
comparação de duas proporções em amostras independentes.
Exemplo 10.3
Em amostras aleatórias de 400 adultos e 600 adolescentes, de determinadas
populações, que assistiram a um debate sobre desporto na televisão, 100 adultos e
180 adolescentes afirmaram que o debate lhes agradou. O diretor da estação de
televisão defende que a proporção de audiência que gostou do debate entre os
adolescentes é diferente da proporção entre os adultos.
a) Para o nível de significância 0.1 , averigue se é admissível que o diretor da
estação televisiva faça tal afirmação.
b) Determine um intervalo a 90% de confiança para a diferença de proporções.
Resolução:
Consideremos as variáveis aleatórias
79
Estatística II
onde
p1 – proporção de adultos que gostaram do programa,
p2 – proporção de adolescentes que gostaram do programa.
a) Pretende testar-se
H0 : p1 p2 vs H1 : p1 p2
o que é equivalente a testar
H0 : p1 p2 0 vs H1 : p1 p2 0 .
Neste caso, tem-se
100 180
n1 400, n2 600, pˆ1 0.25 e pˆ2 0.3 .
400 600
Como
0.2 pˆ 0.8
1
0.2 pˆ 0.8
2
n1pˆ1 400 0.25 100 5
,
n2 pˆ2 600 0.3 180 5
n1 1 pˆ1 400 (1 0.25) 300 5
n2 1 pˆ2 600 (1 0.3) 420 5
podemos utilizar a estatística de teste com distribuição aproximada à
distribuição normal.
O valor observado da estatística de teste é
pˆ1 pˆ2 p0
z
pˆ1 1 pˆ1 pˆ2 1 pˆ2
n1 n2
0.25 0.3 0
1.747 .
0.25 1 0.25 0.3 1 0.3
400 600
Como 0.1 , tem-se z1 /2 z 0.95 1.645 . Dado que | z | 1.747 1.645 ,
rejeitamos a hipótese nula ao nível de significância de 10%, ou seja, é de
admitir que a proporção de audiência que gostou do programa entre os
80
Inferência estatística sobre proporções
b) Como
0.2 pˆ 0.8
1
0.2 pˆ 0.8
2
n1pˆ1 400 0.25 100 5
,
n2 pˆ2 600 0.3 180 5
n1 1 pˆ1 400 (1 0.25) 300 5
n2 1 pˆ2 600 (1 0.3) 420 5
podemos utilizar o intervalo de confiança de Wald para a diferença de
proporções.
Assim, um intervalo a 90% de confiança para a diferença entre proporções
p1 p2 é dado por
pˆ1 1pˆ1 pˆ2 1pˆ2 pˆ 1pˆ1 pˆ2 1pˆ2
pˆ pˆ z , pˆ1pˆ2 z 0.95 1 .
1 2 0.95
n n n n2
1 2 1
e obtém-se o intervalo
0.25 0.3 1.645 0.029 , 0.25 0.3 1.645 0.029
0.097 , 0.003 .
Nota:
Num teste de hipóteses bilateral,
H0 : p1 p2 0 vs H1 : p1 p2 0
não rejeitamos a hipótese nula, ao nível de significância , se e só se o intervalo a
100 1 % de confiança para p1 p2 contém o ponto 0.
81
Estatística II
Exemplo 10.2
Recordemos que
X – variável aleatória que representa o número de alunos da FMH, numa
amostra de dimensão 50, que gostam de fazer férias de verão na praia
X B 50, p , onde p é a proporção de alunos da FMH que gostam de fazer
férias de verão na praia.
a) Pretendemos testar
H0 : p 0.7 vs H1 : p 0.7 .
O resultado do teste binomial para a proporção disponibilizado no software
estatístico SPSS é
NPar Tests
82
Capítulo 11
Testes do qui-quadrado
11 Testes do qui-quadrado
11.1. Introdução
Neste capítulo vamos abordar métodos de inferência para dados qualitativos com base
em tabelas de frequências observadas. Vamos estudar testes de ajustamento, testes de
independência e testes de homogeneidade em tabelas de contingência. Em qualquer dos
casos, a estatística de teste compara valores observados com valores esperados e tem
uma distribuição aproximada de qui-quadrado.
Exemplo 11.1
Suponha que conhecemos o modelo para a distribuição dos grupos sanguíneos de
uma determinada população
Estatística II
Grupo sanguíneo A B AB O
Percentagem 41% 9% 4% 46%
Grupo sanguíneo A B AB O
Nº de observações 80 20 9 91
eB 200 0.09 18 ,
eO 200 0.46 92 .
Temos assim a possibilidade de comparar os valores observados, oi , com os valores
esperados, ei , i A, B, AB,O .
Para quantificar os desvios entre os valores observados na amostra e os valores que seria
esperado observar caso H0 fosse verdadeira, é necessário encontrar uma estatística de
teste que quantifique o erro global. Como
k
oi ei 0 ,
i 1
84
Testes do qui-quadrado
esta soma não tem interesse como medida do erro global. Para ultrapassar o problema
consideramos o quadrado dos erros, mais precisamente, utilizamos a soma dos erros
quadráticos relativizados
2
k
oi ei
ei
.
i 1
Oi N ei , ei , isto é, ei
N 0,1 .
donde
2
k
Oi ei aprox .
X 2
k21 .
i 1
ei
85
Estatística II
Testes de ajustamento
Hipóteses a testar:
H0 : A população possui uma determinada distribuição de probabilidade
vs
H1 : A população não possui a distribuição de probabilidade indicada em H0
Estatística de teste:
2
k
Oi ei
X
2
i 1
ei
que, sob a validade de H0 , tem distribuição aproximada qui-quadrado com k1
graus de liberdade, onde k é o número de classes.
Regra de decisão:
Rejeitar H0 , ao nível de significância , se X 2 2k 1;1 , sendo X 2 o valor
observado da estatística de teste e 2k 1;1 o quantil de probabilidade 1 da
distribuição qui-quadrado com k 1 graus de liberdade.
86
Testes do qui-quadrado
Nota:
A distribuição da estatística de teste é uma distribuição aproximada, por esta
razão devemos estar atentos às condições que permitem usar esta aproximação.
Uma regra prática para a utilização desta aproximação consiste na verificação
simultânea das seguintes condições:
• menos de 20% das classes terem ei inferior a 5;
• no máximo uma classe ter ei inferior a 1.
Nota:
Existem muitos testes de ajustamento para além do teste de ajustamento do
qui-quadrado. Alguns desses testes são específicos para a avaliação do ajustamento
a uma determinada distribuição, como é o caso do teste de Shapiro-Wilk (já
referido na disciplina de Estatística I) que permite testar o ajustamento à
distribuição normal e que por isso é classificado como sendo um teste de
normalidade. O teste de Kolmogorov-Smirnov (também referido na disciplina de
Estatística I) pode ser usado quer para testar a normalidade quer para testar o
ajustamento a outras distribuições. No software SPSS é possível utilizar o teste de
Kolmogorov-Smirnov para avaliar o ajustamento às distribuições normal, uniforme,
exponencial e Poisson.
87
Estatística II
Variável Y
Variável X B1 B2 Bs Total
A1 o11 o12 o1s o1
A2 o21 o22 o2s o2
Ar or 1 or 2 ors or
Total o1 o2 os n
r
o j oij é o número de indivíduos da amostra que estão em B j ,
i 1
r s s r
oij o j oi n é a dimensão da amostra.
i 1 j 1 j 1 i 1
Designando por
pij – a probabilidade (conjunta) de um indivíduo, escolhido ao acaso, ser
classificado na categoria Ai de X e B j de Y ,
88
Testes do qui-quadrado
Cada oij é um valor observado de uma variável aleatória Oij B n, pij . Então
eij E Oij n pij
é o número esperado de indivíduos na categoria Ai de X e B j de Y .
Com uma dedução análoga à que foi descrita para o teste de ajustamento, a estatística
de teste é
2
r s
Oij eij
X
2
i 1 j 1
eij
Nota:
A distribuição da estatística de teste é uma distribuição aproximada, por esta
razão devemos estar atentos às condições que permitem usar esta aproximação.
Uma regra prática para a utilização desta aproximação consiste na verificação
simultânea das seguintes condições:
• menos de 20% dos eij inferiores a 5;
• no máximo um eij inferior a 1.
Exemplo 11.2
Efetuou-se um inquérito a 1000 alunos do ensino superior, de ambos os géneros,
perguntando qual a modalidade desportiva preferida em três alternativas possíveis.
Os resultados obtidos são apresentados no quadro seguinte
89
Estatística II
Resolução:
Consideremos as variáveis aleatórias
X – género (2 categorias);
Y – modalidade desportiva preferida (3 categorias).
As hipóteses a testar são
H0 : X e Y são independentes vs H1 : X e Y não são independentes .
A estatística de teste é dada por
2
2 3
Oij eij
X2
i 1 j 1
eij
Para calcular o valor observado da estatística de teste vamos construir uma tabela
com as frequências observadas (nas células a branco) e as frequências esperadas
(nas células sombreadas)
Modalidade →
Futebol Basquetebol Andebol Total
↓ Género
Feminino 150 175 50 87.5 150 87.5 350
Masculino 350 325 200 162.5 100 162.5 650
Total 500 250 250 1000
90
Testes do qui-quadrado
Nos testes de independência, o processo de amostragem origina uma tabela com dupla
classificação em que ambas as margens são aleatórias (“livres”). Contudo, por vezes,
tem mais interesse escolher um certo número de indivíduos em cada uma das categorias
da variável X (ou Y ) e observar quantos desses indivíduos pertencem a cada uma das
categorias da outra variável. Neste caso, os totais de uma das variáveis estão fixos e as
probabilidades de interesse são condicionais em vez de conjuntas. O que nos interessa é
avaliar se a distribuição de Y é homogénea nas diferentes categorias da variável X e,
portanto, não fazemos um teste de independência, mas sim um teste de homogeneidade.
91
Estatística II
e, deste modo,
oi • o• j
eij oi • p j |i .
n
i 1 j 1
eij
Nota:
A distribuição da estatística de teste é uma distribuição aproximada. As condições
que permitem usar esta aproximação são as mesmas que as apresentadas para os
testes de independência em tabelas de contingência.
Exemplo 11.3
Dois grupos de nadadores foram sujeitos a dois métodos de treino: um grupo
realizou o método A (com crocodilo bebé na piscina) e o outro grupo o método B
(sem crocodilo bebé na piscina), tendo-se obtido os seguintes resultados
Sucesso Insucesso
Método A 14 17
Método B 11 18
92
Testes do qui-quadrado
Resolução:
Os grupos em estudo são dois, o grupo de nadadores que foram sujeitos ao método
de treino A e o grupo de nadadores que foram sujeitos ao método de treino B.
Consideremos
X – identificação do método de treino (2 categorias);
Y – resultado do método de treino (2 categorias).
As hipóteses a testar são
H0 : A distribuição de Y é homogénea nas duas categorias de X
vs .
H1 : A distribuição de Y não é homogénea nas duas categorias de X .
i 1 j 1
eij
Nota:
O teste de homogeneidade do qui-quadrado pode ser utilizado na comparação de
duas proporções em populações independentes. Este teste é, portanto, uma
alternativa ao teste que usa a aproximação à distribuição normal, apresentado no
93
Estatística II
Exemplo 11.1
Recordemos que se pretende testar as hipóteses
H0 : pA 0.41,
pB 0.09, pAB 0.04, pO 0.46
vs
H1 : pA 0.41 ou pB 0.09 ou pAB 0.04 ou pO 0.46.
Utilizando o software estatístico SPSS, obtemos os outputs
NPar Tests
Chi-Square Test
Frequencies
grupo sanguineo
Test Statistics
grupo sanguineo
a
Chi-Square ,407
df 3
94
Testes do qui-quadrado
Deste modo, ao nível de significância de 5%, não rejeitamos a hipótese nula (pois
p 0.05 ), o que significa que o modelo para a distribuição dos grupos sanguíneos
é também admissível na subpopulação feminina.
Exemplo 11.2
Recordemos que
X – género (2 categorias);
Y – modalidade desportiva preferida (3 categorias).
As hipóteses a testar são
H0 : X e Y são independentes vs H1 : X e Y não são independentes .
Utilizando o software estatístico SPSS, obtemos os outputs
Crosstabs
género * modalidade desportiva preferida Crosstabulation
Chi-Square Tests
Value df
a
Pearson Chi-Square 98,901 2 ,000 ,000
Likelihood Ratio 97,322 2 ,000 ,000
Fisher's Exact Test 96,950 ,000
b
Linear-by-Linear Association 48,902 1 ,000 ,000 ,000 ,000
N of Valid Cases 1000
a.
b.
Exemplo 11.3
Recordemos que
95
Estatística II
Crosstabs
método de treino * resultado Crosstabulation
resultado
sucesso insucesso Total
método de treino A Count 14 17 31
Chi-Square Tests
Value df
a
Pearson Chi-Square ,322 1 ,570 ,609 ,380
b
Continuity Correction ,093 1 ,760
Likelihood Ratio ,323 1 ,570 ,609 ,380
Fisher's Exact Test ,609 ,380
c
Linear-by-Linear Association ,317 1 ,573 ,609 ,380 ,177
N of Valid Cases 60
a.
b.
c.
Exemplo 11.4
Recordemos que no Exemplo 10.3 (do capítulo anterior) se pretendia testar se a
proporção de audiência que gostou do debate entre os adolescentes é diferente da
proporção entre os adultos.
Designando por
96
Testes do qui-quadrado
Crosstabs
classe etária * Gostou do debate? Crosstabulation
Gostou do debate?
sim não Total
classe etária adolescente Count 180 420 600
Chi-Square Tests
Value df
a
Pearson Chi-Square 2,976 1 ,084 ,098 ,049
b
Continuity Correction 2,733 1 ,098
Likelihood Ratio 3,001 1 ,083 ,085 ,049
Fisher's Exact Test ,098 ,049
c
Linear-by-Linear Association 2,973 1 ,085 ,098 ,049 ,013
N of Valid Cases 1000
a.
b.
c.
97
Estatística II
Nota:
Os softwares estatísticos fornecem-nos o p-value exato e o p-value aproximado deste
teste. Sempre que se dispõe de valores exatos são estes que devem ser utilizados.
98
Capítulo 12
Regressão linear
12 Regressão linear
12.1. Introdução
O peso é uma variável importante da composição corporal, dado que valores muito altos
ou muito baixos condicionam a saúde e o bem-estar. Suponha que se pretende
desenvolver um modelo para descrever o peso. Como é sabido, o peso depende, em
parte, da altura do indivíduo. Deste modo, a modelação do peso pode ser feita em
função da altura e, neste caso, o fenómeno em estudo envolve duas variáveis: Y – peso
e X – altura. Note-se que, mesmo conhecendo a altura, o peso varia devido a outros
fatores, isto é, a altura não é o único fator que explica a variabilidade do peso.
O peso e a altura são variáveis que estão relacionadas, tal como também o estão o peso
e a pressão arterial ou o esforço a que um indivíduo é sujeito e o consumo de oxigénio.
Os exemplos de variáveis que estão relacionadas entre si não se resumem a
características físicas ou fisiológicas, podemos encontrá-los nos mais variados domínios.
Basta pensar em situações do quotidiano, a classificação obtida num exame e o tempo
despendido com o estudo, o tempo obtido numa prova desportiva e o tempo de treino
realizado, ou o preço de um carro usado e a sua quilometragem.
Uma vez que admitimos que o valor de X é conhecido e que o valor de Y depende, em
parte, do valor de X considerado, as variáveis Y e X são denominadas,
respetivamente, variável dependente (ou resposta) e variável independente (ou
explicativa, ou preditora). Dada uma variável resposta Y e uma variável explicativa X ,
designa-se por regressão simples o procedimento que tem como objetivo desenvolver um
modelo explicativo que relacione as variáveis Y e X .
Estatística II
Exemplo 12.1
Com o objetivo de descrever o peso em função da altura, foi recolhida
aleatoriamente uma amostra de 26 jovens atletas do sexo feminino, tendo-se
registado, para cada uma, o valor da altura (m) e do respetivo peso (kg).
100
Regressão linear
90
80
peso (kg)
70
60
50
40
altura (m)
Há vários métodos para ajustar uma reta a um conjunto de pontos. Um bom método é,
como vimos no Capítulo 4 (unidade curricular Estatística I) o método dos mínimos
quadrados. Representando por yˆi o valor estimado para yi ,
yˆi b0 b1x i , i 1, , n ,
verificando-se que
yi yˆi ei , i 1, , n .
Assim, para cada ponto no gráfico, o resíduo pode ser definido como a distância vertical
entre a observação e a reta ajustada,
ei yi yˆi , i 1, , n .
101
Estatística II
90
80
peso (kg)
70
60
50
40
altura (m)
Uma medida da qualidade do ajustamento global é dada pela soma dos quadrados dos
resíduos, ei2 , que é habitualmente representada por SS E . A reta de mínimos
quadrados ajustada é a que produz um valor mínimo para SS E . Assim, minimizando
n n n
ei2 yi yˆi yi b0 b1x i ,
2 2
i 1 i 1 i 1
i 1
Nota:
Formas equivalentes de obter o coeficiente b1 são dadas por
n n n
n x iyi x i yi
cov x, y s
b1 i 1 i 1 i 1
ou b1 r y ,
n n 2
sx2 sx
n x i 2 x i
i 1
i 1
como vimos no Capítulo 4 (unidade curricular Estatística I).
102
Regressão linear
yi
yi yˆi (erro não explicado)
yi y yˆi
(erro total)
yˆi y (erro explicado devido à regressão)
y
ilustra a igualdade
yi y yi yˆi yˆi y , i 1, , n .
Como
2 2 2
yi y yi yˆi yˆi y 2 yi yˆi yˆi y , i 1, , n
e a soma dos produtos cruzados é nula, podemos desdobrar a soma de quadrados da
seguinte forma
n n n
yi y yi yˆi yˆi y .
2 2 2
i 1 i 1 i 1
i 1 SS R
r2 n .
SST
yi y
2
i 1
103
Estatística II
n
xi x yi y
i 1
b1 n
86.249
2
xi x
i 1
e b0 y b1x 82.710 ,
pelo que podemos escrever a equação da reta de regressão estimada como
yˆ 82.710 86.249 x .
Podemos representar a reta de regressão linear estimada sobreposta aos pontos no
diagrama de dispersão
90
80
peso (kg)
70
60
50
40
altura (m)
SS R yˆi y
i 1
r2 n
0.828 ,
SST 2
yi y
i 1
indica que cerca de 83% da variação do peso é explicada pela variação da altura.
Com valores desta ordem de grandeza para r 2 , o modelo pode ser utilizado para
obter estimativas do peso de outras jovens. Assim, se pretendermos estimar o peso
de uma jovem que tem 1.60 m de altura, esse valor será dado por
yˆ1.60 82.710 86.249 1.60 55.3 kg .
104
Regressão linear
Nota:
Uma das utilizações do modelo de regressão linear simples consiste em prever o
valor de y para um dado valor x . Convém salientar que só devemos usar o
modelo de regressão para efetuar previsão se
(i) o valor do coeficiente de determinação for elevado (na literatura várias
sugestões são apresentadas, sendo mais ou menos consensual que se deve
considerar coeficientes de determinação com valores superiores a 0.7);
(ii) o valor relativamente ao qual pretendemos fazer previsão pertencer ao
intervalo dos valores de x que serviram de base para a determinação da reta.
12.2.1. Modelo
As estimativas, ̂0 e ̂1 , obtidas pelo método dos mínimos quadrados são concretizações
de variáveis aleatórias que variam de amostra para amostra. Por isso, para além de
estimativas pontuais é importante obter também estimativas intervalares para os
parâmetros 0 e 1 . Por outro lado, se 1 0 então a reta de regressão resume-se a
Y 0 e, neste caso, o conhecimento de X em nada altera a informação sobre Y
(não existe relação entre X e Y ). Deste modo, é pertinente averiguar se existe uma
relação linear efetiva entre as variáveis. Para tal, deve efetuar-se o teste de hipóteses
H0 : 1 0 vs H1 : 1 0 .
Sob a validade das suposições do modelo de regressão linear podemos efetuar testes de
hipóteses sobre 1 e também sobre 0 e, além disso, obter estimativas intervalares para
os coeficientes de regressão.
105
Estatística II
Um estimador para 1 é
n
Xi X Yi Y
ˆ1 b1 i 1
n 2
Xi X
i 1
tem uma distribuição t de Student com n 2 graus de liberdade e pode ser usada para
fazer inferência sobre o declive.
1 1
ˆ1 tn 2;1 / 2 s n , ˆ1 tn 2;1 / 2 s n
2
xi x i
2
x x
i 1 i 1
em que tn 2;1 / 2 é o quantil de probabilidade 1 / 2 da distribuição t de
Student com n 2 graus de liberdade.
Hipóteses a testar:
H0 : 1 10 vs H1 : 1 10
106
Regressão linear
Estatística de teste:
ˆ1 10
T
1
S n 2
Xi X
i 1
Regra de decisão:
Rejeitar H0 , ao nível de significância , se | t | t(n 2;1 / 2) , sendo t o valor
observado da estatística de teste e t(n 2;1 / 2) o quantil de probabilidade 1 / 2
da distribuição t de Student com n 2 graus de liberdade.
Nota:
Em particular, considerando 10 0 , o teste de hipóteses
H0 : 1 0 vs H1 : 1 0 ,
permite verificar se o modelo de regressão linear simples é significativo.
Como
ˆ1 86.249 ,
n 2
yi yˆi 1
i 1
s 5.114 , logo s 8.031 ,
n 2 n 2
xi x
i 1
86.249
então um valor observado da estatística de teste é t 10.739 .
8.031
Considerando 0.05, temos tn 2;1/2 t24;0.975 2.064 .
107
Estatística II
1
ˆ1 86.249 , t24;0.975 2.064 e s n
8.031 ,
2
xi x
i 1
Um estimador para 0 é
ˆ0 b0 Y b1X
sendo a sua variância dada por
n
2 Xi2
var ˆ0 n
i 1
2
.
n Xi X
i 1
ˆ0 0
T
n
Xi2
i 1
S n 2
n X i X
i 1
108
Regressão linear
n n
i x 2
i x 2
ˆ0 t s i 1
, ˆ t
s i 1
n 2;1 / 2 n 0 n 2;1 / 2 n
2
n x i x n x i x
2
i 1 i 1
em que tn 2;1/2 é o quantil de probabilidade 1 / 2 da distribuição t de
Student com n 2 graus de liberdade.
Hipóteses a testar:
H0 : 0 00 vs H1 : 0 00
Estatística de teste:
ˆ0 00
T
n
Xi2
i 1
S n 2
n Xi X
i 1
Regra de decisão:
Rejeitar H0 , ao nível de significância , se | t | t(n 2;1/2) , sendo t o valor
observado da estatística de teste e t(n 2;1/2) o quantil de probabilidade 1 / 2
da distribuição t de Student com n 2 graus de liberdade.
Nota:
O teste de hipóteses
H 0 : 0 0 vs H1 : 0 0
permite verificar se a constante é significativa para o modelo. No entanto, mesmo
que a constante seja não significativa, a validade do modelo não é posta em causa.
109
Estatística II
ˆ0
T .
n
Xi2
i 1
S n 2
n X i X
i 1
Como
ˆ0 82.710 ,
n
xi2
i 1
s 5.114 , logo s n
13.733 ,
2
n x i x
i 1
82.710
então um valor observado da estatística de teste é t 6.023 .
13.733
Considerando 0.05, logo t24;0.975 2.064 .
110
Regressão linear
Nota:
No caso em que as hipóteses estabelecidas sobre os i , i 1, , n , não se verificam
é questionável
(i) a validade dos testes realizados e do coeficiente de determinação,
(ii) as estimativas obtidas para os coeficientes e para os intervalos de confiança,
(iii) a precisão das previsões.
12.3.1. Modelo
111
Estatística II
Exemplo 12.2
Com o objetivo de explicar a massa gorda (%), em função da idade (anos), da
altura (m) e das pregas adiposas (mm) dos membros superior e inferior, foi
aleatoriamente recolhida uma amostra de 26 jovens atletas do sexo feminino,
tendo-se registado, para cada uma, os valores das cinco variáveis.
A primeira abordagem para a análise deste conjunto de dados deve ser gráfica e
consiste na representação da matriz de diagramas de dispersão que combina os
vários pares de variáveis
112
Regressão linear
(mm)
membro inferior
prega adiposa
(mm)
massa gorda (%) idade (anos) altura (m) prega adiposa prega adiposa
membro superior membro inferior
(mm) (mm)
Estes diagramas permitem visualizar a relação entre cada par de variáveis. Cada
célula da matriz apresenta o diagrama de dispersão de uma das cinco variáveis
versus uma das outras. De notar que os gráficos abaixo da diagonal são o espelho
dos que estão acima da diagonal. Por exemplo, o gráfico que se encontra na linha 3
e na coluna 2 representa a altura versus a idade, na linha 2 e coluna 3 encontra-se
o gráfico onde se representa a idade versus a altura.
A observação dos diagramas sugere que existe uma relação linear razoável entre a
massa gorda e as pregas adiposas dos membros superior e inferior, sendo fraca a
relação linear da massa gorda com a altura e praticamente inexistente com a idade.
Podemos ainda verificar que a relação linear entre cada par de variáveis
explicativas não é forte.
Além desta análise gráfica, é também importante determinar as correlações entre a
variável dependente e cada uma das variáveis independentes. Na tabela seguinte,
reporta-se os valores do coeficiente de correlação linear de Pearson entre cada par
de variáveis
113
Estatística II
Tal como acontece no modelo de regressão linear simples, também neste caso, os
verdadeiros valores dos coeficientes de regressão, 0 , 1 , 2 e 3 , não são conhecidos. O
procedimento a adotar consiste em obter estimadores b0 , b1 , b2 e b3 , com base na
informação amostral disponível, por exemplo, pelo método dos mínimos quadrados.
Uma medida da qualidade do ajustamento continua a ser dada pelo coeficiente de
determinação. Tal como definido no modelo de regressão linear simples,
n 2
yˆi y SS R
i 1
r2 n
,
2 SST
yi y
i 1
114
Regressão linear
Nota:
Tal como na regressão linear simples, uma das utilizações do modelo de regressão
linear múltipla consiste em prever o valor de y para um dado conjunto de valores
x1, , x k . Convém salientar, contudo, que só devemos usar o modelo de regressão
para efetuar previsão se
(i) o valor do coeficiente de determinação for elevado;
(ii) os valores para os quais se pretende fazer previsão pertencerem aos intervalos
de valores originais.
115
Estatística II
Notas:
1. Este teste não indica se todas as variáveis são significativas, apenas permite
verificar se o modelo de regressão linear múltipla é globalmente significativo.
2. No modelo de regressão linear simples, a avaliação global do modelo consiste em
efetuar o teste que tem como hipóteses
H0 : 1 0 vs H1 : 1 0 .
Estas hipóteses coincidem com as hipóteses do teste efetuado para avaliar se o
declive é significativo. Os valores observados para cada uma das estatísticas de
teste são distintos, pois um teste utiliza a estatística T e o outro utiliza a
estatística F , mas os p-values obtidos são, necessariamente, os mesmos.
H0 : 1 0 vs H1 : 1 0 ,
H0 : k 0 vs H1 : k 0 .
A construção de um intervalo de confiança para cada um dos k 1 parâmetros é
também um procedimento a realizar.
Dado o estimador ˆj , do parâmetro j , e a sua variância, var ˆj , a variável aleatória
ˆj
Tj , j 0, , k ,
var ˆj
116
Regressão linear
Hipóteses a testar:
H(j)
0
: j 0 vs H(j)
1
: j 0 j 0, , k
Estatística de teste:
ˆj
Tj , j 0, , k
var ˆj
Regra de decisão:
Rejeitar H(j)
0
, ao nível de significância , se | t j | t(n k 1;1 /2) , sendo t j o valor
observado da estatística de teste e t(n k 1;1/2) o quantil de probabilidade 1 / 2
da distribuição t de Student com n k 1 graus de liberdade.
Notas:
1. No caso da regressão linear múltipla, o teste t permite verificar se cada
coeficiente de regressão é individualmente significativo, mas tendo em conta a
presença das outras variáveis explicativas. O intervalo de confiança para cada
coeficiente tem também em conta a presença das outras variáveis explicativas.
2. O teste de hipóteses
H 0 : 0 0 vs H1 : 0 0
permite verificar se a constante é significativa para o modelo. No entanto,
mesmo que a constante seja não significativa, a validade do modelo não é posta
em causa.
117
Estatística II
118
Regressão linear
entanto, não é elementar. Como vamos decidir quais as variáveis “mais” explicativas?
No caso em que o número de variáveis candidatas a variáveis explicativas é reduzido, é
possível obter todos os modelos de regressão e escolher o “melhor”.
Yi 0 1X1i 2X 2i i ,
Yi 0 1X1i 3X 3i i ,
Yi 0 2X 2i 3X 3i i ,
Yi 0 1X1i i ,
Yi 0 2X 2i i ,
Yi 0 3X 3i i ,
Yi 0 i ,
i 1, , n .
Enunciámos todos os modelos lineares que é possível construir com três variáveis
explicativas. Por qual optar? Qual destes modelos “melhor” explica a massa gorda?
119
Estatística II
Exemplo 12.1
Recordemos que
Y representa o peso e X representa a altura.
Admite-se que a relação entre Y e X é linear, isto é
Yi 0 1Xi i , i 1, ,26 .
Ajustando o modelo de regressão linear simples, disponível no SPSS, obtém-se
Regression
a
Variables Entered/Removed
Model Method
b .
1 altura (m) Enter
a.
b.
120
Regressão linear
Model Summary b
Model R R Square
a
1 ,910 ,828 ,821 5,1139
a.
b.
a
ANOVA
a.
b.
a
Coefficients
H0 : 1 0 vs H1 : 1 0 (2),
testam, individualmente, cada um dos coeficientes. A estatística de teste para as
hipóteses (1) tem como valor observado t 6.023 , a que corresponde o p-value
p 0.001 . A estatística de teste correspondente às hipóteses apresentadas em (2)
tem como valor observado t 10.739 , ao qual corresponde um p-value p 0.001
(tabela Coefficients). Os valores dos p-values (ambos inferiores a 0.05) levam à
rejeição de cada uma das hipóteses nulas ao nível de significância de 5%, o que
permite inferir que os parâmetros 0 e 1 são significativamente diferentes de zero.
121
Estatística II
Normalidade
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
*
Standardized Residual ,094 26 ,200 ,939 26 ,127
*.
a.
Homocedasticidade
Para avaliar a homocedasticidade dos erros aleatórios representa-se o diagrama de
dispersão dos resíduos versus os valores preditos
2
Standardized Residual
-1
-2
40 50 60 70 80 90
Exemplo 12.2
Recordemos que
Y representa a massa gorda e X representa a prega adiposa do membro
inferior.
Considera-se o modelo de regressão linear simples para Y , em que X é a
variável explicativa, isto é
Yi 0 1Xi i , i 1, ,26 .
122
Regressão linear
Regression
a
Variables Entered/Removed
a.
b.
Model Summary
Model R R Square
a
1 ,809 ,654 ,639 3,2365
a.
a
ANOVA
a.
b.
a
Coefficients
Unstandardized Coefficients
123
Estatística II
Regression
a
Variables Entered/Removed
a.
b.
Model Summary
Model R R Square
a
1 ,882 ,778 ,748 2,7078
a.
a
ANOVA
a.
b.
a
Coefficients
a.
124
Regressão linear
H0 : 1 0 vs H1 : 1 0 (2),
H0 : 2 0 vs H1 : 2 0 (3),
H 0 : 3 0 vs H1 : 3 0 (4),
testam, individualmente, cada um dos coeficientes de regressão, tendo em conta a
presença das outras variáveis explicativas. As hipóteses (1) testam se a constante é
significativa para o modelo. O valor observado da estatística de teste é t 1.020 ,
a que corresponde um p-value p 0.319 (tabela Coefficients), pelo que não se
rejeita a hipótese 0 0 ao nível de significância de 5% (pois p 0.05 ). Como,
mesmo quando a constante não é significativa, a validade do modelo não é posta
em causa, opta-se numa situação destas por mantê-la no modelo de regressão. A
estatística de teste para as hipóteses (2) tem como valor observado t 0.329 , a
que corresponde um p-value p 0.746 (tabela Coefficients), pelo que não se rejeita
a hipótese 1 0 ao nível de significância de 5% (pois p 0.05 ). Dado que os
restantes p-values são inferiores a 0.05, conclui-se que, estando no modelo as
variáveis explicativas prega adiposa do membro superior e prega adiposa do
membro inferior, a variável altura não tem efeito significativo sobre a massa gorda.
Deste modo, o modelo de regressão linear múltipla que inclui estas três variáveis
explicativas não parece ser o mais conveniente. Vai então eliminar-se a variável
125
Estatística II
explicativa altura (visto não ser significativa para o modelo) e ajustar um novo
modelo de regressão linear múltipla
Regression
a
Variables Entered/Removed
a.
b.
Model Summary
Model R R Square
a
1 .881 .777 .757 2.6548
a.
a
ANOVA
b.
a
Coefficients
Unstandardized Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 5.148 2.237 2.301 .031
.537 .151 .458 3.560 .002
a.
126
Regressão linear
H0 : 2 0 vs H1 : 2 0 (2),
H 0 : 3 0 vs H1 : 3 0 (3).
Aos valores observados das estatísticas de teste correspondem p-values p 0.05
(tabela Coefficients). Assim, rejeita-se cada uma das hipóteses 0 0 , 2 0 e
3 0 , ao nível de significância de 5%, o que permite inferir que esses parâmetros
são significativamente diferentes de zero.
Deste modo, o modelo estimado tem equação dada por
yˆ 5.148 0.537x 2 0.360x 3 .
O mesmo modelo poderia ser obtido com a utilização do método stepwise para
seleção de variáveis (stepwise forward-with-a-backward-look)
Regression
a
Variables Entered/Removed
2 .
a.
c
Model Summary
Model R R Square
a
1 ,809 ,654 ,639 3,2365
2 b
,881 ,777 ,757 2,6548
a.
b.
c.
127
Estatística II
a
ANOVA
a.
b.
c.
a
Coefficients
a.
Pelo método stepwise para seleção de variáveis foram estimados dois modelos:
(i) o modelo 1, que inclui apenas a variável prega adiposa do membro inferior
como variável explicativa (das três variáveis em questão é a que melhor
explica a variável resposta);
(ii) o modelo 2, que inclui as variáveis explicativas prega adiposa do membro
inferior e prega adiposa do membro superior (das duas variáveis não incluídas
no modelo 1, a prega adiposa do membro superior é a que conjuntamente com
prega adiposa do membro inferior melhor explica a variável resposta).
O procedimento stepwise termina, pois a inclusão da outra variável não melhora o
modelo. O modelo final (modelo 2) não inclui a variável altura, estando presentes
apenas as variáveis prega adiposa do membro inferior e prega adiposa do membro
superior. Este modelo corresponde ao modelo já estudado atrás.
128
Regressão linear
Normalidade
Explore
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
*
Standardized Residual ,075 26 ,200 ,975 26 ,752
*.
a.
Homocedasticidade
Para avaliar a homocedasticidade dos erros aleatórios representa-se o diagrama de
dispersão dos resíduos versus os valores preditos
2
Standardized Residual
-1
-2
10 15 20 25 30 35
Não colinearidade
Para avaliar a hipótese de não colinearidade das variáveis explicativas calcula-se
129
Estatística II
Correlations
Correlations
**.
Forma do modelo
Para avaliar a forma do modelo representa-se o diagrama de dispersão dos resíduos
versus os valores de cada uma das variáveis explicativas
2 2
Standardized Residual
Standardized Residual
1 1
0 0
-1 -1
-2 -2
10 15 20 25 30 35 0 10 20 30 40
Prega adiposa membro superior (mm) Prega adiposa membro inferior (mm)
130
Bibliografia
bibliografia
Bruno, P., Carita, A., Diniz, A., Gonçalves, I., e Teles, J. (2008), Introdução à Teoria
das Probabilidades, Lisboa: Edições FMH.
Chatfield, C. (1995), Problem Solving – a Statistician’s Guide (2nd ed.), Boca Raton:
Chapman and Hall/CRC.
Field, A. (2005), Discovering Statistics Using SPSS (2nd ed.), London: Sage.
Murteira, B., Ribeiro, C. S., Silva, J. A., e Pimenta, C. (2007), Introdução à Estatística
(2ª ed.), Lisboa: McGraw-Hill.