Beruflich Dokumente
Kultur Dokumente
ÍNDICE
INTRODUÇÃO ....................................................................... 4
CAPÍTULO 1 ........................................................................... 6
INTRODUÇÃO ............................................................................................................................... 6
Tipos de erros ............................................................................................................................. 8
Erros aleatórios e sistemáticos em análises titrimétricas ......................................................... 10
Manipulando erros sistemáticos ............................................................................................... 12
CAPÍTULO 2 ......................................................................... 16
ERROS EM ANÁLISES CLÁSSICAS ......................................................................................... 16
Média e desvio padrão .............................................................................................................. 16
Distribuição de erros ................................................................................................................ 17
A distribuição de médias amostradas ....................................................................................... 22
Limites de confiança da média ................................................................................................. 23
Apresentação dos resultados .................................................................................................... 27
Outros usos dos limites de confiança ........................................................................................ 28
Propagação de erros aleatórios ............................................................................................... 29
Propagação de erros sistemáticos ............................................................................................ 33
CAPÍTULO 3 ......................................................................... 36
TESTES DE SIGNIFICÂNCIA .................................................................................................... 36
Comparação entre uma média experimental e um valor conhecido ......................................... 36
Comparação das médias de duas amostras .............................................................................. 38
Teste t pareado ......................................................................................................................... 41
TESTES MONO E BI-CAUDAIS ................................................................................................ 43
TESTES F PARA A COMPARAÇÃO DE DESVIOS PADRÕES .............................................. 45
CAPÍTULO 4 ......................................................................... 48
PONTOS FORA DA CURVA (“OUTLIERS”) ............................................................................ 48
ANÁLISE DE VARIÂNCIA ........................................................................................................ 52
Comparação de várias médias.................................................................................................. 53
Variações dentro da amostra .................................................................................................... 54
CAPÍTULO 5 ......................................................................... 62
TESTE CHI-QUADRADO ........................................................................................................... 62
Teste para distribuição normal ................................................................................................. 64
CONCLUSÕES SOBRE OS TESTES DE SIGNIFICÂNCIA ..................................................... 66
CONTROLE DE QUALIDADE E AMOSTRAGEM................................................................... 69
Amostragem .............................................................................................................................. 69
Separação e estimativa de variâncias usando ANOVA ............................................................ 71
CAPÍTULO 6 ......................................................................... 74
ANÁLISES COLABORATIVAS ................................................................................................. 74
Introdução................................................................................................................................. 74
Gráficos de duas amostras........................................................................................................ 75
Preparando uma Análise Colaborativa .................................................................................... 76
Cálculos em Análises Colaborativas ........................................................................................ 79
Cartas de controle .................................................................................................................... 84
CAPÍTULO 7 ......................................................................... 92
Erros em Análise Instrumental: Regressão e Correlação ............................................................. 92
Coeficiente de Correlação Produto-Momento............................................................................... 94
A Linha de Regressão de Y em X ................................................................................................... 99
Erros na Tangente e no Intercepto da Curva de Regressão ........................................................ 101
Cálculos de uma Concentração ................................................................................................... 105
INTRODUÇÃO
CAPÍTULO 1
INTRODUÇÃO
Procedimentos muito mais complexos podem ser necessários. Por exemplo: para
comparar as características de diferentes amostras de solo, ou de substratos de rios ou lagos,
as amostras podem sofrer, inicialmente, uma seleção de partículas, por exemplo, por meio
de separação em peneiras com 10 tamanhos de malhas diferentes. Cada amostra deverá,
então, ser caracterizada dentro dessas 10 distribuições. Procedimentos bastante complexos
de análises poderão então ser empregados para se obter uma conclusão quantitativa sobre as
similaridades das amostras e se estimar a probabilidade delas terem uma origem comum.
“Nenhum resultado quantitativo tem qualquer valor, a menos que ele seja
acompanhado de alguma estimativa dos erros inerentes”.
Se novos estudos mostrarem que esse valor é correto dentro da faixa de duas
unidades, isso é o valor verdadeiro provavelmente se encontra na faixa de 104 ± 2, então
um novo composto foi, provavelmente, sintetizado. Entretanto, se as novas medidas
mostrarem que o erro experimental é maior, talvez 10 unidades, (104 ± 10), então o valor
real provavelmente é menor que 100 e para se caracterizar um novo composto ainda serão
necessárias muitas análises adicionais.
Tipos de erros
Um analista trabalhando em sua rotina diária, em um laboratório de química está,
normalmente, sujeito a três tipos de erros. Esses erros podem ser classificados como:
grosseiros, aleatórios e sistemáticos.
Erros grosseiros são facilmente reconhecidos. Eles são erros tão sérios que não
deixam alternativas a não ser refazer todo o experimento. Exemplos incluem a quebra do
equipamento, contaminação de reagentes, erros na adição de alíquotas, etc.
Também são chamados de erros indeterminados.
Erros sistemáticos também são conhecidos como bias, que afetam a exatidão, isso é,
a proximidade do valor real.
A Preciso e inexato
B Exato e sem precisão
D Exato e preciso
9,70 10,00 10,30
Por outro lado, elas são muitas vezes utilizadas indiscriminadamente na vida
cotidiana. Além disso, a convenção moderna exige uma distinção cuidadosa dos termos
reprodutibilidade e repetibilidade. A repetibilidade refere-se a experimentos feitos de
maneira consecutiva, em condições de laboratório idênticas e na mesma vidraria. Já
reprodutibilidade refere-se a experimentos feitos em dias diferentes, com outro conjunto de
vidraria e com condições ligeiramente diferentes. Não é surpresa que, no último caso, os
resultados apresentem uma dispersão de valores maior.
Uma análise titrimétrica pode ser considerada como tendo os seguintes passos:
ii. Transferir uma alíquota da solução padrão para o frasco de titulação, com
uma pipeta;
iii. Titular o líquido do frasco com uma outra solução, adicionada à bureta.
Mesmo uma análise elementar desse tipo envolve de 7 a 10 passos separados, que
devem ser repetidos várias vezes. Em princípio, deve-se examinar cada passo
separadamente, para determinar os erros sistemáticos e aleatórios envolvidos no processo.
Isso significa avaliar corretamente os erros aceitáveis em procedimentos de pesagem e de
calibração de vidraria volumétrica.
A tolerância de uma pesagem com o maior grau de precisão, de 100 g, pode ser tão
baixa quanto ± 0,25 mg. Entretanto, para uma pesagem rotineira, ela pode ser até cerca de
quatro vezes maior. Similarmente, uma medida de alto grau de precisão para um volume de
250 mL pode ser de ± 0,12 mL. Se uma balança analítica ou uma vidraria volumétrica
estiver dentro dos limites de tolerância, mas não no valor exato de pesagem ou medida de
volume, um erro sistemático surge na medida. Por exemplo, se um frasco volumétrico
apresentar um volume de 249,95 mL, esse erro terá reflexo nos resultados de todos os
experimentos que o utilizar. A repetição do experimento não revelará o erro, em cada
repetição o volume será assumido como 250 mL quando, de fato, será menor que isso. Se
os resultados desse experimento forem comparados com aqueles obtidos em outros
laboratórios, feitos com outros frascos, então os respectivos erros sistemáticos serão
evidentes.
orgânico, com densidade de 0,92 g mL-1, que pesa 1,2100 g no ar, deveria pesar 1,2114 g
no vácuo, um erro maior que 0,1%.
Em muitas análises, o erro total na prática é relacionado com o erro em uma etapa
única: esse ponto será mais bem discutido no decorrer do curso.
Uma classe de erro sistemático muito comum ocorre quando falsas suposições são
aceitas sobre a exatidão dos instrumentos analíticos. Por exemplo, analistas experientes
estão cansados de saber que os monocromadores dos espectrômetros fogem gradualmente
do ajuste e, assim, que erros de vários nanômetros nos comprimentos de onda não são raros.
Entretanto, muitas análises fotométricas são feitas sem que os aparelhos sejam checados
quanto à sua exatidão.
Os erros sistemáticos não surgem apenas dos equipamentos, mas podem ser de
responsabilidade humana. Alguns experimentalistas podem sofrer de astigmatismo ou de
daltonismo, o que pode introduzir erros nas leituras dos instrumentos de medidas.
Muitos autores relatam uma série de outras bias em relação a números, por exemplo,
uma tendência a favorecer um número par sobre um ímpar, ou os dígitos zero e cinco, no
relatório dos resultados. Assim, isso aparenta que erros sistemáticos são um risco constante,
e muitas vezes ocultos, para os analistas, de forma que se deve tomar cuidado para
minimizá-los.
Muitas maneiras diferentes para solucionar esse problema estão disponíveis e várias
ou todas elas devem ser consideradas em cada procedimento analítico.
A ε cl (1)
Tem-se um complicado conceito para tratar; apesar de erros aleatórios terem uma
distribuição conhecida e de se combinarem numa maneira previsível num experimento de
múltiplos passos, o mesmo não é válido para os erros sistemáticos. Assim, dar uma
estimativa quantitativa para a incerteza total de um resultado está longe de ser uma tarefa
simples. Apesar desse problema, a importância do conceito de incerteza é clara, e justifica o
esforço que será desenvolvido durante o curso.
CAPÍTULO 2
Dois critérios foram utilizados, para se fazer uma análise comparativa desses
resultados, o valor médio e o grau de dispersão. O valor médio utilizado era a média
aritmética, x , que é normalmente abreviado para média, a soma de todos os valores obtidos
dividida pelo número de medidas.
Xj
X
j (2)
n
A definição mais útil para a dispersão dos dados experimentais é o desvio padrão, s.
Ele é definido pela equação:
X X j
2
s i (3)
n 1
100 s (4)
RSD
X
Distribuição de erros
O desvio padrão é uma medida da dispersão de um conjunto de resultados em torno
de um valor médio, entretanto, ele não indica a maneira como os valores estão distribuídos.
Para ilustrar esta distribuição, necessita-se de um número bem maior de medidas, como
aquele mostrado na Tabela 3. Esses resultados são referentes a 50 repetições de determinações
voltamétricas de dopamina em uma amostra particular, dados com dois algarismos
significativos. Os valores podem ser agrupados, como mostrado na
Tabela 4.
A
Tabela 4 mostra que, na Tabela 3, o valor 0,46 µg L-1 aparece apenas uma vez, o
valor 0,47 µg L-1 aparece três vezes e assim adiante. O valor mais comum nestas
determinações é o 0,51 µg L-1. Com estes resultados, pode-se calcular o valor médio deste
conjunto como sendo 0,500 µg L-1 e o desvio padrão como 0,0165 µg L-1. A esses valores
foram atribuídos, de maneira arbitrária, três algarismos significativos. Uma discussão sobre
esse importante aspecto da apresentação dos resultados será feita posteriormente. A
distribuição desses resultados pode ser mais bem percebida, colocando-os em um
histograma, como mostrado na Figura 2.
14
12
10
freqüência
8
0
0,46 0,47 0,48 0,49 0,50 0,51 0,52 0,53
valores medidos
X X j
2
(5)
s i
n 1
x 2
exp
2 2
y (6)
2
x
y
s = 2
1 > 2
s =
x
Figura 4. Distribuições normais com o mesmo valor de média (μ), mas com valores diferentes
de desvio padrão (σ).
Uma análise mais detalhada mostra que, sejam quais forem os valores de µ e de s,
aproximadamente 68% da população situa-se entre ± 1 s da média, aproximadamente 95%
está entre ± 2 s e que aproximadamente 99,7% situa-se entre ± 3 s da média.
O primeiro é a precisão das medidas individuais, que, por sua vez, depende
da variância da população.
Tomando cada coluna como uma amostra, os valores das médias serão: 0,506;
0,504; 0,502; 0,496; 0,502; 0,492; 0,506; 0,504; 0,500 e 0,486. É óbvio que esses valores
de média estão menos dispersos que os valores originais. Como as medidas originais são
uma amostra de uma população infinita de medidas possíveis esses valores de médias são
uma amostra das médias possíveis de amostras de cinco medidas tiradas de toda a
população. A distribuição desses valores de média é chamada de “distribuição de médias
amostradas”. O desvio padrão dessa amostra de médias é chamado de “erro padrão da
média” (s.e.m. – standard error of the mean).
σ
s.e.m.
n (7)
Como era intuitivamente esperado, quanto maior o n, menor a dispersão das médias
amostradas em relação ao μ. Esse termo universalmente utilizado, erro padrão da média,
pode dar origem a uma falsa interpretação, ao se pensar que possa estar relacionado
N
com a diferença entre 0 e µ. Isso não é assim, dá uma medida da incerteza envolvida
N
ao se estimar µ a partir de x , como será visto adiante.
confiança e os valores extremos desse limite são conhecidos como limites de confiança. O
termo “confiança” implica que se pode assegurar com um certo grau de confiança, i.e. com
certa probabilidade, que o intervalo de confiança inclui o valor real.
95%
x
1,96 1,96
N N
Figura 5. A distribuição amostral da média, mostrando a variação dentro de 95%.
1,96 x 1,96
n n (8)
(O valor exato 1,96 é usado nessa equação no lugar do valor dois, freqüentemente
utilizado).
x 1,96 x 1,96
n n (9)
x 2,97 x 2,97 (10)
n n
x 2,58 x 2,58 (11)
n n
A equação inicial pode ser usada para calcular a concentração dos íons nitrato com
um limite de confiança de 95%. Tem-se 0 = 0,500 e n = 50. A única grandeza na equação,
que não se conhece é s. Para amostras grandes, como esta, s dá uma estimativa
suficientemente precisa de s e pode substituí-lo. Assim, para um intervalo de confiança de
95% para a concentração de íons nitrato é:
0,0165 0,0165
0,500 1,96 0,500 1,96
50 50 (12)
s
x t
n (13)
( xi x ) 0 (14)
i
Pode ser visto que para tamanhos de amostras maiores que 50, os valores de t são
muito próximos aos valores 1,96 e 2,58, usados nas equações acima. Isso confirma a
proposição usada para calcular os limites de confiança para a concentração de nitrato. O
uso dos dados dessa tabela pode ser ilustrado por meio de um exemplo: o conteúdo de íons
sódio de uma espécie de urina foi determinada usando um eletrodo íon-seletivo. Os
seguintes valores foram obtidos: 102, 97, 99, 98, 101 e 106 mmol L-1. Quais são os limites
de confiança para 95% e 99% de confiança da concentração dos íons sódio? A média e o
desvio padrão desses valores são 100,5 mmol L-1 e 3,27 mmol L-1, respectivamente. Há seis
medidas e, portanto, cinco graus de liberdade. A partir da Tabela 5, o valor de t para
calcular o limite de confiança a 95% é 2,57 e a partir da equação:
s
x t
n (15)
O limite de confiança para 95% é μ = 100,5 ± 3,4 mmol L-1. Similarmente, para
99% de confiança: μ = 100,5 ± 5,4 mmol L-1.
Onde o uso do subscrito indica que o digito dado é apenas para evitar a perda da
informação. O leitor deve decidir se ele é útil ou não. Da mesma maneira, quando os limites
de confiança são calculados, não há razão para dar o valor de t s com mais de duas
N
casas significativas. O valor de x deve ser dado com o número correspondente de casas
decimais.
Algumas vezes a incerteza na última casa é enfatizada pela utilização das formas
0,1046 ou 0,1046 mol L-1, mas continua preferível dar uma estimativa específica da
precisão, como o desvio padrão.
Outro problema a ser considerado é se o número cinco deve ser arredondado para
cima ou para baixo. Por exemplo, se 9,65 deve ser arredondado para uma casa decimal, ele
se torna 9,7 ou 9,6? É evidente que os resultados serão supervalorizados se o cinco for
sempre arredondado para cima. Essa supervalorização pode ser evitada arredondando o
cinco para o número par mais próximo, dando, nesse caso 9,6. De maneira análoga, 4,75
deve ser arredondado para 4,8.
Os limites de confiança podem ser utilizados como um teste para erros sistemáticos,
como mostrados no exemplo seguinte:
s
x t
n (18)
Cujo valor final é 0,461 ± 0,002. (O valor de t foi obtido da Tabela 6, mais completa
que aquela discutida anteriormente).
Tabela 6. A distribuição t.
Valor de confiança de t para: 90% 95% 98% 99%
Valores de P: 0,10 0,05 0,02 0,01
1 6,31 12,71 31,82 63,66
2 2,92 4,30 6,96 9,92
3 2,35 3,18 4,54 5,84
4 2,13 2,78 3,75 4,60
5 2,02 2,57 3,36 4,03
6 1,94 2,45 3,14 3,71
7 1,89 2,36 3,00 3,50
8 1,86 2,31 2,90 3,36
9 1,83 2,26 2,82 3,25
10 1,81 2,23 2,76 3,17
12 1,78 2,18 2,68 3,05
14 1,76 2,14 2,62 2,98
16 1,75 2,12 2,58 2,92
18 1,73 2,10 2,55 2,88
20 1,72 2,09 2,53 2,85
30 1,70 2,04 2,46 2,75
50 1,68 2,01 2,40 2,68
Infinito 1,64 1,96 2,33 2,58
Como esse intervalo de confiança não inclui a absorbância conhecida de 0,470, deve
haver um erro sistemático envolvido.
Combinações lineares
Nesse caso, o valor final, y, é calculado a partir de uma combinação linear das
quantidades medidas a, b, c, etc. por:
Esse exemplo ilustra o ponto muito importante de que o desvio padrão para o
resultado final é maior do que aqueles para as leituras individuais da bureta, mesmo quando
o volume é calculado por uma diferença, mas é menor que a soma dos desvios padrões.
Expressões multiplicativas
kab
y (21)
cd
y 2
2 2
a b c ... (22)
y a b c
If
(23)
k c l I0
Onde as grandezas envolvidas são definidas abaixo, juntamente com uma estimativa
dos seus desvios padrões relativos (sendo k uma constante do aparelho):
Pode-se observar que o desvio padrão relativo no resultado final não é muito maior
que o maior dos desvios padrões utilizados no cálculo (isso é, 2% para If). Isso é uma
conseqüência maior da elevação ao quadrado dos desvios padrões relativo e ilustra um
ponto importante: qualquer esforço para melhorar a precisão do experimento deve ser
direcionado para a melhoria da precisão dos valores menos precisos. Como um corolário
para isso, não há qualquer vantagem em tentar aumentar a precisão dos valores mais
precisos. Isso não deve ser encarado como se erros pequenos não sejam importantes.
Pequenos erros em muitos passos da análise, como a análise titrimétrica discutida
anteriormente, produzirão um erro apreciável no resultado final.
É importante ressaltar que, quando uma quantidade é elevada a uma potência, por
exemplo, b3, então o erro não é calculado como uma multiplicação, isso é, b b b, porque
as quantidades não são independentes. Se a equação for:
y bn (24)
y n b
(25)
y b
Outras funções
y f (x) (26)
dy
y x (27)
dx
A log T (28)
E também:
dA (log e) 0,434
dT T T
log e ,0434
A T 0,001 0,0008 7
T 0,501
Combinações lineares
É importante lembrar que os erros sistemáticos podem ser tanto positivos quanto
negativos e que esses sinais devem ser incluídos no cálculo de Δy.
Expressões multiplicativas
kab
y (31)
cd
y a b c d
(32)
y a
b c d
y n b
(33)
y b
CAPÍTULO 3
TESTES DE SIGNIFICÂNCIA
Umas das propriedades mais importantes de um método analítico é que ele deve ser
isento de erros sistemáticos, isso é, o valor calculado pelo método deve ser o valor real.
Entretanto, erros aleatórios fazem com que o valor medido raramente seja exatamente igual
ao valor real. Para decidir se a diferença entre o valor medido e o valor padrão pode ser
atribuída a esses erros aleatórios, um teste estatístico, conhecido como teste de
significância, pode ser empregado.
s
x t
n (34)
É reescrita como:
n
t (x ) (35)
s
3
t (37,8 38,9) 1,98
0,964
Como se observou um valor muito menor de |t|, a hipótese nula é mantida, não há
evidência de erro sistemático. Repare, novamente, que isso não significa que não haja erro
sistemático, apenas não se provou que há.
Se as duas amostras têm desvios padrões que não são significativamente diferentes,
uma estimativa associada do desvio padrão pode ser calculada a partir de dois desvios
padrões s1 e s2, usando a equação:
s 2
(n
1 1) s12 (n2 1) s 22
(36)
(n1 n2 2)
( x1 x2 )
t
1 1 (37)
s
n1 n2
Dez determinações foram feitas para cada método. A hipótese nula adotada é que as
médias obtidas pelos dois métodos são iguais. Da equação anterior, o valor combinado de
desvios padrões é dado por:
(9 0,32 9 0,232 )
s2 s 0,267
18
Da equação de t:
(28,0 26,25)
t t 14,7
1 1
0,267
10 10
Outra aplicação para esse teste é ilustrada no próximo exemplo, onde ele é usado
para decidir se uma mudança nas condições experimentais afeta o resultado. Exemplo:
numa série de experimentos para a determinação de estanho em comidas enlatadas, as
amostras eram fervidas com ácido hidro clorídrico sob refluxo por tempos diferentes.
Alguns resultados são apresentados na Tabela 8:
A hipótese nula adotada é que o tempo de ebulição não tem efeito na quantidade
determinada de estanho. O valor combinado para a variância é dado por:
5 2,80 5 2,57
s2 s 1,64
10
57,00 57,83
t t 0,88
1 1
1,64
6 6
Se o postulado da igualdade dos desvios padrões das populações não for verdadeiro,
é preciso modificar a equação de t para:
( x1 x 2 )
t
s12 s 22 (38)
n1 n2
2
s1 s2
2 2
n n
GL 12 2 2 2 (39)
s12 s22
n1 2
n
n1 1 n2 1
Tabela 10. Resultados da concentração de tiol no sangue de dois grupos de voluntários (do
exemplo).
Ensaios “Normal” Reumatóide
1 1,84 2,81
2 1,92 4,06
3 1,94 3,62
4 1,92 3,27
5 1,85 3,27
6 1,91 3,76
7 2,07 Não realizado
N 7 6
s 0,076 0,440
x 1,921 3,465
Teste t pareado
Dois métodos de análises diferentes podem ter que ser comparados pelo estudo de
amostras contendo quantidades diferentes da espécie-teste. Exemplo: a Tabela 11 mostra
concentrações de chumbo (µg mL-1) determinadas por dois métodos diferentes para cada
uma das quatro amostras.
Tabela 11. Concentrações de chumbo (µg mL-1) determinadas por dois métodos diferentes (do
exemplo).
Solução Oxidação úmida Extração direta
1 71 76
2 61 68
3 50 48
4 60 57
xd n
t (40)
sd
Como os métodos analíticos têm, constantemente, que ser aplicados a uma faixa
grande de concentrações, qualquer novo método deve ser comparado a um método padrão
pela análise de amostras nas quais a concentração do analito pode variar em ordens de
grandeza. Nesse caso é inapropriado usar o teste-t pareado, pois sua validade depende da
afirmação que qualquer erro, aleatório ou sistemático, é independente da concentração.
Assim, em amplas faixas de concentrações, não se pode mais fazer tal afirmação.
Para um dado valor de n e para um nível de probabilidade particular, o valor crítico para um
teste mono-caudal difere daquele para um teste bi-caudal. Em um teste mono-caudal para
um incremento, o valor crítico de t (no lugar de |t|) para P = 0,05 é aquele valor que é
excedido com uma probabilidade de 5%. Como a distribuição da amostra da média é
assumida ser simétrica, essa probabilidade é metade da probabilidade que é obtida num
teste bi-caudal. O valor apropriado para um teste mono-caudal é, assim, encontrado na
coluna P = 0,10 tabelado (ANEXO B: VALORES CRÍTICOS DE F (P = 0,05)). De
maneira similar, para um teste mono-caudal, com P = 0,01, o valor da coluna P = 0,05
deverá ser utilizado.
(x ) n
t
s
(25,228 25,00) 6
t t 2,35
0,238
s12
F 2 (41)
s2
Onde os parâmetros são colocados na equação de tal forma que F é sempre maior ou
igual a um. A hipótese nula adotada é que as populações de onde as amostras são tomadas
são normais, e que as variâncias das populações são iguais.
Se a hipótese nula for verdadeira, então a relação de variâncias deve ser muito perto
de um. Diferenças de um ocorrem por causa das variações aleatórias, mas se a diferença é
muito grande, ela não pode mais ser atribuída a esta causa. Se o valor calculado de F
exceder um certo valor crítico (Erro! Fonte de referência não encontrada. e Erro! Fonte
de referência não encontrada.) então a hipótese nula deve ser rejeitada. Esse valor crítico
de F depende do tamanho de ambas as amostras, do nível de significância e do tipo de teste
executado. Exemplo: um método para determinar a demanda química de oxigênio em águas
residuárias foi comparado com um método padrão (sal de mercúrio). Os resultados
seguintes foram obtidos de uma alíquota de efluentes de esgotos (Tabela 12).
Tabela 12. Resultados de dois métodos para determinar a demanda química de oxigênio em
águas residuárias (do exemplo).
Método Média (mg L-1) Desvio padrão (mg L-1)
Padrão 72 3,31
Proposto 72 1,51
Para cada método, oito determinações foram feitas. A precisão do método proposto
é de maneira significativa maior que a do método padrão? Aplicando a equação de F:
3,312
F7,7 F7,7 4,8
1,512
O valor crítico de F (P = 0,05) é, nesse caso, 3,787 (Erro! Fonte de referência não
encontrada.). Como o valor calculado de F (4,8) excede o valor crítico, a variância do
método padrão é significantemente maior que a do método proposto, portanto, esse é mais
preciso.
Nesse caso, entretanto, não se tem qualquer razão para supor, em antemão, que a
variância de um método deva ser maior que a do outro. Assim, um teste bi-caudal deve ser
apropriado. Os valores críticos da tabelados são aqueles que F excede, com uma
probabilidade de 0,05, assumindo que ele deve ser maior que um.
Num teste bi-caudal, a relação entre a primeira e a segunda variância pode ser
menor ou maior que um, mas se F for calculado como maior que um, a probabilidade que
ele exceda o valor tabelado deve ser dobrada. Assim, os valores críticos dados da Erro!
Fonte de referência não encontrada. não são apropriados para testes bi-caudais e a outra
tabela deve ser utilizada no lugar. Da Erro! Fonte de referência não encontrada.,
tomando o número de graus de liberdade de ambos numerador e denominador como nove,
o valor crítico para F é 4,026. O valor calculado é menor que isso, assim não há diferença
significante entre as duas variâncias no nível de 5%.
CAPÍTULO 4
valorsuspeito valorvizinho
Q (42)
valormaior valormenor
Os valores críticos de Q para P = 0,05 e para P = 0,01 estão na Tabela 13. Se o valor
calculado de Q exceder o valor crítico, o suspeito deve ser rejeitado.
Os valores dados são para os testes bi-caudais, apropriados quando não se conhece
em que extremo um ponto fora da curva pode ocorrer.
0,380 0,401
Q Q 0,7
0,410 0,380
Da Tabela 13, para uma amostra com tamanho 4, o valor crítico de Q é 0,831 (P =
0,050). Como o valor encontrado não excede o valor crítico, ele deve ser mantido.
Idealmente, mais medidas devem ser feitas, quando um valor suspeito é detectado,
particularmente quando poucas medidas foram tomadas inicialmente. Isso pode tornar mais
claro quando um valor suspeito deve ou não ser rejeitado. Mesmo se ele for mantido, sua
contribuição para o valor da média e desvio padrão será menor.
0,380 0,400
Q Q 0,606
0,413 0,380
O valor crítico de Q (P = 0,05) para uma amostra de sete valores é 0,570, assim o
valor suspeito é rejeitado em um nível de significância de 5%. O resultado de 0,380 deve
ainda ser mantido?
0,380 0,400
Q Q 0,606
0,413 0,380
O valor crítico de Q (P = 0,05) para uma amostra com sete medidas é 0,570. Assim,
a medida suspeita deve ser rejeitada a um nível de significância de 5%.
É importante atentar para o fato de que, num nível de significância de 5%, ainda há
uma chance de 5%, ou seja, um em 20, de se rejeitar de maneira incorreta um valor
suspeito. Isso pode ter uma influência considerável na estimativa da precisão de um
experimento. Por exemplo, para todos os sete valores de concentração de nitrito dados
acima, o desvio padrão é 0,011 mg L-1, mas quando o valor suspeito é rejeitado, o desvio
padrão torna-se 0,0056 mg L-1, isso é, a precisão do experimento parece ter aumentado por
um fator de dois. O exemplo acima ilustra a importância de se ater a critérios para aceitar
ou rejeitar um valor fora da curva.
b
2 2,2 2,4 2,6 2,8 3 3,2
x1 xn
Na Figura 6 há dois resultados, 2,9 e 3,1, que são suspeitos quando comparados com
os outros. Entretanto, se calcular o valor de Q, obter-se-á:
3,1 2,9
Q Q 0,18
3,1 2,0
Um valor que não é significante (P = 0,05). Claramente, o valor fora da curva 3,1
foi mascarado pelo outro valor suspeito 2,9, dando um valor baixo de Q.
Uma situação diferente ocorre com o exemplo b, onde os dois valores suspeitos
estão nas extremidades opostas do conjunto de dados.
Novamente, vários tipos de testes têm sido propostos, um deles sendo (xn - xi) / s,
sendo s o desvio padrão da amostra.
ANÁLISE DE VARIÂNCIA
Nos exemplos anteriores, ela pode ser usada para separar qualquer variação causada
pelos fatores de controle da variação causada por erros aleatórios. Ela pode, assim, testar se
ANOVA também pode ser usada em situações onde há mais de uma fonte de
variações aleatórias. Considere, por exemplo, o teste de pureza de um lote de frascos de
cloreto de sódio. As amostras são tiradas de várias partes do lote, escolhidas de maneira
aleatória e análises repetidas são feitas nessas amostras. Além do erro randômico na medida
das purezas, também pode haver variações na pureza de cada amostra, de diferentes partes
do lote. Como as amostras são tomadas aleatoriamente, os erros também serão aleatórios e,
assim, eles são chamados de fator de efeito aleatório.
Mais adiante, será discutida também situação mais complexa, com dois ou mais
fatores, todos interagindo entre si.
Três medidas repetidas foram feitas de cada amostra. A Tabela 14 mostra que os
valores das médias para cada amostra são diferentes.
Entretanto, sabe-se que, devido ao erro aleatório, mesmo se o valor verdadeiro que
se está tentando avaliar não mudasse, a média de cada amostra deverá variar.
Tabela 14. Sinal de fluorescência de soluções estocadas em diferentes condições (do exemplo).
Ensaio Condições Medidas Média
A Preparado na hora 102, 100, 101. 101
B Estocada 1 h no escuro 101, 101, 104. 102
C Estocada 1 h à meia-luz 97, 95, 99. 97
D Estocada 1 h sob luminosidade 90, 92, 94. 92
Média total 98
As médias das amostras são x1 , x2 ,..., xn e a média para todos os valores agrupados
é x . A hipótese nula adotada é que todas as amostras foram tiradas de uma população com
média µ e variância σ02.
Com base nesta hipótese, σ02 pode ser estimado de duas maneiras, uma envolvendo
a variação dentro das amostras e outra a variação entre as amostras.
(x i x)2
(43)
n 1
Fazendo a média dos valores de variância acima tem-se a estimativa de σ02 dentro
da amostra:
1 3 4 4
02 3
4
Esta estimativa possui oito graus de liberdade; cada amostra tem dois graus de
liberdade e existem quatro amostras. É necessário observar que esta estimativa não depende
das médias das amostras; se, por exemplo, todas as medidas de A forem acrescidas de, por
exemplo, quatro, esta estimativa de σ02 permaneceria inalterada.
( xij xi ) 2
2
(44)
h(n 1)
0
i j
62
02 3 02 62
3
Essa estimativa tem três graus de liberdade, desde que ela foi calculada de quatro
médias de amostras. Observe que esta estimativa de σ02 não depende da variabilidade
dentro de cada amostra, pois ela é calculada de médias de amostras. Entretanto, se, por
exemplo, a média da amostra D for mudada, a estimativa σ02 também mudará. Em geral
tem-se (para σ02 entre amostras):
( xi x )2
02 n (45)
i h 1
Que é, novamente, uma média quadrada envolvendo a soma dos termos quadráticos
dividida pelo número de graus de liberdade. Nesse caso, o número de graus de liberdade é
três e a média quadrada é 62 e, assim, a soma dos termos quadráticos é 3 82 186 .
Se a hipótese nula for correta, essas duas estimativas de σ02 não devem diferir
significativamente. Se ela for incorreta, a estimativa de σ02 entre amostras será muito maior
que a de dentro da amostra por causa das variações entre as amostras.
s12 62
F 2 F3,8 20,7
s2 3
É bom lembrar que cada média quadrada é usada, assim não é necessário mais
elevar ao quadrado.
Como o valor calculado é maior que o valor crítico, a hipótese nula é rejeitada e a
diferença entre as médias é significativa.
2
s t h ( n 1) (46)
n
2
3 2,306( P 0,05) 3,26
3
Comparando esse valor com as diferenças entre as médias fica evidente que média
(D) e média (C) diferem significantemente uma da outra e da média (A) e média (B), mas
essas duas não diferem entre si, isso é, a exposição à luz é que afeta a fluorescência.
( x
i j
ij x ) 2 4 2 2 2 32 ... 210
Os valores das variâncias totais, dados na última linha da Tabela 16, são as somas
dos valores nas duas primeiras linhas, tanto para os quadrados dos desvios padrões como
para os graus de liberdade. Esta propriedade aditiva se mantém para toda a discussão de
ANOVA feita no curso. Assim como no cálculo da variância, existem fórmulas que
simplificam os cálculos das somas dos quadrados.
Dentro da amostra ( x
i j
ij xi ) 2 24 h(n 1) 3
Total ( x
i j
ij x) 2 210 hn 1 11
Os cálculos das médias quadráticas são feitos na Tabela 18 e na Tabela 19. Todos os
valores da Tabela 14 foram subtraídos por um valor de 100, o que simplifica muito os
cálculos.
T 24 T i
i
2
702
(24) 2
Total 258 210 11
12
Será visto que uma parte importante da ANOVA é a aplicação dos testes-F. O uso
desses testes é limitado para a comparação da variância de duas amostras e depende de que
as amostras sejam retiradas de uma população normal. Entretanto, por sorte, os testes-F
quando aplicados em ANOVA, não são tão sensíveis para desvios da normalidade.
CAPÍTULO 5
TESTE CHI-QUADRADO
Os testes de significância descritos até aqui têm, em geral, testado se a média de
várias medidas difere significativamente do valor proposto pela hipótese nula.
Os dados usados foram tomados na forma de observações que, por algum tipo de
arredondamento, foram medidos numa escala contínua. Em contraste, nessa parte da aula a
preocupação será com a freqüência, isso é, o número de vezes que um evento ocorre. Por
exemplo, a
Tabela 4 dá a freqüência com que os diferentes valores obtidos para concentrações
do íon nitrato quando são feitas 50 medidas em uma amostra.
Como já discutido anteriormente, tais medidas são assumidas como tiradas de uma
população que está normalmente distribuída. .
A hipótese nula adotada é que não há diferença nas habilidades dos quatro técnicos.
Assumindo que eles utilizaram a vidraria por um intervalo de tempo igual, espera-
se, pela hipótese nula, que cada um quebrou o mesmo número de vidros. Como o total de
quebra foi 61, espera-se que cada técnico quebrou 61 / 4 = 15,25 vidros. A questão a ser
respondida é se a diferença entre as freqüências observadas e esperada é tão grande que a
hipótese nula deva ser rejeitada.
Se existe alguma diferença entre os dois conjuntos de dados de freqüências pode ser
mais facilmente observado considerando-se uma seqüência de lançamentos de dados.
Observe que o total da coluna O - E é sempre zero assim podendo ser usada para
checar os cálculos. Se χ2 exceder um certo valor crítico, a hipótese nula deve ser rejeitada.
Nesse cálculo de χ2, parece que o resultado significante foi obtido pelo alto número
de quebras reportado pelo técnico número um. Para aprofundar esse estudo, testes chi-
quadrado adicionais devem ser feitos. Um desses testes analisa se o segundo, terceiro e
quarto técnicos diferem significantemente: nesse caso, a freqüência esperada para cada um
será: (17 + 11 + 9) / 3.
Observe que um teste T não pode ser aplicado aqui, pois está se trabalhando com
freqüências e não com valores contínuos.
100
% freqüência
cumulativa
50
Medida
99
98
95
90
% freqüência cumulativa
80
70
60
50
40
30
20
10
5
2
1
Considere uma situação onde um certo produto químico deve conter 3% de fósforo
em massa. Suspeita-se que esta proporção aumentou e para testar isso sua composição será
analisada pelo método padrão com um desvio padrão conhecido de 0,03%. Suponha que
quatro medidas foram feitas e que um teste de significância foi conduzido em um nível de P
= 0,05. Foi necessário um teste mono-caudal, pois se estava interessado apenas no aumento
da concentração de fósforo. A hipótese nula considerada foi = μ = 3,0%.
Tipo 2 Tipo 1
x
3,00 3,05
xc
A probabilidade desse erro tipo dois é representada pela área achurada. Essa figura
esclarece a inter dependência dos dois tipos de erros. Se, por exemplo, P for diminuído para
0,01 para reduzir a chance do erro tipo um, x c aumentará e o risco de erro tipo dois
também. Da mesma maneira, a diminuição da probabilidade de erro tipo dois só pode ser
feita às custas de um aumento da probabilidade de erro tipo um.
Tipo 2
Tipo 1
x
3,00 3,05
xc
A diminuição resultante no erro padrão das médias produz uma diminuição nos dois
tipos de erros, para um dado valor de x c . A probabilidade de uma hipótese nula falsa ser
rejeitada é conhecida como o poder de um teste. Isso é, o poder de um teste é (1 – a
probabilidade de um erro tipo dois). No exemplo acima, é uma função da média
especificada na hipótese alternativa, do tamanho da amostra, do nível de significância e se o
teste é mono ou bi-caudal.
Em algumas circunstâncias, quando são disponíveis dois ou mais testes para avaliar
a mesma hipótese, é útil comparar os poderes desses testes antes de escolher o mais
apropriado.
Erros do tipo um e dois são relevantes também quando testes de significância são
aplicados de maneira seqüencial. Um exemplo dessa situação é a aplicação de teste-T para
a diferença entre duas médias, após se utilizar um teste-F para decidir se as variâncias das
amostras podem ser associadas.
Os testes estatísticos descritos até aqui foram aplicados em situações mais simples
do que as encontradas em muitos laboratórios de análises. Assim, assume-se que não havia
nenhuma dificuldade ou erro envolvido em conseguir as amostras utilizadas nas análises.
Na prática, a amostragem causa problemas diretos nas análises.
Amostragem
Esse tópico é de fundamental importância, pois, a menos que para a etapa de
amostragem seja dada atenção cuidadosa, os métodos estatísticos discutidos aqui podem
tornar-se inválidos para a discussão dos resultados.
Um analista deve lidar com amostra, pois, na maioria dos casos, é impraticável ou
impossível analisar todo o objeto sob consideração. Por exemplo, não é praticável analisar
um tanque cheio de leite para determinar o teor de gordura e é impossível analisar toda a
água de um rio para se determinar poluentes. Além disso, muitos procedimentos analíticos
são destrutivos e assim não podem ser aplicados a um objeto de valor.
por um. Nesse exemplo a batelada de tabletes forma uma população e os tabletes pesados
formam uma amostra dessa população.
Se a amostra for usada para deduzir as propriedades da população, ela deve ser o
que é conhecido estatisticamente como uma amostra aleatória.
Essa é uma amostra tomada de uma maneira que todos os membros da população
têm a mesma chance de ser incluído. Apenas assim as equações utilizadas no tratamento
estatístico, por exemplo, para o cálculo do limite de confiança da média podem ser
utilizadas.
Apesar de, na prática o analista poder espalhar os tabletes na sua bancada e tentar
pegar uma amostra de dez ao acaso, esse método pode originar uma bias inconsciente.
A melhor maneira de se obter uma amostra aleatória é pelo uso de uma tabela de
números aleatórios.
Na prática, os volumes de materiais não são homogêneos por uma série de razões.
Materiais como minerais ou sedimentos consistem de partículas macroscópicas de várias
composições que não podem ser homogeneamente distribuídas no volume. Fluídos podem
ser não homogêneos numa escala molecular, devido a gradientes de concentração.
Como já foi discutido, há duas possíveis fontes de variações: aquela devido aos
erros aleatórios nas medidas de pureza, dada pela variância calculada, σ02, e aquela devido
à variação real da pureza das amostras de cloreto de sódio em diferentes pontos do tambor,
dada pela variância das amostras, σ12.
( xi xi ) 2
2
(47)
h(n 1)
0
i j
Como a média quadrada dentro das amostras não depende da média da amostra
(aula anterior), ela pode ser usada como uma estimativa de σ02. A média quadrada entre as
amostras não pode ser usada para estimar σ12 diretamente, pois a variação entre as médias
das amostras é causada por ambos, erros aleatórios de medidas e de pureza das amostras.
Entretanto, antes de uma estimativa da variância das médias quadradas das amostras, σ12,
for feita, é necessário conduzir um teste para verificar se ele difere significativamente de
zero. Isso é feito comparando-se as médias quadradas dentro e inter amostras: se elas não
diferirem significantemente, então σ12 = 0 e ambas médias quadradas estimam σ02.
1,96
F4,15 30
0,0653
n4
h5
N 20
x
i j
2
ij 9,62
O valor crítico de F, para P = 0,05 é 3,056. Como o valor calculado é muito maior,
σ12 difere significativamente de zero.
A média quadrada dentro das amostras dá 0,0653 como uma estimativa de σ02.
Como a média quadrada entre as amostras estima σ02 + nσ12 tem-se: estimativa de σ12 =
(médias quadradas entre amostras – dentro das amostras) / n = (1,96 - 0,0653) / 4 = 0,47,
que seria a variância das médias quadradas entre as amostras.
CAPÍTULO 6
ANÁLISES COLABORATIVAS
Introdução
Análises colaborativas procuram examinar a seguinte questão:
“Se a mesma amostra (ou um conjunto de alíquotas idênticas de uma única amostra)
é analisada com o mesmo método em diferentes laboratórios, os resultados obtidos serão os
mesmos, nos limites de erros aleatórios?”.
Esses resultados divergentes são extremamente sérios. Eles implicam em que uma
amostra de (por exemplo) alimento que aparentemente passou por um teste de qualidade em
um laboratório, pode não passar pelo mesmo método em outro.
Esse resultado é demonstrado pelo uso de um gráfico de duas amostras (ou x - y),
como sugerido por W. J. Youden. O princípio envolvido é que a cada laboratório que está
colaborando na análise deve ser enviado duas amostras similares (x e y) e se farão
determinações em cada uma.
Os resultados são graficados como na Figura 11. Cada ponto representa um par de
resultados de um único laboratório.
Amostra Y
X ,Y
Amostra X
Figura 11. Gráfico mostrando resultados de análise de duas amostras num único laboratório.
Os resultados podem ser usados para se avaliar se o método é adequado para o uso
geral, e às vezes, para identificar aqueles laboratórios que podem ser incumbidos de fazer
um trabalho analítico importante, por exemplo, na área de saúde pública. Assim, parece ser
fácil se organizar uma cooperação nesse sentido.
Os dois níveis dos fatores são chamados de (+) e (-) e a Tabela 26 mostra como
esses níveis são atribuídos aos oito experimentos, cujos resultados são chamados de y1, y2,
até y8.
O efeito de se alterar cada um dos fatores do seu nível alto para o seu nível baixo é
facilmente calculável.
( y1 y 2 y5 y 6 ) ( y3 y 4 y 7 y8 )
4 4
n2
h5
N 10
x
i j
2
ij 147,06
8,584
F4,5 8,350
1,028
O valor crítico de F4,5 (P = 0,05) é 5,192, assim conclui-se que a diferença entre as
duas médias quadráticas é significante. Isso significa que a variação sistemática entre
laboratórios (σ12) é significantemente maior que zero e pode ser estimada como [(média
quadrática entre - amostras) - (média quadrática interamostras)] / n. O valor resultante para
σ12 é 3,878, mostrando claramente que a maior diferença nos resultados é devido a erros
sistemáticos diferentes entre os laboratórios.
Na primeira parte da aula viu-se que uma colaboração na qual cada laboratório faz
uma única determinação em cada uma de duas amostras similares pode gerar dados
valiosos sobre erros sistemáticos e aleatórios. Essa aproximação tem outras vantagens
relacionadas com o fato dos laboratórios participantes não ficarem tentados a censurar uma
ou mais determinações repetidas. Além disso, mais material pode ser estudado sem um
grande número de experimentos. Exemplo: o nível de chumbo (em ng g-1) em duas
amostras similares (A e B) de formulações de leite em pó para crianças foi determinado em
nove laboratórios (1 - 9) por espectroscopia de absorção atômica com forno de grafite. Os
resultados são mostrados na Tabela 30.
Tabela 30. Nível de chumbo (em ng g-1) em duas amostras similares (A e B) de formulações de
leite em pó para crianças - determinado em nove laboratórios (do exemplo).
Amostra Laboratórios
1 2 3 4 5 6 7 8 9
A 35,1 23,0 23,8 25,6 23,7 21,0 23,0 26,5 21,4
B 33,0 23,2 22,3 24,1 23,6 23,1 21,0 25,6 25,0
Numa abordagem normal, tal situação seria tratada por uma ANOVA bi-modal.
Entretanto, por enquanto, têm-se apenas duas amostras, escolhidas deliberadamente por
serem similares no conteúdo de analito, assim não há interesse em avaliar a diferença entre
os conteúdos. Os cálculos podem então ser efetuados numa maneira que é muito mais
simples, tanto numericamente quanto conceitualmente do que uma ANOVA bi-modal
completa. Ao efetuar os cálculos nota-se que os resultados obtidos por cada laboratório para
a amostra A podem incluir um erro sistemático.
O mesmo erro sistemático deverá estar incluído nos resultados daquele laboratório
para a amostra B. A diferença D (= A - B) deverá ter, então, esse erro removido, assim a
dispersão dos valores de D dará uma estimativa dos erros aleatórios das medidas. De
maneira similar, A e B podem ser somados para fornecer T, a dispersão dos quais dá uma
estimativa da variação total dos resultados. A variância medida pode então ser estimada
por:
2
(D i D )2
(47)
2(n 1)
0
2
(T T ) i
2
(48)
2(n 1)
Mais cálculos com as últimas duas linhas mostram que D 0,244 , T 49,33 e,
assim a estimativa de é (1,383)2 e uma estimativa de σ02 é (5,296)2. Assim, F8,8 = (5,296 /
1,383)2 = 14,67. O valor crítico (P = 0,05) é 3,44 (tabelas de F, página Erro! Indicador
não definido.).
interlaboratoriais não podem ser atribuídas por erros aleatórios de medidas e que erros
sistemáticos devem ter ocorrido.
2 12 02 (49)
Assim, é uma tarefa simples calcular-se que uma estimativa de σ12 é (3,615)2.
Mesmo análises colaborativas muito simples, desse tipo, não deixa de ter seus
problemas. Às vezes, um laboratório não consegue fazer as medidas em ambas ou todas as
amostras enviadas, talvez pela perda de uma delas em trânsito ou sua adulteração, ou ainda
devido a erros grosseiros no próprio laboratório.
Após esta rejeição, o recálculo de σ02 e σ2 para os demais laboratórios mostram que,
apesar de σ2 ainda ser grande, o teste-F indica que a diferença não é mais significante (P =
0,05). Isso significa que, se o laboratório um for eliminado da cooperação, as diferenças
observadas nos resultados dos outros laboratórios podem ser atribuídas simplesmente a
erros aleatórios. Muitas análises colaborativas podem ser muito mais complexas que essas,
envolvendo várias amostras e laboratórios e experimentos repetitivos. Isso será um tema
futuro.
Cartas de controle
Uma situação que pode ocorrer é quando um produto manufaturado é monitorado
em função do tempo para ver se os itens individuais do produto contêm em média, os
valores corretos de uma dada substância, e que não há muita variação. Uma maneira de se
fazer isso é tomar-se pequenas amostras a intervalos regulares.
Considerar a situação específica onde o peso dos tabletes que saem de uma linha de
produção é monitorado.
Idealmente, os pesos de cada tablete medido devem estar de acordo com um valor
alvo, µo; mas, na prática, há alguma variação aleatória de um tablete a outro. Essa variação
é parcialmente devida ao erro ao se avaliar o peso do tablete e parcialmente devida às
diferenças reais de pesos. Suponha que nós conheçamos o tamanho da variação aleatória
total, como medida pelo desvio padrão da população, σ, do exemplo anterior.
Se o processo está sob controle, isso é, se os pesos dos tabletes produzidos pelo
processo tiverem realmente um peso médio, µo e um desvio padrão, σ, então, para uma
amostra consistindo de n tabletes, aproximadamente 95% das médias amostradas cairá
dentro dos limites dados por:
2
0 (50)
n
3
0 (51)
n
X
3
0 Linha superior de ação
n
2
0 Linha superior de atenção
n
0 Valor alvo
2
0 Linha inferior de atenção
n
3
0 Linha inferior de ação
n
Tempo
Pode-se observar que uma carta de controle mostra uma série de testes de
significância, com as linhas de aviso e ação representando P = 0,05 e P = 0,003,
respectivamente. Ocasionalmente o processo pode ser interrompido ainda sob controle (um
erro do tipo um), mas o risco é baixo.
Existem duas razões pelas quais os pontos podem começar a cair fora das linhas de
ação.
Por outro lado, uma diminuição na variação significa que uma mudança na média
do processo pode ficar sem ser detectada, novamente por causa das linhas de aviso e ação,
que não indicam mais as probabilidades corretas e que estão muito afastadas do valor alvo.
próximo ponto caia fora das linhas de ação. Se a mudança for de 1 esta probabilidade
n
cairá para 1/40 .
O número médio de pontos que deve ser plotado antes que uma mudança na média
do processo seja detectada é conhecido como comprimento médio de corrida (ARL).
processo muda de 1 então a ARL antes de uma média da amostra cair fora das linhas
n
de ação é cerca de 50.
Um tipo diferente de carta de controle, conhecido como carta cusum, utiliza todas as
médias amostradas prévias, ao invés de apenas uma ou duas, como nas cartas de Shewhart.
‘Cusum’ é uma abreviação para ‘cumulative sum – soma cumulativa’, isso é, a soma dos
desvios das médias amostradas do valor alvo, feita acumulativamente. Um exemplo torna
esse conceito mais claro. A Tabela 32 dá os valores de médias amostradas para uma
n 2,5
X
U.A.L.
85 U.W.L.
80 Valor alvo
75 L.W.L.
L.A.L.
5 10
Número de observações
Pode-se observar que, apesar de nenhum ponto cair fora das linhas de aviso, uma
seqüência cai num dos lados do valor alvo.
Um bom impacto visual é conseguido se a carta cusum for desenhada de modo que
Cusum
30
20
10 5 10 Número de
observações
0
-10
-20
-30
Da carta cusum parece que a média do processo muda após oito amostras terem sido
tomadas. Esta é a maior vantagem de uma carta cusum – ela indica em que ponto o
processo saiu de controle.
Número de
observações
0
d
Diz-se que o processo está sob controle quando todos os valores de cusum caem
dentro dos braços de V, como mostrado na Figura 15. Por outro lado, a Figura 16 mostra
uma situação em que o processo está fora de controle.
Cusum Número de
observações
0
d
Nesse caso, dois dos valores de cusum estão fora dos braços do V, o que indica que
a média do processo caiu abaixo do valor alvo. Obviamente o desempenho da máscara
depende dos valores selecionados para θ e d. Os valores de θ e d devem ser escolhidos de
foram que muito poucos alarmes falsos sejam dados quando o processo estiver sob
controle, mas uma mudança importante na média do processo deve ser rapidamente
detectada.
Uma carta de cusum também pode ser usada para estimar o tamanho da mudança
que ocorreu na média do processo quando ele ficou fora de controle. Se, por exemplo, a
média do processo diminui por Δ então, por média, cada valor de média amostrada será Δ
menor que o valor alvo. Como resultado, o cusum decrescerá, numa média, por Δ para cada
ponto plotado. Assim, a tangente média da linha ligando os pontos do cusum dá uma
medida da mudança na média do processo e, assim, da correção requerida.
Os métodos descritos nesse tópico podem ser utilizados para monitorar a exatidão e
a precisão de análises de rotina no nosso laboratório.
ANOVA pode ser usada para verificar se a variância entre os padrões não é
significantemente comparada com os erros aleatórios das medidas. Se não, ela também
pode ser usada para estimar o último parâmetro.
CAPÍTULO 7
Concentração
i. A curva de calibração é linear? Se ela for uma curva, qual é a sua forma?
iii. Assumindo que a curva de calibração é realmente linear, quais são os erros
estimados e os limites de confiança para a tangente e o intercepto desta
linha?
iv. Quando a curva de calibração for usada pelo analista numa determinação de
uma amostra, quais são os erros e limites de confiança para a concentração
encontrada?
O sinal do instrumento lido para a amostra do branco freqüentemente não será zero.
Ele é, naturalmente, sujeito a erros, como todos os outros pontos da curva de calibração
sendo, portanto, errado, a princípio, subtrair o valor do branco dos outros valores dos
padrões, antes de plotar a curva de calibração. Finalmente, deve-se notar que a curva de
calibração deve ser plotada sempre com a resposta do instrumento na vertical (y) e com as
concentrações dos padrões na horizontal (x).
y ax b (52)
Para se estimar quão bem os pontos experimentais se ajustam em uma linha reta,
nós calculamos o coeficiente de correlação produto-momento, r.
( x i x )( yi y )
r i
1 (53)
2 2
2
( xi x ) ( y i y )
i i
Uma observação cuidadosa dessa equação mostra que r pode variar no intervalo
entre 1 r 1 . Como mostrado na Figura abaixo, um valor de r = -1 descreve uma
correlação negativa perfeita, isso é, todos os pontos experimentais caem numa linha reta
com tangente negativa.
r=1
r = -1
r=0
0 x
xi yi xi x ( xi x ) 2 yi y ( yi y ) 2 ( xi x )( yi y )
0 2,1 -6 36 -11,0 121,00 66,0
2 5,0 -4 16 -8,1 65,61 32,4
4 9,0 -2 4 -4,1 16,81 8,2
6 12,6 0 0 -0,5 0,25 0
8 17,3 2 4 4,2 17,64 8,4
10 21,0 4 16 7,9 62,41 31,6
12 24,7 6 36 11,6 134,56 69,6
42 91,7 0 112 0 418,56 212,2
42
x 6
7
91,7
y 13,1
7
216,2 216,2
r 0,9989
112 418,28 2
1
216,44
Duas observações importantes desse exemplo. Como mostrado na Figura 19, apesar
de alguns pontos estarem visivelmente fora da melhor reta (que foi obtida com o
procedimento a ser discutido mais adiante), o valor de r é muito próximo de um.
A experiência mostra que mesmo curvas de calibração bem dispersa podem gerar
altos valores de r.
25
20
Fluorescência
15
10
média (x,y)
Y=A+B*X
5 A = 1,51786
B = 1,93036
R = 0,99888
0
0 2 4 6 8 10 12
-1
Concentração (pg mL )
y 5
A
4
1
r = 0,986
5
B r=0
4
0 1 2 3 4 5 x
A lição a ser tirada desse exemplo é que a curva de calibração deve sempre ser
construída (ou num papel milimetrado ou no computador). De outra maneira, uma relação
linear pode ser assumida de maneira errônea com o resultado de r obtido simplesmente da
equação dada. A Figura 20 (B) mostra que um coeficiente de correlação zero não significa
que x e y não possuam qualquer relação, apenas que esta relação não é linear.
r (n 2)
t
1 r
2 (54)
Se o valor calculado de t for maior que o valor tabelado, a hipótese nula deve ser
rejeitada, isso é, conclui-se que, nesse caso, uma correlação significante existe.
A LINHA DE REGRESSÃO DE Y EM X
Como já foi assumido que todos os erros estão no eixo y, procura-se agora uma reta
que minimize os desvios na direção y entre os dados experimentais e a reta calculada.
Como alguns desses desvios (conhecidos tecnicamente como os resíduos y) serão positivos
e outros negativos, é conveniente tentar minimizar a soma dos quadrados desses resíduos.
Isso explica o uso freqüente do termo “método dos mínimos quadrados” para esse
procedimento.
A linha reta requerida é calculada com base nesse princípio, assim, como resultado,
é encontrado que a linha deve passar através do “centróide” dos pontos ( x , y ) . Pode-se
mostrar que:
x x y y
i i
b i
x x
2
i (55)
i
a y bx
A linha de regressão de x em y (que também passa pelo centróide) assume que todos
os erros ocorrem na direção x.
Se mantivermos com rigidez a proposta que o sinal analítico deve ser plotado
sempre no eixo y e a concentração no eixo x, será sempre a curva de regressão de y em x
que será usada nos experimentos de calibração. Exemplo: calcule a tangente e o intercepto
da curva de regressão para os dados do exemplo anterior (Tabela 33 e Tabela 34).
x
i
i x y i y 216,2
x x 112
2
i
i
x 6; y 13,1
216,2
b 1,93
112
a 13,1 (1,93 6) 13,1 11,58 1,52
y 1,93x 1,52
Novamente é importante enfatizar que essas equações não devem ser utilizadas
erroneamente. Elas apenas darão resultados úteis quando um estudo prévio (cálculo de r e
gráfico visual) tiver indicado que uma relação linear é realmente válida para o experimento
em questão. Métodos não paramétricos (isso é, métodos que não fazem assunção prévia
sobre a natureza da distribuição de erros) podem também ser utilizados para calcular as
curvas de regressão e serão discutidos em aulas futuras.
1
yi yˆ 2 2
sy i (56)
x
n2
y x5 , y 5 x6 , yˆ 6
x5 , yˆ 5 x6 , y 6
x3 , y 3 x4 , yˆ 4
x3 , yˆ 3 x4 , y 4
x1 , y1 x2 , yˆ 2
x1 , yˆ1 x2 , y 2
1
yi yˆ 2
2
sy i (57)
x
n2
(x x ) i
2
s i
(58)
n 1
Armado com um valor para sy/x pode-se agora calcular sb e sa, os desvios padrões
para a tangente (b) e o intercepto (a). Eles são dados por:
sy
sb x
1
2
xi x
2
i
1
(59)
xi2 2
sa s y i
2
x n xi x
i
b t sb (6)
a t sa (61)
1
0,9368 2
sy 0,4329
x 5
x x 112
2
i
i
E, assim a equação:
sy
sb x
1
(59)
2
xi x
2
i
0,4329 0,4329
sb 0,0409
112 10,58
1
x
2 2
i
sa s y i
2
x n xi x
(59)
i
364
s a 0,4329 0,2950
784
sy 2
s xo x 1 yo y
2
1
b n b 2 xi x 2
(62)
i
No caso do analista ter que fazer várias leituras de yo, por exemplo, se houver m
leituras, então a equação acima deve ser modificada para:
sy 2
1 1
s xo x 2 o
y y 2
2
b m n b xi x
(63)
i
1
sy
yo y
2
x
2
1
sxo 1
b n b 2 xi x 2 (62)
i
Recordando dos itens anteriores que n = 7, b = 1,93, sy/x = 0,4329, = 13,1 e também
Uma análise da equação acima confirma que quando yo aproxima do valor médio
y , o terceiro termo dentro do colchete tende a zero, e sxo aproxima-se do valor mínimo. A
forma geral dos limites de confiança para uma concentração calculada é mostrada na Figura
22.
Sinal
( x, y)
Concentração
Figura 22. Forma geral dos limites de confiança para uma concentração.
CAPÍTULO 8
LIMITES DE DETECÇÃO
Uma das principais vantagens em se utilizar métodos instrumentais de análise
consiste na possibilidade de se detectar quantidades muito menores de analito do que os
métodos clássicos. Essa característica implica na possibilidade de se estabelecer a
importância de concentrações em nível de traços de muitos materiais, por exemplo em
amostras biológicas e ambientais. Assim foram desenvolvidas várias metodologias nas
quais os baixos limites de detecção são o principal critério de aplicação bem sucedida.
y y B 3S B (64)
O significado desta última definição é ilustrado, com mais detalhes, na Figura 23.
Limite de Limite de
yB
decisão detecção
A B C
P Q
SB y
3SB
O ponto P, que tem sido chamado de limite de decisão é, assim, insatisfatório como
limite de detecção, pois ele pode resolver o primeiro dos problemas citados acima, mas não
o segundo.
Um ponto mais adequado situa-se em y = Q (Figura 23), pois Q está duas vezes
mais afastado de yB que P. Pode-se mostrar que, se yB - Q for 3,28 vezes o desvio padrão do
branco, sB, então a probabilidade de cada um dos dois erros acontecerem (indicada pela
área achurada da Figura 23) é de apenas 5%. Se, como sugerido na Figura 23, a distância
for de 3sB, a probabilidade de ambos os erros será de cerca de 7%. Muitos analistas
consideram esta como sendo uma boa definição de limite de detecção.
Deve ser enfatizado que essa definição é bastante arbitrária e que ainda está
inteiramente aberto para um analista propor uma outra definição alternativa para um
propósito particular. Por exemplo, pode haver ocasiões onde um analista está ansioso para
evitar, a todo custo, a possibilidade de reportar a ausência de um analito quando ele, de
fato, estiver presente, mas está relativamente despreocupado com o erro oposto.
Torna-se claro que, sempre que o termo limite de detecção for citado em um artigo,
a definição usada deve ser também citada.
Um valor de yB + 10 sB foi sugerido para esse limite, mas seu uso ainda é bastante
restrito na prática. Devem-se agora discutir como os termos yB e sB são obtidos na prática,
quando uma reta de regressão convencional for usada para a calibração, como descrito na
aula passada.
O valor de a, o intercepto calculado pela regressão, pode ser utilizado como uma
estimativa do valor de yB, o sinal do branco, ele deve ser uma estimativa mais precisa de yB
do que o único valor medido do branco, y1.
sy/x = sb = 0,433
25
-1
LOD = 0,67 pg mL
sx0 = 0,25
20
Fluorescência
15
10
média (x,y)
Y=A+B*X
5 A = 1,51786
yB + 3sB
B = 1,93036
LOD
0
R = 0,99888
0 2 4 6 8 10 12
-1
Concentração (pg mL )
É muito importante evitar confundir o limite de detecção de uma técnica com sua
sensibilidade. Esta fonte de confusão muito comum se origina, provavelmente, do fato de
não haver uma palavra apropriada que demonstre que uma técnica tem um “baixo limite de
detecção”.
determinados para todas essas soluções e os resultados graficados como mostrado na Figura
25.
Como usual, os sinais obtidos são plotados no eixo y, nesse caso o eixo x é
graduado em termos de quantidades de analito adicionadas (tanto como pesos absolutos
como concentrações).
Sinal da
amostra
Quantidade de Quantidade
analito em adicionada
amostra teste
A curva de regressão é calculada da maneira usual, mas dessa vez é feita uma
extrapolação até o ponto no eixo x correspondendo a y = 0. É evidente que esse intercepto
negativo no eixo x corresponde à quantidade de analito na amostra teste.
A análise da Figura 25 mostra que esse valor é dado por a / b, a relação entre o
intercepto e a tangente da curva de regressão. Como ambos, a e b são sujeitos a erros, o
valor calculado é também sujeito a erro, do mesmo modo. Nesse caso, a quantidade não é
predita por um valor único medido de y, assim a fórmula para o desvio padrão, sxE, do valor
extrapolado xE, não é a mesma daquela vista anteriormente, mas sim:
s y 2
2
1 y
s xE x 2
b n b xi x 2 (65)
i
x x , de
2
Além do mais, a precisão é aumentada maximizando-se o termo quadrático i
i
tal forma que as soluções para a confecção da curva de calibração devem, se possível,
cobrir um amplo intervalo.
x x y y
i i
b i
x x
2
i (66)
i
a y bx
Os limites de confiança para esse resultado podem ser determinados com a ajuda da
equação:
s y 2
2
1 y
s xE x 2
b n b xi x 2 (67)
i
sxE é igual a 0,749 e os limites de confiança são 17,3 ± 2,57 x 0,749, isso é, 17,3 ± 1,9 µg
mL-1. Apesar de ser uma aproximação elegante para o problema do efeito de matriz, o
método da adição de padrões tem a suas desvantagens.
Em termos estatísticos, sua desvantagem principal está relacionada ao fato dele ser
um método de extrapolação, menos preciso do que as técnicas de interpolação.
A importante questão de decidir qual eixo contém os dados de qual amostra será
discutido posteriormente.
A B
C D
E F
Método A
Método B
Cada ponto no gráfico representa uma única amostra analisada pelas duas técnicas
diferentes. Os métodos da aula passada são, então, aplicados para se calcular a tangente (b),
o intercepto (a) e o coeficiente de correlação produto momento (r) da linha de regressão. É
claro que se cada amostra render um resultado idêntico em ambos os métodos analíticos, a
linha de regressão deverá ter intercepto zero e valores de tangente e coeficiente de
correlação igual a um (Figura 26 A). Na prática, naturalmente, isso nunca ocorre, mesmo na
ausência de erros sistemáticos. Os erros aleatórios garantirão que os valores encontrados
para os dois métodos sejam diferentes.
350
300
200
150
100
50
0
0 50 100 150 200 250 300 350 400
-1
resultados AAS (g L )
Tabela 36. Níveis de chumbo em dez amostras verificados em dois métodos (µg L-1, do
exemplo).
Amostra AAS PSA
1 35 35
2 75 70
3 75 80
4 80 80
5 125 120
6 205 200
7 205 220
8 215 200
9 240 250
10 350 330
Mais cálculos podem mostrar que: sy/x = 10,56; sa = 6,64; sb = 0,0357 e com o uso
do valor apropriado de t para 8 graus de liberdade (t = 2,31), para um limite de confiança de
95%, dá para os valores de intercepto e tangente: a = 3,87 ± 15,34 e b = 0,963 ± 0,083.
Dos valores acima é claro que os valores calculados para o intercepto e a tangente
não diferem significativamente de zero e 1, respectivamente e que, assim, não há evidências
de erros sistemáticos entre os dois conjuntos de resultados. Dois pontos extras devem ser
mencionados, em relação ao exemplo acima.
Podem-se encontrar valores de r não tão próximos de um, mas que, ainda assim, a
tangente e o intercepto não diferem muito de um e zero.
As precisões dos dois métodos podem ser avaliadas pelas técnicas discutidas nas
aulas iniciais. Na prática é desejável que isso seja feito antes das linhas de regressão
comparando os dois métodos. O segundo ponto a ser notado é que, apesar de ser desejável
comparar os dois métodos em grande intervalo de concentrações, na prática pode ser difícil
encontrar amostras onde as concentrações do analito estejam distribuídas nesse amplo
domínio.
regressão é usada para propósitos de comparação. Nessas comparações pode-se ter certeza
de que erros aleatórios irão ocorrer em ambos os métodos analíticos, isso é, em ambas as
direções, x e y. Isto sugere que as equações utilizadas para calcular a linha de regressão
podem não ser válidas. Testes práticos e simulações mostraram, entretanto, que essa
aproximação simples dá resultados surpreendentemente confiáveis, se três condições forem
satisfeitas:
CAPÍTULO 9
Concentração
Nesse caso, é evidente que a reta de regressão deve ser calculada de maneira a
considerar um peso maior para aqueles pontos onde as barras de erro são menores.
É mais importante para a linha de regressão passar próximo desses pontos do que
daqueles onde as barras de erro são maiores. Esse resultado é encontrado atribuindo a cada
ponto um peso inversamente proporcional à variância correspondente, s2. Esse
procedimento lógico é de aplicação geral. Assim, se os pontos individuais são denotados
por (x1, y1), (x2, y2), etc., como usual, e os desvios padrões correspondentes por s1, s2, etc.,
então, os pesos individuais, w1, w2, etc. são dados por:
si2
wi
si 2
i (68)
n
w x y i i i nx w y w
b i
w x i
i
2
i nx w2 (69)
e:
a y w bxw (70)
w x i i
xw i
n
wi yi
yw i
Tabela 37. Dados de concentração e absorbância com os respectivos desvios padrões (do
exemplo).
Concentração (μg mL-1) Absorbância Desvio padrão
0 0,090 0,001
2 0,158 0,004
4 0,301 0,010
6 0,472 0,013
8 0,577 0,017
10 0,739 0,022
x x i
b i
x x
2
i
i
a y bx
Uma comparação cuidadosa dos resultados obtidos com os dois métodos é muito
instrutiva. Os efeitos de se ponderar são claros. O centróide ponderado ( x w , y w ) é muito
mais próximo da origem do gráfico do que o não ponderado ( x, y ) e o peso dado aos
pontos próximos da origem – e particularmente ao primeiro ponto (0; 0,009), que tem o
menor erro – assegura que a reta de regressão um intercepto muito próximo desse ponto.
Ele também deseja obter estimativas dos erros e dos limites de confiança daquelas
concentrações e, nesse contexto, os métodos de regressões ponderados resultam em valores
muito mais realísticos.
1
2
1 y y 2
s x0 s y 1 2 0 2
n b xi x
x
i
A aplicação desta equação aos dados do exemplo acima mostra que os limites de
confiança para as soluções com absorções 0,100 e 0,600 são 1,20 ± 0,65 e 8,09 ± 0,63 µg
mL-1.
s y
x w
1 1 y0 y w 2
s xow (71)
b w0 n
b 2 wi y i2 nx w2
i
1
2 2 2
2
i i
i i i w
2 2
w y ny w b w y nx
s y i (72)
x w
n2
A equação acima é claramente similar àquela da reta não ponderada. Ela confirma
que os pontos mais próximos da origem, onde os pesos são maiores, e os pontos próximos
do centróide, onde y0 y w é pequeno, terão os menores limites de confiança, como
mostrado na Figura 29.
Sinal
x w , y w
Concentração
Até agora, nossa discussão de métodos de calibração tem sido restrita aos
experimentos onde se pode assumir que a resposta do instrumento é proporcional à
concentração do analito. Esta restrição é geralmente válida, pois químicos analíticos têm
sempre – até recentemente – favorecido tais métodos, devido à complexidade dos cálculos
de ajustes de curvas. Exemplos desse cuidado incluem o controle da largura da linha de
emissão da lâmpada na espectroscopia de absorção atômica e o tamanho e posicionamento
da cubeta para minimizar os efeitos de filtros internos na espectroscopia de fluorescência.
Apesar disso, muitas técnicas analíticas geram linhas de calibração curvas em um grande
intervalo de concentrações de interesse. Uma situação particularmente comum é quando o
gráfico de calibração é linear em uma pequena faixa de concentrações, mas se torna curvo
quando a faixa aumenta.
Isso porque o grau de curvatura pode ser muito pequeno ou ocorrer apenas em parte
da curva. Além disso, apesar de ser um parâmetro amplamente utilizado para se testar a
linearidade de uma curva, o coeficiente de correlação produto-momento (r) é de pouca valia
para se testar uma curvatura.
Já foi visto anteriormente que linhas com curvatura aparente ainda podem ter
valores de r muito próximos de um.
Um analista deve naturalmente esperar que qualquer teste para curvatura deva ser
aplicado facilmente no trabalho diário sem muitos cálculos extensivos. Muitos desses testes
são disponíveis, baseados no uso dos resíduos de y nos gráficos de calibração.
Para se testar se as seqüências de resíduos (+) e (-) indicam a necessidade de uma
linha de regressão não linear, deve-se saber a probabilidade de uma tal ordem ocorrer
fortuitamente. Esses cálculos serão vistos na próxima aula. Entretanto, o pequeno número
de pontos experimentais torna possível que tais seqüências surjam por acaso, assim
qualquer conclusão deve ser tirada com muita cautela. Na situação onde um gráfico de
calibração é linear em parte do intervalo de concentrações e curvada além desse intervalo, é
importante para o químico analítico estabelecer esse intervalo de linearidade. O próximo
exemplo mostra algumas aproximações para esse problema. Exemplo: investigue o
intervalo linear de calibração para o experimento de fluorescência seguinte (Tabela 39).
Análise dos dados mostra que parte do gráfico, perto da origem, corresponde muito
bem a uma reta com um intercepto próximo de zero e uma tangente de aproximadamente
quatro.
O comportamento dos valores dos resíduos sugere que o último valor tabelado está
fora do intervalo linear. Confirmou-se essa suspeita fazendo a regressão linear com apenas
os cinco primeiros pontos. Isso resulta em a = 0,100, b = 3,950 e r = 0,9998.
A tangente e o intercepto estão muito mais próximos dos valores esperados para a
parte do gráfico próximo da origem, e o valor de r é muito maior do que no primeiro
cálculo.
Os resíduos dos cinco primeiros pontos para essa segunda regressão são 0; 0; -0,2;
+0,4 e -0,2, com uma soma dos quadrados de apenas 0,24. O uso dessa segunda equação de
regressão mostra que o valor esperado para o padrão de 10 µg mL-1 deveria ser 39,6, com
um resíduo de -6,6.
Alternativamente, pode-se aplicar um outro teste para mostrar que esse é um “ponto
fora da curva” em relação aos resíduos.
Nesse exemplo, tais cálculos não são necessários. O enorme valor do resíduo para o
último ponto, junto com os valores muito baixos para os outros cinco pontos e a soma dos
quadrados enormemente reduzida, confirma que o intervalo linear do método não se
estende até 10 µg mL-1.
Tendo estabelecido que o último ponto de dados pode ser excluído do intervalo
linear, pode-se repetir o processo para estudar o ponto (8; 31,5). Isto é feito calculando-se a
linha de regressão para apenas os quatro primeiros pontos, com os resultados de a = 0, b =
4,00 e r = 0,9998. O valor do coeficiente de correlação sugere que essa linha se ajusta aos
pontos tão bem quanto a anterior, com os cinco pontos. Os valores dos resíduos para esse
terceiro cálculo foram +0,1; 0; -0,3 e +0,2, com uma soma de quadrados de 0,14. Com essa
curva de calibração, o resíduo de y para a solução 8,0 µg mL-1 é -0,5. Esse valor é maior
que outros resíduos mas provavelmente não por uma quantidade significativa. Pode-se
então concluir que é seguro incluir o ponto (8,0; 31,5) dentro do intervalo linear do método.
Ao se fazer tal decisão, o químico analítico deve levar em consideração a precisão
necessária nos resultados e o valor reduzido de um método para o qual o intervalo de
35
30
25
fluorescência
20
15
10
-5
0 2 4 6 8 10
-1
C (g mL )
Uma vez que se decidiu que o conjunto de pontos não pode se ajustar
satisfatoriamente numa linha reta, o analista deve jogar uma última carta antes de se
resignar às complexidades dos cálculos de regressão não linear. Ele pode conseguir
transformar os dados de tal forma que a relação não linear muda para uma linear.
x
log itx ln (73)
1 x
É importante notar que esta transformação pode também afetar a natureza dos erros
em diferentes pontos do gráfico de calibração. Suponha, por exemplo, que um conjunto de
medidas da forma:
y px q (74)
Pode-se mostrar que, se os dados de uma forma geral y = f(x) são transformados na
equação linear:
Y BX A (75)
2
1
wi (76)
dYi
dy i
dYi d ln yi
No presente caso, y px q , assim Y ln y e 1 . Assim,
dyi dyi yi
wi yi2 .
AJUSTE DE CURVAS
Os efeitos (a) - (c) são todos eles independentes, assim muitas curvas de diferentes
formatos podem aparecer na prática.
É por razões desse tipo que os gráficos de calibração com curvas de um formato
conhecido e previsível são tão raras na prática do trabalho analítico. Assim, o analista tem
muito pouca assistência, a priori, em qual tipo de muitas equações possíveis que geram
gráficos curvos deve ser utilizada no ajuste dos pontos de calibração.
Na prática, uma estratégia das mais comuns é ajustar uma curva que é polinomial
em x, isso é, y a bx cx 2 dx 3 ...
Antes de se estudar com mais detalhes como essa decisão é tomada, é importante
considerar que, na prática, equações quadráticas ou cúbicas são, freqüentemente, suficientes
para originar um ajuste perfeito aos dados. Polinômios com mais termos são, quase com
certeza, fisicamente sem significado e não melhoram, de forma significativa, os resultados
analíticos.
Da mesma maneira que no caso dos gráficos lineares, parece razoável usar os
“mínimos quadrados” para decidir sobre a qualidade do ajuste, isto é, procurar minimizar a
soma de quadrados dos resíduos de y. Esse procedimento permite utilizar uma simples
análise de variância (ANOVA) para avaliar os sucessivos polinômios.
sobre y ”.
Pode-se demonstrar que ele é igual à soma de dois outros termos, a “soma dos
y ŷ .
2
i
adequado de uma equação aos pontos de dados – ele deve, assim, ser o maior possível. Por
outro lado, a soma dos quadrados sobre a regressão é igual à soma dos quadrados dos
resíduos de y (a soma de quadrados residuais), que deve ser tão pequena quanto possível.
SS regressão SS resíduos
R2 1
SS total SS total (77)
MS residual
R' 2 1 (78)
MS total
muda. Como no exemplo seguinte, R’2 é sempre menor que R2. Exemplo: em uma análise
instrumental, foram obtidos os dados da Tabela 40 (unidades arbitrárias).
Tabela 40. Relação concentração e sinal em uma análise instrumental (do exemplo).
Concentração Sinal
0 0,2
1 3,6
2 7,5
3 11,5
4 15,0
5 17,0
6 20,4
7 22,7
8 25,9
9 27,6
10 30,2
Mesmo uma mera observação dos dados sugere que o gráfico de calibração deve ser
curvo, mas é instrutivo calcular a reta de mínimos quadrados por esses pontos usando o
método descrito na aula passada.
A tabela de ANOVA para esses dados (retornar à algumas aulas atrás) tem a forma
da Tabela 41.
Pode-se mostrar que, na Tabela 41, o número de graus de liberdade para a variação
devida à regressão é igual a k, o número de termos na equação de regressão contendo x, x2,
etc.
Para uma linha reta, k é igual a um, como só se tem o termo em x. Como só se tem
uma restrição aos graus de liberdade (ou seja, que a soma dos resíduos é zero) o número
total de graus de liberdade dos resíduos é (n - 1). Assim, o número total de graus de
liberdade associados aos resíduos é (nk - 1) = (n - 2). Dos dados de ANOVA é claro que:
984,009
R2 0,99044 99,04%
993,509
Uma equação que justifica mais de 99% da relação entre x e y é bem satisfatória,
mas, da mesma maneira que com o coeficiente de correlação r, deve-se ter cautela na
interpretação dos valores absolutos de R2. A seguir se tornará evidente que uma curva
quadrática ajustará muito melhor aos dados.
1,056
R' 2 1 0,98937 98,937%
99,351
Foi visto que um exame dos resíduos pode fornecer informações sobre a equação de
calibração. Muitos softwares dedicados a esse fim geram uma tabela do tipo da Tabela 42.
A distribuição dos sinais e das magnitudes dos resíduos é aparente e assegura que
uma linha reta não é o melhor ajuste.
Quando os dados são ajustados para uma forma quadrática, a equação obtida será y
= 0,086 + 3,970x – 0,098x2, e a ANOVA fica (Tabela 43).
992,233
R2 0,99872 99,872%
993,509
0,160
R' 2 1 0,99839 99,839%
99,351
Por todas essas razões é óbvio que a equação quadrática ajusta-se melhor aos dados
do que a linear. Finalmente, serão repetidos os cálculos para um ajuste cúbico. Aqui, o
melhor ajuste será dado por y = -0,040 + 4,170x – 0,150x2 + 0,0035x3.
A ordem dos sinais dos resíduos é a mesma do ajuste quadrático. Assim, não há
nenhum valor em se agregar termos desnecessários e se pode ficar confiante de que o ajuste
quadrático é satisfatório, nesse caso.
Tabela 44. Cálculo das concentrações nos diferentes coeficientes (do exemplo).
Linear Quadrático Cúbico
y=5 1,15 1,28 1,27
y = 16 4,83 4,51 4,50
y =27 8,51 8,61 8,62
Foi visto antes que um gráfico de calibração não linear freqüentemente resulta da
ocorrência simultânea de fenômenos físico-químicos e / ou matemáticos. Assim, é possível
assumir que nenhuma função matemática simples pode descrever a curva de calibração
inteira, de maneira satisfatória. Portanto, parece lógico tentar ajustar os pontos a uma curva
que consiste de várias seções ligadas, cujas formas matemáticas podem ser diferentes. Essa
aproximação é agora usada com freqüência cada vez maior pela aplicação das funções
splines.
Splines cúbicas são mais comumente empregadas na prática. A curva final é feita de
uma série de seções ligadas de forma cúbica. Essas seções devem com certeza formar uma
curva contínua nas suas junções (nós), assim a primeira e a segunda derivadas de cada
curva em qualquer nó devem ser idênticas.
Uma variedade de métodos tem sido utilizada para estimar tanto o número de nós
como as equações para cada segmento. Essas técnicas já estão disponíveis em softwares
apropriados.
Essas técnicas foram aplicadas com sucesso em diferentes técnicas analíticas como
a cromatografia gás-líquido, imunoensaios, etc. Assim, é razoável perguntar se, no caso de
um gráfico de calibração cuja curvatura não é muito acentuada, não se poderia simplificar
ao máximo o conceito de spline e construir a curva como uma série de linhas retas
juntando-se em pontos sucessivos. Esse método é completamente não rigoroso e não deve
fornecer informações sobre a precisão com que qualquer valor de x possa ser determinado.
Ele pode, entretanto, ter valor como uma simples análise inicial dos dados (método IDA) e
pode ser testado aplicando-o ao exemplo anterior. Assim, para os valores de y de 5, 16 e 27,
esse método de interpolação linear entre pontos sucessivos fornece valores de x de 1,36;
4,50 e 8,65 unidades, respectivamente. A comparação com os dados da Tabela 44 mostra
que esses resultados, especialmente os dois últimos, podem ser aceitáveis para muitas
finalidades.
CAPÍTULO 10
Introdução
Os testes estatísticos discutidos nas aulas anteriores assumiram que todos os dados
sendo examinados seguiam uma distribuição normal (gaussiana). Essa suposição está
apoiada no teorema do limite central, que mostra que a distribuição de amostras da média é
aproximadamente normal, mesmo se a população relacionada tiver uma distribuição bem
diferente. Essa aproximação fica mais precisa quando o número de amostras
aumenta.Assim, o valor do teorema é minimizado em conjuntos de dados muito pequenos
(como por exemplo, três ou quatro dados) freqüentemente utilizados no trabalho analítico.
Esses métodos, que não fazem suposições sobre a forma da distribuição da qual os
dados são tomados, são chamados de métodos não-paramétricos.
Um outro grupo de métodos, cuja utilização tem crescido rapidamente nos últimos
anos, é baseado na suposição de que a distribuição da população até pode ser normal (ou ter
alguma outra forma bem definida), mas apresentam alguns dados, como os fora da curva,
que podem distorcer esta distribuição.
Essas técnicas robustas serão apropriadas quando a distribuição deixa de ser normal.
É fácil calcular que a média dessas quatro observações é 25,08 mL e que a média,
no caso o valor médio entre o 2º e o 3º valor é 25,05 mL.
O valor da média é maior que qualquer um dos três valores mais próximos (25,01;
25,04 e 25,06) e assim talvez seja uma avaliação menos realística da tendência central que a
mediana.
Como foi visto, a mediana divide a amostra de medidas em duas metades iguais. Se
cada uma dessas metades for posteriormente dividida em dois, esses pontos de divisão são
chamados de quartílicos superior e inferior.
A maior vantagem dos métodos IDA é a sua habilidade para indicar qual método
estatístico é mais apropriado para um dado conjunto de dados. Várias técnicas simples de
apresentação dos dados fornecem ajuda imediata.
Torna-se aparente que esses resultados não são conclusivos e não se pode tirar
muitas informações deles, sem outras adições de medidas posteriores.
As medianas dos dois conjuntos são similares: 21 para os alimentos tratados e 22,5
para os controles. Entretanto, as variações das velocidades de reação para os materiais
tratados com Pb (II) são muito grandes. Nesse caso os resultados parecem cair em dois
grupos diferentes.
Cinco dos alimentos parecem não ser afetados pelo chumbo, enquanto três outros
mostram uma grande inibição e um outro fica mais ou menos no meio desses dois efeitos.
Ainda se deve considerar que um dos pontos de controle pode ser um ponto fora da curva, e
para isso deve ser testado. Nessas circunstâncias torna-se evidente que um simples teste de
significância não traria informação útil.
O uso do mais simples método IDA orientou a evitar testes de significância sem
sentido e a realizar mais experimentos.
Uma outra técnica simples de representação dos dados, de grande valor quando
amostras maiores são estudadas é o gráfico da caixa de bigodes.
Na sua forma normal, esse diagrama é composto por um retângulo, a caixa, e duas
linhas (o bigode) que se estendem dos vértices opostos da caixa, e uma outra linha paralela
aos mesmos vértices da caixa. As extremidades dos bigodes indicam o intervalo dos dados,
os vértices da caixa da qual os bigodes saem, representam os quartílios superior e inferior e
a linha que cruza a caixa é a mediana dos dados. Esse gráfico mostra, em um olhar, a
dispersão e a simetria dos dados. Alguns softwares incluem ainda passos que mostram a
existência de pontos fora da curva. Nesses casos, os pontos fora da curva são definidos
como aqueles menores do que o quartílio inferior, ou maior que o quartílio superior, por um
fator maior que 1,5 vez o intervalo do quartílio. Os bigodes então se estendem apenas aos
limites superior e inferior ou cercas e os pontos fora da curva são mostrados como pontos
separados. Exemplo: suponha que você pesque e meça os comprimentos de 13 peixes em
um lago. Os valores obtidos foram: 12, 13, 5, 8, 9, 20, 16, 14, 14, 6, 9, 12, 12 (cm).
Agora pode-se desenhar o gráfico caixa e bigode (Figura 31). (1), precisa-se
desenhar uma linha de números ordinários que seja longa o suficiente para incluir todos os
números dos dados. (2), localizar a mediana 12, usando uma linha vertical acima da linha
de números. (3) localizar o quartílio inferior 8,5 e o superior 14 com linhas verticais
similares. (4) desenhar a caixa, usando as pontas das linhas. Finalmente, (5) os bigodes são
colocados entre o menor e o maior número dos dados (5 e 20).
4 6 8 10 12 14 16 18 20 22
Mediana
4 6 8 10 12 14 16 18 20 22
Mediana
Quartílio
Quartílio
superior
inferior
4 6 8 10 12 14 16 18 20 22
4 6 8 10 12 14 16 18 20 22
4 6 8 10 12 14 16 18 20 22
Mas o que ela significa? Que informação sobre os dados esse gráfico pode fornecer?
Bem, é óbvio do gráfico que os comprimentos dos peixes variam de 5 a 20 cm. Isto
dá o intervalo dos dados, 15 cm. Também se conhece a mediana ou o valor central dos
comprimentos dos peixes, 12 cm. Como as medianas e os quartílios são pontos centrais,
eles dividem os dados em quatro regiões iguais. Assim:
O teste do sinal
O teste do sinal está entre os mais simples de todos os métodos não paramétricos, e
foi o primeiro a ser discutido no começo do Século XVIII.
Sua forma mais simples pode ser ilustrada no exemplo seguinte: um preparado
farmacêutico deve conter um conteúdo mediano de 8% de um componente particular.
Análises sucessivas mostraram, na prática, que ele contém: 7,3; 7,1; 7,9; 9,1; 8,0; 7,1; 6,8 e
7,3% do constituinte. No nível de significância de 5% , esses dados indicam que a
porcentagem indicada é errada?
No teste do sinal, a mediana postulada é subtraída de cada valor dos dados e o sinal
de cada resultado é considerado. Os valores iguais ao postulado são integralmente
ignorados. Nesse caso têm-se efetivamente sete valores experimentais, seis dos quais
menores que a mediana, e assim dando sinal negativo, e um maior que a mediana, portanto
com sinal positivo.
P( r ) n C r p r q ( n r ) (79)
Como a mediana é definida de tal forma que metade dos resultados experimentais
fica acima dela e metade abaixo, é claro que a mediana é 8,0 e, nesse caso, tanto p quanto q
deve ser igual a ½ .Assim, usando-se a equação anterior:
6
7! 1 1 7
P(6)
6!(7 6)! 2 2 128
O teste do sinal também pode ser utilizado como uma alternativa não paramétrica
para o teste t pareado, para comparar dois conjuntos de resultados das mesmas amostras.
Assim, se dez amostras forem examinadas com dois métodos, A e B, pode-se testar se os
†
A tabela usa a distribuição binomial com P = 0,05 para dar as probabilidades de r ou sucessos
menores para n = 4 a 15. Esses valores correspondem a um teste de sinal mono-caudal e devem ser duplicados
para um teste bi-caudal.
A hipótese nula será de que os dois métodos não dão resultados significantemente
diferentes – na prática isso significa, de novo, que a probabilidade de se obter um sinal
positivo (ou negativo) é 0,5. O número de sinais positivos ou negativos obtidos pode ser
comparado com a probabilidade derivada da equação binomial acima.
Os sinais das diferenças encontradas assim são: (+ + 0 + +). Como usual, o zero é
ignorado, deixando quatro resultados positivos. A probabilidade de se obter quatro sinais
idênticos em quatro tentativas é claramente (novamente um teste bi-caudal):
1
2 0,125
16
A hipótese nula, de que não há tendências, não pode ser rejeitada no nível de
significância de 95%. Esse resultado pode parecer insatisfatório, porém é o preço que se
paga pela simplicidade do teste.
O teste não utiliza todas as informações oferecidas pelos dados, assim ele provê
menos informações.
Em alguns casos se está interessado não apenas em quais observações geram sinais
positivos ou negativos, mas também em quais desses sinais estão em uma seqüência
aleatória.
Na aula anterior observou-se que uma linha reta ajusta bem os pontos
experimentais, então resíduos positivos e negativos são observados de maneira aleatória.
Por contraste, tentar ajustar uma reta num conjunto de dados que estão sobre uma curva
produzirá uma seqüência não aleatória de sinais positivos e negativos. Encontra-se, por
exemplo, uma seqüência de (+) seguida por outra seqüência de (-) e então outra de (+).
Essas seqüências são conhecidas tecnicamente como séries (runs). No caso de ajuste de
curvas é claro que uma seqüência não aleatória de (+) ou (-) levará a um número de séries
menor do que uma seqüência aleatória. O método de Wald-Wolfowitz testa se o número de
séries é suficientemente pequeno para que a hipótese nula de uma distribuição aleatória de
sinais possa ser rejeitada. O número de séries em um conjunto de dados é comparado com
os números da Tabela 47 (página 152), que se refere a 5% de nível de confiança. Na Tabela
47 entra-se com os valores apropriados de N (o número de sinais positivos) e M (o número
de sinais negativos). Se o valor obtido de séries for menor do que o valor tabulado, a
hipótese nula deverá ser rejeitada. Exemplo: equações de regressão linear são usadas para
ajustar uma linha reta em um conjunto de 12 pontos de calibração. Os sinais dos resíduos
resultantes na ordem de aumento de x foram:
Comentar se seria melhor ajustar uma curva.
A tentativa de se ajustar uma linha reta aos dados, assim, não é satisfatória e um
gráfico de regressão curvilinear deveria ser indicado.
Em muitos casos, um analista pode ter razões para supor que suas medidas são
distribuídas de forma simétrica, mas não deseja fazer qualquer suposição que essa
distribuição seja simétrica. Essa suposição de dados simétricos, e a conseqüência de que a
média e a mediana da população serão iguais, permite o desenvolvimento de um dos mais
poderosos testes de significância. Seu mecanismo será ilustrado como um exemplo: os
níveis de chumbo do sangue (em pg mL-1) de sete crianças foram medidos como: 104, 79,
98, 150, 87, 136 e 101. Esses dados podem ter vindo de uma população assumida como
simétrico com mediana (média) de 95 pg mL-1?
Comparados com o valor de referência (95) os dados têm os valores de: 9, -16, 3,
55, -8, 41, 6. Esses valores são inicialmente arranjados em ordem de magnitude,
independente do sinal: 3, 6, -8, 9, -16, 41, 55. Os números são, então, ordenados, mantendo
os sinais, mas ordenando-os com números em ordem crescente: 1, 2, -3, 4, -5, 6, 7. Os
índices positivos somam 20 e os negativos 8. O menor desses números (8) é tomado como
o teste estatístico. O teorema binomial dará a probabilidade de ocorrer esse número. Se os
dados vierem de uma população com mediana 95 as somas dos índices negativos e
positivos devem ser esperadas como aproximadamente e numericamente iguais. Se a
mediana da população for diferente de 95, as somas de índices negativos e positivos são
diferentes. A probabilidade de uma soma particular ocorrer na prática é dada por um
conjunto de tabelas.
Nesse teste a hipótese nula deve ser rejeitada se o valor experimental for menor do
que ou igual ao valor tabulado. Nesse exemplo, o exame do valor tabelado mostra que, para
n = 7, o teste estatístico deve ser menor ou igual a dois para que a hipótese nula - que os
dados vêm de uma população com a mediana de 95 - possa ser rejeitada num nível de
significância de P = 0,05. Assim, a hipótese nula deve ser claramente retida. Como usual, o
teste bi-caudal foi usado, apesar de haver casos em que o teste mono-caudal poder ser
apropriado.
Uma vantagem importante do teste das ordens assinaladas é que ele pode ser usado
em dados pareados, pois esses podem ser transformados no tipo de dados vistos no exemplo
anterior. Exemplo: a Tabela 48 dá a concentração porcentual de zinco, determinada por
dois métodos diferentes, para cada uma das oito amostras de alimentos.
Tabela 48. Concentração porcentual de zinco determinada por dois métodos diferentes para
oito amostras de alimentos (do exemplo).
Amostra Titulação com EDTA Espectrometria Atômica
1 7,2 7,6
2 6,1 6,8
3 5,2 4,6
4 5,9 5,7
5 9,0 9,7
6 8,5 8,7
7 6,6 7,0
8 4,4 4,7
Há alguma evidência para uma diferença sistemática entre os resultados dos dois
métodos?
A aproximação para esse problema é muito simples. Se não houver uma diferença
sistemática entre os dois métodos, então deve-se esperar que as diferenças entre os dois
resultados para cada amostra (isso é, o resultado da titulação – resultado da espectroscopia)
devem estar distribuídas de forma simétrica em torno de zero. As diferenças ordenadas são:
-0,2; 0,2; -0,3; -0,4; -0,4; 0,6; -0,7; -0,7. Esses resultados apresentam uma dificuldade
relacionada com a presença de números repetidos (independente dos sinais). Para resolver
esse problema, dá-se um índice médio para cada um dos números repetidos. Assim, a
relação de números ordenados fica: -1,5; 1,5; -3,0; -4,5; -4,5; 6,0; -7,5; -7,5.
No caso presente, a hipótese nula deve ser retida – não há evidências que a mediana
da diferença não seja zero e, assim, nenhuma evidência para uma diferença sistemática
entre os dois métodos analíticos.
O primeiro passo, nesta análise, é ordenar todos os dados (de ambos os conjuntos).
Para distinguir aqueles obtidos após o tratamento, é necessário grifá-los. 7,7; 8,0; 9,0; 9,5;
9,7; 9,8; 9,9; 10,2; 10,5; 10,7. A ordem, mantendo os grifos correspondentes, fica
assinalada como: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. É aparente que, mesmo quando números
repetidos aparecem (e são tratados como mostrados no item anterior) a soma de todos os
índices é:
nn 1
soma (80)
2
A soma dos índices grifados (amostras tratadas) é 18 e a dos não grifados (não
tratadas) é 37. Esta soma dos índices deve agora ser convertida nos testes estatísticos T1 e
T2 pelas equações:
n1 n1 1
T1 S1
2
n n 1 (81)
T2 S 2 2 2
2
Tabela 49. Teste de soma de Wilcoxon; teste-U de Mann-Whitney. Valores críticos para U ou
o menor de T1 e T2 para P = 0,05.
n1 n2 Teste mono-caudal Teste bi-caudal
3 3 0 NA
3 4 0 NA
3 5 1 0
3 6 2 1
4 4 1 0
4 5 2 1
4 6 3 2
4 7 4 3
5 5 4 2
5 6 5 3
5 7 6 5
6 6 7 5
6 7 8 6
7 7 11 8
Foi dito anteriormente que quando resultados pareados são utilizados, um teste
estatístico especial deve ser usado. Esse teste pode ser o teste de Friedman.
Tabela 50. Níveis de pesticidas em extratos de quatro plantas medidos com três métodos (do
exemplo).
Amostra Método
A B C
1 4,7 5,8 5,7
2 7,7 7,7 8,5
3 9,0 9,9 9,5
4 2,3 2,0 2,9
A soma dos índices dos três métodos são 5,5; 8,5 e 10, para os métodos A, B e C,
respectivamente. Essas somas devem totalizar nk (k + 1) / 2, onde k é o número de métodos
(aqui três) e n o número de amostras (aqui quatro). As somas dos índices são elevadas ao
quadrado, dando 30; 25; 72,25 e 100, respectivamente.
Esses quadrados são somados para dar o parâmetro estatístico R, que nesse caso é
202,5. O valor experimental de χ2 é obtido, utilizando-se o método da estatística do chi
quadrado:
12 R A2 RB2 RC2
2
2
... 3N 1 (82)
N N n A n B nC
3nk 1 2,625
12 R
2
nk k 1
ser usadas com k - 1 graus de liberdade). Assim, o valor encontrado aqui, 2,625, é muito
menor que o valor para n = 4 e deve-se, com certeza, reter a hipótese nula, significando que
os três métodos não diferem significantemente.
Dos muitos métodos disponíveis para ajustar uma linha reta em um conjunto de
dados experimentais, talvez um dos mais simples seja o método incompleto de Thail. Esse
método assume que uma série de pontos (x1, y1), (x2, y2), etc. é ajustado por uma linha com
equação y = bx + a. O primeiro passo nos cálculos envolve indiciar os pontos em ordem
crescente de valores de x. Se o número de pontos, x, for impar, o ponto central, a mediana
do valor de x, é desprezado. Os cálculos sempre requerem um número par de pontos. Para
qualquer par de pontos (xi, yi), (xj, yj), onde xj > xi, a tangente, bij, da linha que liga os
pontos é calculada como:
y yj
bij
i
x j xi
(83)
Tangentes bij são calculadas para cada par de pontos (x1, y1) e o ponto
imediatamente consecutivo ao valor médio de x. Para o segundo ponto (x2, y2) e o segundo
ponto após a mediana de x, e assim adiante. Assim, se os dados originais contiverem 11
pontos, cinco tangentes serão encontradas (o ponto mediano foi desprezado), se houver oito
pontos originais, quatro tangentes serão estimadas e assim por diante. Essas tangentes são
então arranjadas em ordem crescente e seu valor mediano, calculado como descrito
anteriormente, é a tangente estimada da linha reta. Com esse valor final de b, os valores de
ai, para o intercepto, são estimados para cada ponto com a ajuda da equação y = bx + a.
Usar o método de Thail para estimar a tangente e o intercepto da melhor reta que se
ajusta nos pontos. Nesse caso, os cálculos são simplificados pela ocorrência de um número
par de observações e pelo fato de que os valores de x (concentrações) ocorrerem em
intervalos regulares, já em ordem crescente. Assim, tem-se que calcular as tangentes
estimadas para quatro pares de pontos:
b15
0,84 0,04 0,0200
40
b15
0,86 0,23 0,0158
40
b37
1,24 0,39
0,0212
40
b48
1,42 0,59 0,0208
40
A técnica dos mínimos quadrados vista anteriormente, calcularia, para esses dados,
a equação y = 0,0195x + 0,019. A Figura 32 mostra uma comparação entre os resultados
das duas técnicas.
1,6
y = 0,0204x + 0,004
1,4
1,2
1,0
y = 0,01949x + 0, 1917
0,8
A
0,6
0,4
0,2
0,0
-10 0 10 20 30 40 50 60 70 80
-1
C (g mL )
Figura 32. Comparação entre o método dos mínimos quadrados (linha vermelha) e o método
de Thail para a obtenção da reta de regressão.
Métodos robustos
No começo desse item, postulou-se a crescente evidência de distribuições de erros
bastante assimétricas (chamadas de heavytailed – pesadamente caudal), como variações
causadas por interferências com a distribuição normal.
Esses métodos podem ser aplicados para medidas repetidas ou para dados de
calibração e ou regressão.
Se vai reduzir o peso de alguns pontos, um ou mais critérios são necessários nos
quais se baseiam as decisões sobre que pontos são esses. Entretanto, não se pode usar esses
critérios a menos que se comece com todo o conjunto de dados. Assim, para resolver esse
dilema, métodos iterativos são necessários.
A um chute inicial sobre o valor a calcular segue-se uma estimativa sobre a qual se
aplicam os critérios convenientes, refazem-se os cálculos e reaplicam-se os critérios
novamente. Uma aproximação bastante útil a esse problema é baseada no conceito de
função distância. Suponha que se tem uma série de n resultados x1, →, xn e se quer estimar
µ, a média de resultados “confiáveis”.
Aplicando então esses conceitos no conjunto de dados: 0,380; 0,400; 0,401; 0,403;
0,410; 0,411; 0,413. Primeiro, é necessário calcular a MAD. A mediana desses números é
0,403 e os desvios individuais (sem considerar os sinais) são: 0,023; 0,003; 0,002; 0; 0,007;
0,008 e 0,010, que podem ser ordenados em ordem numérica como: 0; 0,002; 0,003; 0,007;
0,008; 0,010 e 0,023. A MAD é a mediana desses sete números, isso é, 0,007, assim, ˆ =
MAD / 0,6745 (que é uma estimativa robusta de σ) = 0,007 / 0,6745 = 0,0104 e 1,5 é
0,0156.
começa com um chute no valor de ̂ , e pelo cálculo de x ̂ para cada medida. Nesse
exemplo, será suposto que o valor inicial de seja a mediana, 0,403. Como foi visto, os
desvios individuais desse valor são (em ordem numérica e desprezando os sinais): 0; 0,002;
0,003; 0,007; 0,008; 0,010 e 0,023. Na primeira iteração para ̂ , as medidas originais são
mantidas se esses desvios da mediana forem maiores ou iguais que 0,0156. Isto se aplica
para todos os desvios listados, menos o último. No caso em que o desvio é > 0,0156, o
valor original em questão é mudado para ˆ cˆ ou ˆ cˆ em função do dado original
ser maior ou menor que a mediana. No caso presente, o valor 0,380, que deu o maior desvio
0,023, tem que ser mudado para ˆ cˆ , isso é, 0,403 – 0,0156 = 0,3874. Agora se tem um
novo conjunto de dados, onde a medida 0,380 do conjunto original foi mudada para 0,3874.
Esse novo conjunto de números é chamado de um conjunto de pseudovalores ( ~ x ), e o
i
cálculo é repetido usando esse novo conjunto. O primeiro passo é calcular a média desses
novos valores, que dá agora 0,4036. Os desvios individuais desta estimativa de ̂ são em
ordem crescente e sem importar o sinal: 0,0006; 0,0026; 0,0036; 0,0064; 0,0074; 0,0094 e
0,0162. Como esperado (desde que apenas uma medida era suspeita no início), apenas o
último desvio excede 0,0156.
com o valor 0,3874 substituído por 0,3880. A nova média (valor de ̂ ) é então 0,4037. Isto
é tão perto do valor anterior que é claramente desnecessário continuar fazendo iterações.
Conclui-se que uma estimativa robusta de ̂ é 0,4037, diga-se 0,404. Esse exemplo é típico
em que as iterações convergiram rapidamente para os valores de ̂ .
ANEXOS
Nível de Significância
Graus de
90 95 97,5 99 99,5
Liberdade
0,10 0,05 0,025 0,01 0,005
1 3.078 6.314 12.706 31.851 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.553 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
25 1.316 1.708 2.060 2.485 2.787
30 1.310 1.697 2.042 2.457 2.750
40 1.303 1.684 2.021 2.423 2.704
60 1.296 1.671 2.000 2.390 2.660
100 1.282 1.645 1.960 2.326 2.576
Teste Bicaudal
υ1
1 2 3 4 5 6 7 8 9 10 12 15 20
υ2
1 647,8 799,5 864,2 899,6 921,8 937,1 948,2 956,7 963,3 968,6 976,7 984,9 993,1
2 38,51 39,00 39,17 39,25 39,30 39,33 39,36 39,37 39,39 39,40 39,41 39,43 39,45
3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,34 14,25 14,17
4 12,22 10,65 9,979 9,605 9,364 9,197 9,074 8,980 8,905 8,844 8,751 8,657 8,560
5 10,01 8,434 7,764 7,388 7,146 6,978 6,853 6,757 6,681 6,619 6,525 6,428 6,329
6 8,813 7,260 6,599 6,227 5,988 5,820 5,695 5,600 5,523 5,461 5,366 5,269 5,168
7 8,073 6,542 5,890 5,523 5,285 5,119 4,995 4,899 4,823 4,761 4,666 4,568 4,467
8 7,571 6,059 5416 5,053 4,817 4,652 4,529 4,433 4,357 4,295 4,200 4,101 3,999
9 7,209 5,715 5,078 4,718 4,484 4,320 4,197 4,102 4,026 3,964 3,868 3,769 3,667
10 6,937 5,456 4,826 4,468 4,236 4,072 3,950 3,855 3,779 3,717 3,621 3,522 3,419
11 6,724 5,256 4,630 4,275 4,044 3,881 3,759 3,664 3,588 3,526 3,430 3,330 3,226
12 6,554 5,096 4,474 4,121 3,891 3,728 3,607 3,512 3,436 3,374 3,277 3,177 3,073
13 6,414 4,965 4,347 3,996 3,767 3,604 3,483 3,388 3,312 3,250 3,153 3,053 2,948
14 6,298 4,857 4,242 3,892 3,663 3,501 3,380 3,285 3,209 3,147 3,050 2,949 2,844
15 6,200 4,765 4,153 3,804 3,576 3,415 3,293 3,199 3,123 3,060 2,963 2,862 2,756
16 6,115 4,687 4,077 3,729 3,502 3,341 3,219 3,125 3,049 2,986 2,889 2,788 2,681
17 6,042 4,619 4,011 3,665 3,438 3,277 3,156 3,061 2,985 2,922 2,825 2,723 2,616
18 5,978 4,560 3,954 3,608 3,382 3,221 3,100 3,005 2,929 2,866 2,769 2,667 2,559
19 5,922 4,508 3,903 3,559 3,333 3,172 3,051 2,956 2,880 2,817 2,720 2,617 2,509
20 5,871 4,461 3,859 3,515 3,289 3,128 3,007 2,913 2,837 2,774 2,676 2,573 2,464