Beruflich Dokumente
Kultur Dokumente
O presente documento pode ser reproduzido total ou parcialmente mediante citao da fonte.
Copyright Comisso Internacional para Qualificao de Teste de Software (doravante denominada ISTQB)
Subgrupo de trabalho de analistas de testes de nvel avanado: Judy McKay (presidenta), Mike Smith, Erik Van Veenendaal,
2010-2012.
Histrico de revises
Verso
Data
Observaes
ISEB v1.1
04/09/01
ISTQB 1.2E
Setembro
de 2003
V2007
12/10/07
D100626
26/06/10
D101227
27/12/10
D2011
23/10/11
Alfa 2012
09/03/12
Beta 2012
07/04/12
Beta 2012
07/04/12
Beta 2012
08/06/2012
Beta 2012
27/06/12
RC 2012
15/08/12
GA 2012
19/10/12
Verso 2012br
Pgina 2 de 73
ndice
0.
0.2
Panorama ............................................................................................................................ 7
0.3
1.
1.1
Introduo ........................................................................................................................... 9
1.2
1.3
1.5
1.7
1.8
1.9
2.
2.1
Introduo ......................................................................................................................... 23
2.2
2.3
2.4
3.
3.1
Introduo ......................................................................................................................... 30
Verso 2012br
Pgina 3 de 73
4.
4.1
Introduo ......................................................................................................................... 47
4.2
5.
5.1
Introduo ......................................................................................................................... 55
5.2
6.
6.1
Introduo ......................................................................................................................... 59
6.2
Pgina 4 de 73
6.4
6.5
7.
7.1
Introduo ......................................................................................................................... 64
7.2
8.
9.
Referncias ............................................................................................................ 69
8.1
Normas .............................................................................................................................. 69
8.2
8.3
Livros ................................................................................................................................ 69
8.4
Verso 2012br
Pgina 5 de 73
Agradecimentos
O presente documento foi elaborado pelo grupo principal do subgrupo de trabalho de nvel avanado da
International Software Testing Qualifications Board Advanced Test Analyst (TA) composto por Judy
McKay (presidenta), Mike Smith e Erik Van Veenendaal.
O grupo principal gostaria de agradecer equipe de reviso e s comisses nacionais por suas sugestes e
contribuies.
Quando o Advanced Level Syllabus foi concludo, o Grupo de Trabalho de Nvel Avanado contava com os
seguintes integrantes (em ordem alfabtica):
Graham Bath, Rex Black, Maria Clara Choucair, Debra Friedenberg, Bernard Homs (vice-presidente), Paul
Jorgensen, Judy McKay, Jamie Mitchell, Thomas Mueller, Klaus Olsen, Kenji Onishi, Meile Posthuma, Eric
Riou du Cosquer, Jan Sabak, Hans Schaefer, Mike Smith (presidente), Geoff Thompson, Erik van Veenendaal,
Tsuyoshi Yumoto.
As seguintes pessoas revisaram, comentaram e escolheram este syllabus: Graham Bath, Arne Becher, Rex
Black, Piet de Roo, Frans Dijkman, Mats Grindal, Kobi Halperin, Bernard Homs, Maria Jnsson, Junfei Ma,
Eli Margolin, Rik Marselis, Don Mills, Gary Mogyorodi, Stefan Mohacsi, Reto Mueller, Thomas Mueller,
Ingvar Nordstrom, Tal Pe'er, Raluca Madalina Popescu, Stuart Reid, Jan Sabak, Hans Schaefer, Marco
Sogliani, Yaron Tsubery, Hans Weiberg, Paul Weymouth, Chris van Bael, Jurian van der Laar, Stephanie van
Dijk, Erik van Veenendaal, Wenqiang Zheng e Debi Zylbermann.
A Assembleia Geral do ISTQB lanou este documento formalmente no dia 19 de outubro de 2012.
Verso 2012br
Pgina 6 de 73
0. Introduo ao syllabus
0.1 Objeto do documento
O presente syllabus forma a base para a qualificao internacional de testes de software no nvel avanado
para o Test Analyst (TA). O ISTQB fornece o syllabus:
1. s comisses nacionais a fim de traduzi-lo para o idioma local e com a finalidade de credenciar os
provedores de treinamento.
2. As comisses nacionais podem adaptar o syllabus s suas necessidades lingusticas especficas e
modificar as referncias para adapt-las s publicaes locais;
3. s comisses avaliadoras para a elaborao de perguntas no idioma local adaptadas aos objetivos de
aprendizagem de cada syllabus;
4. Aos provedores de treinamento para produzirem os materiais dos cursos e definirem os mtodos
adequados de ensino;
5. Aos candidatos certificao para prepar-los para a avaliao (em funo de um curso de treinamento
ou independentemente disso);
6. comunidade internacional de engenharia de software e sistemas para fomentar o desenvolvimento
da profisso de teste de software e sistemas e servir de base para livros e artigos.
O ISTQB pode permitir que outras entidades utilizem este syllabus para outras finalidades, contanto que
procurem e obtenham uma autorizao prvia por escrito.
0.2 Panorama
O nvel avanado composto por trs syllabi diferentes:
Pgina 7 de 73
TA-1.2.1 (K2) Explica-se como e por qu a oportunidade e o nvel do envolvimento do Test Analyst (TA)
variam quando ele trabalha com diferentes modelos de ciclo de vida.
1.3
TA-1.3.1 (K2) Resumem-se as atividades realizadas pelo Test Analyst (TA) para fundamentar o planejamento
e o controle de testes.
1.4
Anlise de testes
TA-1.4.1 (K4) Analisa-se determinada situao, inclusive uma descrio de projeto e um modelo de ciclo de
vida, para definir as tarefas adequadas para o Test Analyst (TA) durante as fases de anlise e modelagem.
1.5
Modelagem de testes
TA-1.5.1 (K2) Explica-se por qu as condies de teste devem ser compreendidas pelos stakeholders.
TA-1.5.2 (K4) Analisa-se a situao de um projeto para determinar o uso mais adequado de casos de teste de
baixo nvel (concretos) e de alto nvel (lgicos).
1.6
Implementao de testes
TA-1.6.1 (K2) Descrevem-se os critrios de sada normais para a anlise e a modelagem de testes e explicase como o atendimento de tais critrios afeta a implementao de testes.
1.7
Execuo de testes
TA-1.7.1 (K3) Em determinada situao, definem-se as etapas e as consideraes que devem ser levadas em
conta na execuo de testes.
1.8
TA-1.8.1 (K2) Explica-se por qu importante contar com informaes exatas sobre a situao da execuo de
casos de teste.
1.9
TA-1.9.1 (K2) Do-se exemplos de produtos de trabalho que devem ser entregues pelo Test Analyst (TA)
durante as atividades de fechamento de teste.
Verso 2012br
Pgina 8 de 73
No nvel avanado, algumas destas atividades so consideradas parte para refinar e otimizar mais os
processos, se adequar melhor ao ciclo de vida de desenvolvimento de software e facilitar o monitoramento e
o controle eficazes de testes. Neste nvel, as atividades so as seguintes:
Pgina 9 de 73
As atividades de teste precisam combinar com o modelo escolhido de ciclo de vida de desenvolvimento de
software, cuja natureza pode ser sequencial, iterativa ou incremental. Por exemplo, no modelo V sequencial,
o processo de teste fundamental do ISTQB aplicado ao nvel de teste de sistema pode ser adequado da
seguinte maneira:
Pode ser que os modelos iterativos e incrementais no sigam a mesma ordem de tarefas e talvez excluam
algumas tarefas. Por exemplo, um modelo iterativo pode utilizar um nmero menor de processos de teste
padro para cada iterao. A anlise, a modelagem, implementao, a execuo e a divulgao podem ser
realizadas para cada iterao, enquanto o planejamento feito no incio do projeto e a divulgao do
fechamento realizada no final. Em um projeto gil, so comuns a utilizao de um processo menos
formalizado e um relacionamento de trabalho muito mais entrosado para facilitar as mudanas no projeto.
Como o processo gil leve, h menos documentos de teste abrangentes a favor de um mtodo mais rpido
de comunicao, como reunies dirias em p (porque, como so muito rpidas, normalmente de 10 a 15
minutos, ningum precisa se sentar e todos continuam envolvidos).
De todos os modelos de ciclo de vida, os projetos geis so os que mais exigem o envolvimento precoce do
Test Analyst (TA). O Test Analyst (TA) deve esperar o envolvimento desde o comeo do projeto e a colaborao
com os desenvolvedores medida que constroem a arquitetura inicial e fazem a modelagem. Pode ser que as
avaliaes no sejam formalizadas, mas so contnuas, j que o software evolui. Espera-se o envolvimento ao
longo do projeto e o Test Analyst (TA) deve ficar disposio da equipe. Em funo de tal imerso, os
integrantes das equipes geis normalmente se dedicam a um s projeto e participam totalmente de todos os
aspectos do projeto.
Os modelos iterativos / incrementais vo da abordagem gil, onde alteraes so esperadas medida que o
software evolui, a modelos iterativos / incrementais de desenvolvimento que existem no Modelo V (s vezes
Verso 2012br
Pgina 10 de 73
Certifique-se de que os planos do teste no se limitam ao teste funcional. Todos os tipos de teste devem
ser levados em considerao no plano de testes e assim agendados. Por exemplo, alm do teste
funcional, o Test Analyst (TA) pode ser responsvel pelo teste de usabilidade. O documento do plano
do teste tambm deve abranger tal tipo de teste;
Revise as estimativas de teste junto ao Test Manager (TM) e certifique-se de que h tempo suficiente
para a obteno e a validao do ambiente de teste;
Faa plano para o teste de configuraes. Se vrios tipos de processadores, sistemas operacionais,
mquinas virtuais, navegadores e diversos perifricos puderem ser combinados em muitas possveis
configuraes, faa planos para aplicar as tcnicas de teste que proporcionaro uma cobertura
adequada a tais combinaes;
Faa planos para testar a documentao. Os usurios recebem o software com a documentao.
A documentao precisa ser exata para ser eficaz. O Test Analyst (TA) deve reservar tempo para
verificar a documentao e pode ter que trabalhar com a equipe de redao tcnica a fim de preparar
os dados que sero utilizados em capturas de tela e videoclipes;
Faa planos para testar os procedimentos de instalao. Os procedimentos de instalao, de back-up e
de restaurao devem ser testados o bastante. Tais procedimentos podem ser mais importantes do que
o prprio software. Se o software no puder ser instalado, no ser nem sequer utilizado. Pode ser
difcil planejar isto, j que, frequentemente, o Test Analyst (TA) faz os testes iniciais em um sistema
que foi pr-configurado sem a implementao dos processos finais de instalao;
Faa planos para que o teste se adapte ao ciclo de vida do software. A execuo sequencial de tarefas
no combina com a maioria dos cronogramas. Frequentemente, muitas tarefas precisam ser realizadas
ao mesmo tempo (pelo menos parte delas);
O Test Analyst (TA) precisa estar ciente do ciclo de vida escolhido e das expectativas de envolvimento
durante a concepo, o desenvolvimento e a implementao do software. Isto tambm inclui reservar
tempo para testes de confirmao e regresso;
Reserve tempo suficiente para a identificao e a anlise de riscos com a equipe interfuncional;
Verso 2012br
Pgina 11 de 73
Embora normalmente no seja responsvel pela organizao das sesses de gesto de risco, espera-se
que o Test Analyst (TA) participe ativamente de tais atividades.
Podem existir relacionamentos complexos entre a base de teste, as condies de teste e os casos de teste, de
modo que muitos relacionamentos podem existir entre tais produtos de trabalho. Eles precisam ser assimilados
para possibilitar a implementao eficaz do planejamento e do controle de testes. Normalmente, o Test Analyst
(TA) a pessoa mais indicada para determinar tais relacionamentos e separar as dependncias o mximo
possvel.
Para que o Test Analyst (TA) proceda anlise do teste com eficcia, os seguintes critrios de entrada precisam
ser atendidos:
H um documento que descreve o objeto de teste que pode servir de base de teste;
Tal documento foi revisado e obteve resultados razoveis. Aps a reviso, recebeu as atualizaes
necessrias;
Verso 2012br
Pgina 12 de 73
Normalmente, as condies de teste so identificadas pela anlise da base de teste e dos objetivos de teste.
Dependendo da situao, por exemplo, quando os documentos esto velhos ou no existem, as condies de
teste podem ser identificadas atravs de uma conversa com os stakeholders pertinentes (por exemplo, em
workshops ou durante uma sesso de planejamento-relmpago). Ento, tais condies so usadas para
determinar o que testar com tcnicas de modelagem de testes identificadas na estratgia e /ou no plano de teste.
Embora as condies de teste costumem ser prprias do item testado, normalmente o Test Analyst (TA) precisa
levar o seguinte em considerao:
Quando as atividades de anlise de testes forem concludas, o Test Analyst (TA) deve saber quais testes
especficos precisam ser modelados para atender s necessidades das reas atribudas do projeto de teste.
Determinar em quais reas de teste os casos de teste de baixo nvel (concretos) ou de alto nvel
(lgicos) so mais adequados;
Determinar a/s tcnica/s de modelagem de casos de teste que propiciam a cobertura de teste necessria;
Criar os casos de teste que exercem as condies de teste identificadas.
Os critrios de priorizao identificados durante a anlise de riscos e o planejamento de testes devem ser
aplicados no processo inteiro, da anlise implementao, passando pela modelagem e pela execuo.
Dependendo dos tipos de testes modelados, um dos critrios de entrada para a modelagem de testes pode ser
a disponibilidade das ferramentas que sero utilizadas durante os trabalhos de modelagem.
Ao modelar testes, importante lembrar do seguinte:
possvel tratar de alguns itens de teste com maior facilidade mediante a definio somente das
condies de teste em vez da definio de testes com script. Neste caso, as condies de teste devem
ser definidos para a utilizao como guia para os testes com script;
Os critrios de aprovao / reprovao devem ser claramente identificados;
Os testes devem ser modelados de modo que possam ser compreendidos por outros testadores e no
s o autor. Se o autor no for a pessoa que executa o teste, outros testadores precisaro ler e assimilar
os testes especificados anteriormente para compreenderem os objetivos do teste e a importncia
relativa dele;
Verso 2012br
Pgina 13 de 73
Alm disso, outros stakeholders, como os desenvolvedores, os quais avaliaro os testes, e os auditores,
que talvez tenham que aprov-los, precisam poder compreender os testes;
Os testes devem ser modelados para que cubram todas as interaes do software com os atores (por
exemplo, usurios finais, outros sistemas) e no s as interaes que ocorrem atravs da interface
visvel para o usurio. A comunicao entre processos, a execuo por lotes e outras interrupes
tambm interagem com o software e podem conter defeitos. Assim, o Test Analyst (TA) precisa
modelar testes para mitigar tais riscos;
Os testes devem ser modelados para testar as interfaces entre os diversos objetos de teste.
Objetivo;
Pr-condies, como requisitos de projeto ou de ambiente de teste localizado e os planos de entrega,
estado do sistema etc.;
Requisitos de dados de teste (tanto os dados de entrada do caso de teste quanto os dados que devem
existir no sistema para a execuo do caso de teste);
Verso 2012br
Pgina 14 de 73
Resultados esperados;
Ps-condies, como dados afetados, estado do sistema, causas de processamento subsequente etc.
O nvel do detalhe nos casos de teste, que afeta tanto o custo do desenvolvimento quanto o nvel de repetio
durante a execuo, deve ser definido antes da criao dos casos de teste. Menos detalhes no caso de teste
proporcionam ao Test Analyst (TA) mais flexibilidade na execuo de casos de teste e lhe d a oportunidade
de investigar reas de possvel interesse. Contudo, menos detalhes tambm tendem a diminuir a
reprodutibilidade.
Frequentemente, um desafio em particular a definio do resultado esperado de um teste. Calcular isto
manualmente muitas vezes tedioso e tende ao erro. Se possvel, prefervel encontrar ou criar um orculo
de testes automatizados. Ao identificar os resultados esperados, os testadores se preocupam no s as sadas
na tela, mas tambm com os dados e as ps-condies ambientais. Se a base de teste for claramente definida,
a identificao do resultado correto, na teoria, deve ser simples. No entanto, frequentemente as bases de teste
so vagas, contraditrias, carentes de cobertura para reas importantes ou totalmente inexistentes. Em tais
casos, o Test Analyst (TA) deve ter expertise no assunto ou contar com acesso a ela. Alm disso, mesmo quando
a base de teste bem especificada, as interaes complexas de estmulos e respostas complexos podem
dificultar a definio dos resultados esperados. Portanto, essencial dispor de um orculo de teste. A execuo
do caso de teste, sem nenhuma maneira de determinar se os resultados esto corretos, agrega muito pouco
valor ou benefcio, gerando, frequentemente, relatrios falsos de falhas ou desconfiana no sistema.
As atividades supracitadas podem ser aplicadas em todos nveis de teste, embora a base de teste varie. Por
exemplo, os testes de aceitao do usurio podem se fundamentar principalmente nas especificaes de
requisitos, nos casos de uso e nos processos de negcios definidos, enquanto os testes de componente podem
se basear principalmente nas especificaes de modelagem de baixo nvel, nas estrias de usurios e no prprio
cdigo. importante se lembrar de que tais atividades acontecem em todos os nveis de teste, embora o alvo
dos testes possa variar. Por exemplo, o teste funcional no nvel da unidade foi modelado para garantir que
determinado componente lhe proporcione a funcionalidade especificada na modelagem detalhada do
componente. O teste funcional no nvel de integrao serve para verificar se os componentes interagem em
conjunto so funcionais ao longo da interao. No nvel do sistema, a funcionalidade integrada deve ser o alvo
do teste. Ao analisar e modelar os testes, importante se lembrar do nvel do alvo do teste e o objetivo do
teste. Isto ajuda a determinar o nvel dos detalhes necessrios e as ferramentas necessrias (por exemplo,
controladores e simuladores no nvel do teste de componente).
Durante o desenvolvimento das condies de teste e dos casos de teste, normalmente alguns documentos so
criados, o que resulta em produtos de trabalho de teste. Na prtica, a documentao dos produtos de trabalho
de teste varia bastante. Ela pode ser afetada por qualquer uma das seguintes alternativas:
Verso 2012br
Pgina 15 de 73
Pgina 16 de 73
Pgina 17 de 73
Verso 2012br
Pgina 18 de 73
Verso 2012br
Pgina 19 de 73
Aprovado;
Reprovado;
Aprovado com ressalva.
Ento, o Test Analyst (TA) precisa ser muito claro em relao ao que cada um destes termos significa e dever
aplicar o status com coerncia. Aprovado com ressalva significa que um defeito foi detectado, mas ele no
afeta a funcionalidade do sistema? E o defeito de usabilidade que deixa o usurio confuso? Se a nota de corte
for um critrio de sada imprescindvel, reprovar um caso de teste em vez de aprov-lo com ressalva vira um
fator crucial. Tambm devem ser levados em considerao os casos que foram reprovados, mas cuja causa de
reprovao no um defeito (por exemplo, o ambiente de teste foi configurado inadequadamente). Se houver
alguma confuso referente s mtricas rastreadas ou ao uso dos valores de status, o Test Analyst (TA) deve
esclarecer isto junto ao Test Manager (TM) para que as informaes possam ser rastreadas com exatido e
coerncia ao longo do projeto.
No incomum que o Test Analyst (TA) receba um pedido de relatrio de status durante os ciclos de teste e
uma solicitao de contribuio para o relatrio final quando o teste for concludo. Talvez isto exija a coleta
de mtricas dos sistemas de gesto de defeitos e testes e uma avaliao da cobertura e do andamento geral. O
Test Analyst (TA) deve conseguir usar as ferramentas de divulgao e proporcionar as informaes solicitadas
para que o Test Manager (TM) obtenha as informaes necessrias.
Pgina 20 de 73
Verso 2012br
Pgina 21 de 73
TA-2.2.1 (K2) Explicam-se os tipos de informaes que devero ser rastreados durante o teste para possibilitar
o devido monitoramento e controle do projeto.
2.3
TA-2.3.1 (K2) So dados exemplos de boas prticas de comunicao quando se trabalha em um ambiente de
teste 24 horas por dia.
2.4
TA-2.4.1 (K3) Em determinada situao de projeto, participa-se da identificao de riscos, a avaliao de risco
realizada e a devida mitigao de risco proposta.
Verso 2012br
Pgina 22 de 73
Os riscos de produto, os defeitos, os testes e a cobertura podem ser e frequentemente so medidos e divulgados
de modos especficos durante o projeto ou a atividade pelo Test Analyst (TA). A confiana, embora mensurvel
atravs de pesquisas, costuma ser divulgada subjetivamente. A coleta das informaes necessrias para apoiar
estas mtricas faz parte do trabalho dirio do Test Analyst (TA). importante se lembrar de que a preciso de
tais dados crucial, j que dados inexatos criaro informaes equivocadas sobre as tendncias e podem levar
a concluses incorretas. Na pior das hipteses, dados inexatos resultaro em decises incorretas por parte da
administrao e prejudicaro a credibilidade da equipe de teste.
Ao utilizar uma abordagem de teste baseado em risco, o Test Analyst (TA) deve rastrear:
O rastreamento da mitigao de riscos realizado frequentemente com uma ferramenta que tambm rastreia a
concluso do teste (por exemplo, ferramentas de gesto de testes). Isto exige que os riscos identificados sejam
mapeados nas condies de teste, que so mapeadas nos casos de teste, que mitigaro os riscos se os casos de
teste forem executados e aprovados. Desta maneira, as informaes sobre a mitigao de riscos so atualizadas
automaticamente medida que os casos de teste so atualizados. Isto pode ser feito para os testes manuais e
os automatizados.
O rastreamento de defeitos costuma ser realizado com uma ferramenta de rastreamento de defeitos. Quando
os defeitos so registrados, as informaes especficas sobre a classificao de cada defeito so registradas
tambm. Tais informaes so utilizadas para produzir tendncias e grficos que indicam o andamento do teste
e a qualidade do software. As informaes sobre a classificao so discutidas mais detalhadamente no
captulo sobre Gesto de defeitos. O ciclo de vida pode afetar a quantidade registrada de documentos sobre
defeitos e os mtodos usados para registrar as informaes.
medida que os testes vo sendo realizados, as informaes sobre a situao do caso de teste devem ser
registradas. Isto costuma ser feito com a ferramenta de gesto de testes, mas pode ser realizado manualmente,
se necessrio. As informaes sobre os casos de teste podem incluir:
Pgina 23 de 73
Informaes sobre a execuo do caso de teste (por exemplo, data e hora, nome do testador, dados
utilizados);
Itens de execuo do caso de teste (por exemplo, capturas de tela, registros de acompanhamento).
maneira dos itens de risco identificados, os casos de teste devem ser mapeados nos itens dos requisitos
testados. importante que o Test Analyst (TA) lembre-se de que, se o caso de teste A for mapeado no requisito
A e este for o nico caso de teste mapeado naquele requisito, quando o caso de teste A for executado e
aprovado, o requisito A ser considerado atendido. Isto pode ser correto ou incorreto.
Em muitos casos, mais casos de teste so necessrios pra testar um requisito totalmente, mas, por conta da
limitao de tempo, apenas um subgrupo de tais testes realmente criado. Por exemplo, se 20 casos de teste
eram necessrios para testar totalmente a implementao de determinado requisito, mas apenas 10 foram
criados e executados, as informaes sobre a cobertura dos requisitos indicaro 100% de cobertura quando, na
verdade, foi obtida uma cobertura de apenas 50%. O rastreamento exato da cobertura e das situaes avaliadas
dos prprios requisitos pode ser utilizado como medida de confiana.
A quantidade (e o nvel de detalhe) das informaes registradas depende de diversos fatores, inclusive o
modelo de ciclo de vida de desenvolvimento de software. Por exemplo, em projetos geis, normalmente menos
informaes sobre situaes sero registradas devido interao prxima da equipe e a uma maior
comunicao em pessoa.
Verso 2012br
Pgina 24 de 73
Pgina 25 de 73
Aps receber as informaes de risco disponveis, o Test Analyst (TA) precisa definir os nveis de risco
operacional de acordo com as diretrizes estabelecidas pelo Test Manager (TM). Eles podem ser classificados
com palavras (por exemplo, baixo, mdio, alto) ou nmeros. A menos que haja uma forma de medir
objetivamente o risco em uma escala definida, no pode ser uma medida verdadeiramente quantitativa. Medir
a probabilidade e o custo / a consequncia com preciso costuma ser difcil, ento, normalmente, o nvel de
risco determinado qualitativamente.
Nmeros podem ser atribudos ao valor qualitativo, mas isso no o torna uma verdadeira medida quantitativa.
Por exemplo, o Test Manager (TM) pode determinar que o risco operacional deve ser categorizado com um
valor que v de 1 a 10, sendo que 1 o impacto mais alto e, portanto, o de maior risco no negcio. Assim que
a probabilidade (a avaliao do risco tcnico) e o impacto (a avaliao do risco operacional) forem atribudos,
tais valores podem ser multiplicados para definir a classificao geral de risco de cada item de risco. Depois,
a classificao geral utilizada para priorizar as atividades de mitigao de risco. Alguns modelos de testes
baseados em riscos, como o PRISMA [vanVeenendaal12], no combinam os valores de risco e permitem que
a abordagem ao teste trate dos riscos tcnico e operacional separadamente.
Reduzir o risco de produto com casos de teste bem modelados que demonstrem, sem sombra de
dvida, se os itens de teste foram aprovados ou reprovados e participar em avaliaes de itens de
software, como requisitos, modelagens e documentos de usurio;
Implementar as atividades adequadas de mitigao de risco identificadas na estratgia de teste e no
plano de teste;
Verso 2012br
Pgina 26 de 73
Reavaliar riscos conhecidos com base em outras informaes coletadas medida que o projeto
implantado, ajustando, conforme for o caso, a probabilidade, o impacto ou os dois;
Reconhecer novos riscos identificados pelas informaes obtidas durante o teste.
Quando se fala de risco de produto (qualidade), o teste uma forma de mitigao de tais riscos. Ao detectar
os defeitos, os testadores reduzem o risco ao ficarem cientes dos defeitos e das oportunidades para lidar com
os defeitos antes do lanamento. Se os testadores no encontrarem nenhum defeito, o teste passa a reduzir o
risco ao garantir que, em certas condies (isto , as condies testadas), o sistema funcione corretamente. O
Test Analyst (TA) ajuda a determinar as opes de mitigao de risco ao investigar as oportunidades de coleta
de dados de teste exatos, criando e testando cenrios de usurio realistas e realizando ou supervisionando os
estudos de usabilidade.
Se o teste receber mais tempo, possvel expandir a cobertura dos riscos para reas de menor risco.
Verso 2012br
Pgina 27 de 73
3.3
TA-3.3.1 (K2) Descreve-se a aplicao das tcnicas de teste baseado em defeitos e diferencia-se o uso das
tcnicas baseadas em especificaes.
TA-3.3.2 (K4) Analisa-se determinada taxonomia de defeitos para a aplicabilidade em determinada situao
com critrios para uma boa taxonomia.
3.4
Pgina 28 de 73
Verso 2012br
Pgina 29 de 73
As tcnicas so complementares e podem ser utilizadas conforme for o caso em qualquer atividade de teste,
independentemente do nvel de teste realizado.
As trs categorias de tcnicas podem ser utilizadas para testar as caractersticas de qualidade funcionais ou no
funcionais. O teste de caractersticas no funcionais discutido no captulo seguinte.
As tcnicas de modelagem de testes discutidas nestas partes podem se concentrar principalmente na
determinao de dados de testes ideais (por exemplo, parties de equivalncia) ou na obteno de sequncias
de teste (por exemplo, modelos de estados). A combinao de tcnicas para a criao de casos de teste
completos comum.
Modelos, por exemplo, diagramas de transio de estado e tabelas de deciso, so criados durante a
modelagem de testes de acordo com a tcnica de teste;
As condies de testes so obtidas sistematicamente destes modelos.
Algumas tcnicas tambm dispem de critrios de cobertura, que podem ser utilizados para medir as atividades
de modelagem e execuo de testes. O atendimento total aos critrios de cobertura no significa que todos os
testes foram concludos e, sim, que o modelo deixou de recomendar testes para aumentar a cobertura com base
em tal tcnica.
Os testes baseados em especificaes costumam se fundamentar nos documentos de requisitos do sistema.
Como as especificaes de requisitos devem especificar como o sistema deve se comportar, particularmente
na rea da funcionalidade, a obteno de testes a partir dos requisitos frequentemente faz parte do teste do
comportamento do sistema. Em alguns casos, os requisitos podem no estar documentados, mas existem
requisitos implcitos, como a substituio da funcionalidade de um sistema legado.
H uma srie de tcnicas de teste baseadas em especificaes. As tcnicas tm como objetivo tipos diferentes
de software e cenrios. As sees abaixo mostram a aplicabilidade de cada tcnica, algumas limitaes e
dificuldades com as quais o Test Analyst (TA) pode se deparar, o mtodo de medio da cobertura de teste e
os tipos de defeitos almejados.
Pgina 30 de 73
Verso 2012br
Pgina 31 de 73
Limitaes / dificuldades
Como a acurcia desta tcnica depende da identificao precisa das parties de equivalncia, fica sujeito s
mesmas limitaes e dificuldades.
O Test Analyst (TA) tambm deve estar ciente dos incrementos nos valores vlidos e invlidos para conseguir
determinar exatamente os valores que sero testados. Apenas as parties ordenadas podem ser utilizadas para
a anlise de valores-limite, mas no se limitam a uma variedade de entradas vlidas. Por exemplo, quando um
teste realizado com o nmero de clulas suportado por uma planilha, h uma partio que contm o nmero
de clulas que chega ao mximo permitido (o limite) e outra partio que comea pela clula acima do mximo
(acima do limite).
Cobertura
Determina-se a cobertura pegando o nmero de condies-limite que foram testadas e dividindo-o pelo nmero
de condies-limite identificadas (quer com o mtodo dos dois valores, quer com o de trs valores). Isto
estipular a porcentagem de cobertura do teste de valores-limite.
Tipos de defeitos
A anlise de valores-limite detecta, de maneira confivel, o deslocamento ou a omisso de limites e pode
encontrar casos de limites extra. Esta tcnica detecta defeitos relacionados ao tratamento dos valores-limite,
particularmente erros com lgica menor e maior (isto , o deslocamento). Tambm pode ser utilizada para
detectar defeitos no funcionais, por exemplo, a tolerncia de limites de carga (por exemplo, o sistema suporta
10.000 usurios ao mesmo tempo).
Pgina 32 de 73
Verso 2012br
Pgina 33 de 73
Pgina 34 de 73
Pgina 35 de 73
Pgina 36 de 73
Verso 2012br
Pgina 37 de 73
Pgina 38 de 73
Pgina 39 de 73
Pgina 40 de 73
Campo de dados
Muitas taxonomias de defeitos esto disponveis e vo de taxonomias formais que podem ser adquiridas s
modeladas para fins especficos por diversas organizaes. As taxonomias de defeitos desenvolvidas
internamente tambm podem ser utilizadas para objetivar defeitos especficos normalmente encontrados na
organizao. Ao criar uma nova taxonomia de defeitos ou customizar uma disponvel, importante definir
primeiro as metas ou os objetivos da taxonomia. Por exemplo, a meta pode ser a de identificar problemas na
interface de usurio que tenham sido descobertos em sistemas de produo ou identificar problemas
relacionados ao tratamento dos campos de entrada.
Para a criao de uma taxonomia:
1. Crie uma meta e defina o nvel desejado de detalhamento;
2. Selecione determinada taxonomia para servir de base;
3. Defina valores e defeitos comuns que a organizao presencia e /ou que so encontrados na prtica
externamente.
Quanto mais detalhada for a taxonomia, mais tempo levar para desenvolv-la e mant-la, mas resultar em
um nvel maior de reprodutibilidade nos resultados dos testes. Taxonomias detalhadas podem ser redundantes,
mas permitem que a equipe de teste divida o teste sem perda de informaes ou cobertura.
Assim que a taxonomia adequada tiver sido selecionada, pode ser utilizada para criar condies de teste e
casos de teste. Uma taxonomia baseada em risco pode ajudar o teste a se concentrar em uma rea de risco
especfica. As taxonomias tambm podem ser utilizadas em reas no funcionais, como usabilidade,
Verso 2012br
Pgina 41 de 73
Verso 2012br
Pgina 42 de 73
Verso 2012br
Pgina 43 de 73
Pgina 44 de 73
As tcnicas baseadas em defeitos e na experincia tambm so teis quando utilizadas junto com tcnicas
baseadas em especificaes, j que preenchem as lacunas da cobertura do teste decorrentes de pontos fracos
sistemticos em tais tcnicas. maneira das tcnicas baseadas em especificaes, no h uma tcnica
perfeita para todas as situaes. importante que o Test Analyst (TA) entenda os prs e os contras de cada
tcnica e consiga escolher a melhor tcnica ou o melhor conjunto de tcnicas para determinada situao,
considerando o tipo do projeto, o cronograma, o acesso informao, a habilidade do testador e outros
fatores que podem influenciar a escolha.
Verso 2012br
Pgina 45 de 73
TA-4.2.1 (K2) Explica-se com exemplos quais so as tcnicas de teste adequadas para testar as caractersticas
de acurcia, adequao, interoperabilidade e complacncia.
TA-4.2.2 (K2) Em termos de caractersticas de acurcia, adequao e interoperabilidade, definem-se os defeitos
comuns objetivados.
TA-4.2.3 (K2) Em termos de caractersticas de acurcia, adequao e interoperabilidade, define-se quando a
caracterstica deve ser testada no ciclo de vida.
TA-4.2.4 (K4) Em determinado contexto de projeto, descrevem-se as abordagens que seria adequado confirmar
e validam-se tanto a implementao dos requisitos de usabilidade quanto a materializao das expectativas do
usurio.
TA-4.2.5 (K2) Em termos de usabilidade, define-se quando a caracterstica deve ser testada visando a
acessibilidade para pessoas com necessidades especficas.
Verso 2012br
Pgina 46 de 73
Subcaractersticas
Test Analyst
(TA)
Technical Test
Analyst (TTA)
Usabilidade
Eficincia
Manutenibilidade
Portabilidade
X
Maturidade (robustez), tolerncia a falhas,
recuperabilidade, complacncia
Entendibilidade, assimilabilidade, operabilidade,
atratividade, complacncia
O Test Analyst (TA) deve se concentrar nas caractersticas de funcionalidade e usabilidade na qualidade do
software. O teste de acessibilidade deve ser realizado pelo Test Analyst (TA). Embora no aparea como
subcaracterstica, a acessibilidade frequentemente considerada parte do teste de usabilidade. O teste com as
demais caractersticas de qualidade costuma ser considerado responsabilidade do Technical Test Analyst
(TTA). Embora tal alocao de trabalho possa variar em organizaes diferentes, seguida nestes syllabi do
ISTQB.
Verso 2012br
Pgina 47 de 73
Verso 2012br
Pgina 48 de 73
Acurcia;
Adequao;
Interoperabilidade.
Usabilidade;
Acessibilidade.
Pgina 49 de 73
O teste de interoperabilidade pode ser particularmente significativo para organizaes que desenvolvem
software e ferramentas comerciais de prateleira (commercial off-the-shelf ou COTS, na sigla em ingls) e
sistemas de sistemas.
Este tipo de teste realizado durante o teste de componente, integrao e sistema com foco na interao do
sistema com o ambiente. No nvel da integrao de sistemas, este tipo de teste feito para determinar se o
sistema totalmente desenvolvido interage bem com os outros sistemas. Como os sistemas podem interoperar
em vrios nveis, o Test Analyst (TA) deve compreender tais interaes e conseguir criar as condies que
realizaro as diversas interaes. Por exemplo, se os dois sistemas trocarem dados, o Test Analyst (TA) deve
conseguir criar os dados e as transaes necessrios para realizar a troca de dados. Vale lembrar que talvez
todas as interaes no estejam claramente especificadas nos documentos de requisitos. Em vez disso, muitas
destas interaes sero definidas apenas nos documentos sobre a arquitetura e a modelagem do sistema. O Test
Analyst (TA) deve conseguir examinar tais documentos e estar preparado para isso a fim de determinar os
pontos de troca de informaes entre sistemas e entre o sistema e seu ambiente para garantir que todos sejam
testados. Tcnicas como as tabelas de deciso, os diagramas de transio de estado, os casos de uso e os testes
combinatrios valem para o teste de interoperabilidade. Entre os defeitos comuns encontrados esto a troca de
dados incorretos entre componentes que interagem entre si.
Eficcia: a capacidade que o software tem de permitir que o usurio atinja metas especficas com
exatido e integralidade em um contexto de uso especfico;
Eficincia: a capacidade que o produto tem de permitir que o usurio invista quantidades adequadas
de recursos em relao eficcia alcanada em um contexto de uso especfico;
Satisfao: a capacidade que o software tem de satisfazer o usurio em um contexto de uso especfico.
Verso 2012br
Pgina 50 de 73
Entendibilidade: os atributos do software que afetam o esforo exigido pelo usurio para reconhecer
o conceito lgico e sua aplicabilidade;
Assimilabilidade: os atributos do software que afetam o esforo exigido pelo usurio para conhecer
o aplicativo;
Operabilidade: os atributos do software que afetam o esforo exigido pelo usurio para realizar
tarefas com eficcia e eficincia;
Atratividade: a capacidade que o software tem de ser apreciado pelo usurio.
Entre as habilidades do testador de usabilidade devem estar a expertise ou o conhecimento nas seguintes reas:
Sociologia;
Psicologia;
Conformidade com normas nacionais (inclusive normas de acessibilidade);
Ergonomia.
Verso 2012br
Pgina 51 de 73
Pgina 52 de 73
Verso 2012br
Pgina 53 de 73
Introduo
TA-5.1 (K2) Explica-se por que a preparao da reviso importante para o Test Analyst (TA).
5.2
TA-5.2 (K4) Analisa-se um caso de uso ou uma interface de usurio e identificam-se problemas de acordo com as
informaes da checklist fornecidas no syllabus. Analisam-se especificaes de requisitos ou estrias de usurio e
identificam-se problemas de acordo com as informaes da checklist fornecidas no syllabus.
Verso 2012br
Pgina 54 de 73
Pgina 55 de 73
Isto deve servir apenas de exemplo. Vale lembrar que, se um requisito no for testvel, o que significa que foi
definido de maneira que o Test Analyst (TA) no consegue nem determinar como test-lo, h um defeito nele.
Por exemplo, um requisito que declarar O software deve ser muito fcil de usar no testvel. Como o Test
Analyst (TA) pode determinar se o software fcil de usar ou at mesmo muito fcil de usar? Se, pelo contrrio,
o requisito disser O software precisa cumprir com as normas de usabilidade declaradas no documento de
normas de usabilidade e se o documento de normas de usabilidade realmente existir, eis um requisito testvel.
Alm disso, trata-se de um requisito principal porque corresponde a todos os itens da interface. Neste caso,
este requisito pode facilmente gerar muitos casos de teste individuais em um aplicativo no trivial. A
rastreabilidade a partir deste requisito ou talvez a partir do documento de normas de usabilidade at os casos
de teste tambm crucial porque se a especificao de usabilidade mencionada mudar, todos os casos de teste
precisaro ser revisados e atualizados quando necessrio.
Um requisito tambm no testvel se o testador no conseguir determinar se o teste o aprovou ou o reprovou
ou se no conseguir elaborar um teste que consiga aprov-lo ou reprov-lo. Por exemplo, no possvel testar
um requisito que declare O sistema dever ficar disponvel o tempo todo, 24 horas por dia, sete dias por
semana, 365 (ou 366) dias por ano. Uma checklist simples para revises de casos de uso pode incluir as
seguintes perguntas:
Uma checklist simples referente usabilidade da interface de usurio de um aplicativo pode incluir o seguinte:
Pgina 56 de 73
Existem combinaes de teclas de atalho definidas para o usurio (por exemplo, copiar e colar)?
Existem dependncias entre os campos (como certa data precisa ser posterior a outra data)?
H um layout de tela?
O layout da tela atende aos requisitos especificados?
H um indicador para o usurio que aparece quando o sistema est processando dados?
A tela atende ao requisito mnimo de um clique (se definido)?
A navegao flui logicamente para o usurio com base nas informaes de caso de uso?
A tela atende aos requisitos de assimilabilidade?
H um texto de ajuda disponvel para o usurio?
H um texto disponvel para o usurio quando o cursor do mouse colocado sobre um item?
O usurio considerar isto atrativo (avaliao subjetiva)?
O uso das cores combina com outros aplicativos e com as normas da organizao?
Os efeitos sonoros so utilizados adequadamente e so configurveis?
A tela atende aos requisitos de localizao?
O usurio consegue saber o que fazer (entendibilidade) (avaliao subjetiva)?
O usurio conseguir se lembrar do que fazer (entendibilidade) (avaliao subjetiva)?
Em um projeto gil, os requisitos costumam assumir a forma de estrias de usurio. Estas estrias representam
pequenas unidades de funcionalidade demonstrvel. Se, por um lado, um caso de uso uma transao de
usurio que se estende a vrias reas de funcionalidade, uma estria de usurio mais isolada e geralmente
entra em determinada abrangncia quando elaborada. Uma checklist referente a uma estria de usurio pode
incluir:
Claro, se a estria definir uma nova interface, a utilizao de uma checklist genrica referente a estrias (como
a supracitada) e uma checklist detalhada referente a interfaces de usurio seria adequada.
Uma checklist pode ser ajustada com base no seguinte:
Organizao (por exemplo, pensar nas polticas, nas normas e nas convenes da empresa);
Projeto / trabalhos de desenvolvimento (por exemplo, foco, normas tcnicas, riscos);
Objeto revisado (por exemplo, revises de cdigos podem ser ajustadas a linguagens de programao
especficas).
Checklists boas encontraro problemas e ajudaro a iniciar discusses sobre outros itens que poderiam no ter
sido mencionados especificamente nelas. A utilizao de uma combinao de checklists uma tima maneira
de garantir que uma reviso realize o produto de trabalho da mais alta qualidade. A utilizao de checklists
padro, como as mencionadas no syllabus do nvel fundamental, e o desenvolvimento de checklists
organizacionalmente especficas, como as supracitadas, ajudaro o Test Analyst (TA) a ser eficaz nas revises.
Para obter mais informaes sobre revises e inspees, vide [Gilb93] e [Wiegers03].
Verso 2012br
Pgina 57 de 73
6.3
TA-6.3.1 (K2) Explicam-se as informaes que podem ser necessrias ao documentar um defeito no
funcional.
6.4
Classificao de defeitos
6.5
Anlise de causa-raiz
Verso 2012br
Pgina 58 de 73
As informaes registradas em um relatrio de defeito devem ser dividas em campos de dados. Quanto mais
bem definidos forem os campos, mais fcil divulgar defeitos individuais e produzir relatrios de tendncias
Verso 2012br
Pgina 59 de 73
A atividade do projeto que resultou na deteco do defeito (por exemplo, reviso, auditoria, inspeo,
codificao, teste);
A fase do projeto em que o defeito foi introduzido (se conhecido) (por exemplo, requisitos,
modelagem, modelagem detalhada, cdigo);
A fase do projeto em que o defeito foi detectado (por exemplo, requisitos, modelagem, modelagem
detalhada, cdigo, reviso de cdigo, teste de unidade, teste de integrao, teste de sistema, teste de
aceitao);
Suposta causa do defeito (por exemplo, requisitos, modelagem, interface, cdigo, dados);
Repetibilidade (por exemplo, uma vez, intermitente, reprodutvel);
Sintoma (por exemplo, pane, interrupo, erro na interface de usurio, erro no sistema, desempenho).
Verso 2012br
Pgina 60 de 73
Causa-raiz: o erro cometido que levou ao defeito, por exemplo, processo, erro de codificao, erro
de usurio, erro de teste, problema de configurao, problema de dados, software de terceiros,
problema de software externo, problema de documentao;
Fonte: o produto de trabalho no qual o erro foi cometido (por exemplo, requisitos, modelagem,
modelagem detalhada, arquitetura, modelagem de banco de dados, documentao do usurio,
documentao do teste);
Tipo (por exemplo, problema de lgica, problema computacional, problema de tempo, tratamento de
dados, aprimoramento).
Quando o defeito for consertado (ou tiver sido delegado ou tiver sido reprovado na confirmao), ainda mais
informaes de classificao podem estar disponveis, como:
Alm das categorias de classificao, os defeitos tambm so frequentemente classificados com base na
gravidade e na prioridade. Alm disso, dependendo do projeto, talvez faa sentido classific-los com base no
impacto sobre a segurana da misso, no impacto sobre o cronograma do projeto, o projeto, nos custos do
projeto, no risco do projeto e no impacto sobre a qualidade do projeto. Estas classificaes podem ser levadas
em considerao em contratos que estipulem a rapidez de execuo de um reparo.
A rea final de classificao a resoluo final. Frequentemente, os defeitos so agrupados com base na
resoluo, por exemplo, reparado / verificado, fechado / sem problema, delegado, em aberto / no resolvido.
Esta classificao costuma ser utilizada ao longo de um projeto, j que os defeitos so rastreados ao longo do
ciclo de vida.
Os valores de classificao utilizados por uma organizao so frequentemente customizados. Os valores
supracitados so apenas exemplos de alguns dos valores comuns utilizados no setor. importante que os
valores da classificao sejam utilizados de maneira coerente para que sejam teis. Campos de classificao
em excesso deixaro a abertura e o processamento de defeitos um pouco lentos, ento importante cruzar o
valor dos dados coletados com o custo incremental de cada defeito processado. A capacidade de personalizar
os valores de classificao coletados por uma ferramenta frequentemente um fator importante na seleo de
ferramentas.
Verso 2012br
Pgina 61 de 73
Requisito confuso;
Requisito ausente;
Requisito errado;
Implementao de modelagem incorreta;
Implementao de interface incorreta;
Erro de lgica de cdigo;
Erro de clculo;
Erro de hardware;
Erro de interface;
Dado invlido.
As informaes sobre a causa-raiz so agregadas para determinar problemas comuns que resultam na criao
de defeitos. Por exemplo, se um grande nmero de defeitos for causado por requisitos confusos, faz sentido se
empenhar mais para realizar avaliaes de requisitos eficazes. Igualmente, se a implementao de interfaces
for um problema em grupos de desenvolvimento, sesses conjuntas de modelagem podem ser necessrias.
A utilizao de causas-raiz para o aprimoramento de processos ajuda a organizao a monitorar as vantagens
de mudanas eficazes em processos e a quantificar os custos dos defeitos que podem ser atribudos a uma
causa-raiz especfica. Isto pode ajudar a financiar mudanas em processos que podem exigir a aquisio de
ferramentas e equipamentos adicionais e a alterao do cronograma. O syllabus Melhoramento do processo
de teste do nvel especialista do ISTQB [ISTQB_EL_ITP] examina a anlise de causa-raiz com maior
profundidade.
Verso 2012br
Pgina 62 de 73
Verso 2012br
Pgina 63 de 73
Verso 2012br
Pgina 64 de 73
Frequentemente, os objetivos se sobrepem aos objetivos principais de aumentar a cobertura ao mesmo tempo
em que os custos so reduzidos.
7.2.2.1 Aplicabilidade
O retorno do investimento das ferramentas de execuo de testes costuma ser mais alto quando os testes de
regresso so automatizados por conta do baixo nvel de manuteno esperada e a repetio da execuo dos
testes. A automao de testes bsicos tambm pode ser um uso eficaz da automao devido ao uso frequente
dos testes, necessidade de um resultado rpido e, embora o custo da manuteno possa ser mais alto,
capacidade de ter uma forma automatizada de avaliar um novo pacote em um ambiente de integrao contnua.
As ferramentas de execuo de testes so normalmente utilizadas durante os nveis de teste de sistema e de
integrao. Algumas ferramentas, especialmente as ferramentas de teste API, podem ser utilizadas no nvel do
teste de componente tambm. O aproveitamento das ferramentas quando elas forem relevantes contribuir
para a melhoria do retorno sobre o investimento.
Pgina 65 de 73
Possveis riscos:
Um teste manual incompleto, ineficaz ou incorreto pode ser automatizado no estado em que se
encontra (as is);
O testware pode ser difcil de manter, exigindo vrias mudanas quando o software em teste for
alterado;
O envolvimento direto do testador na execuo dos testes pode ser reduzido, o que leva a uma menor
deteco de defeitos;
A equipe de teste pode ter habilidades insuficientes para utilizar as ferramentas automatizadas de
maneira eficaz;
Testes irrelevantes que no contribuam com a cobertura geral do teste podem ser automatizados
porque existem e so estveis;
Os testes podem ficar improdutivos medida que o software se estabilizar (paradoxo do pesticida).
Verso 2012br
Pgina 66 de 73
Pgina 67 de 73
Verso 2012br
Pgina 68 de 73
8. Referncias
8.1 Normas
[ISO25000] ISO/IEC 25000:2005, Software Engineering Software Product Quality Requirements and
Evaluation (SQuaRE). Captulos 1 e 4.
[ISO9126] ISO/IEC 9126-1:2001, Software Engineering Software Product Quality. Captulos 1 e 4.
[RTCA DO-178B/ED-12B]: Software Considerations in Airborne Systems and Equipment Certification,
RTCA/EUROCAE ED12B.1992. Captulo 1.
8.3 Livros
[Bath08] BATH, Graham; MCKAY, Judy. The Software Test Engineer's Handbook Rocky Nook, 2008,
ISBN 978-1-933952-24-6.
[Beizer95] BEIZER, Boris. Black-Box Testing John Wiley & Sons, 1995, ISBN 0-471-12094-4.
[Black02] BLACK, Rex. Managing the Testing Process 2 edio, Nova Iorque: John Wiley & Sons,
2002, ISBN 0-471-22398-0.
[Black07] BLACK, Rex. Pragmatic Software Testing John Wiley and Sons, 2007, ISBN 978-0-47012790-2.
[Buwalda01] BUWALDA, Hans. Integrated Test Design and Automation Addison-Wesley Longman,
2001, ISBN 0-201-73725-6.
[Cohn04] COHN, Mike. User Stories Applied: For Agile Software Development Addison-Wesley
Professional, 2004, ISBN 0-321-20568-5.
[Copeland03] COPELAND, Lee. A Practitioner's Guide to Software Test Design Artech House, 2003,
ISBN 1-58053-791-X.
[Craig02] CRAIG, Rick David; JASKIEL, Stefan P. Systematic Software Testing Artech House, 2002,
ISBN 1-580-53508-9.
[Gerrard02] GERRARD, Paul; THOMPSON, Neil. Risk-Based e-Business Testing Artech House, 2002,
ISBN 1-580-53314-0.
[Gilb93] DOROTHY, Graham; GILB, Tom. Software Inspection Addison-Wesley, 1993, ISBN 0-20163181-4.
[Graham07] BLACK, Rex; EVANS, Isabel; GRAHAM, Dorothy; VEENENDAAL, Erik van.
Foundations of Software Testing Thomson Learning, 2007, ISBN 978-1-84480-355-2.
[Grochmann94] GROCHMANN, M. "Test Case Design Using Classification Trees," in: Conference
Proceedings of STAR 1994, 1994.
Verso 2012br
Pgina 69 de 73
[Koomen06] AALST, Leo van der; BROEKMAN, Bart; KOOMEN, Tim; VROON, Michiel. TMap
NEXT, For Result Driven Testing UTN Publishers, 2006, ISBN 90-72194-80-2.
[Myers79] MYERS, Glenford J. The Art of Software Testing John Wiley & Sons, 1979, ISBN 0-47146912-2.
[Splaine01] JASKIEL, Stefan P.; SPLAINE, Steven. The Web-Testing Handbook STQE Publishing,
2001, ISBN 0-970-43630-0.
[vanVeenendaal12] VEENENDAAL, Erik van. Practical Risk-Based Testing The PRISMA Approach
Holanda, UTN Publishers, 2012, ISBN 9789490986070.
[Wiegers03] WIEGERS, Karl. Software Requirements 2 Microsoft Press, 2003, ISBN 0-735-61879-8.
[Whittaker03] WHITTAKER, James. How to Break Software Addison-Wesley, 2003, ISBN 0-20179619-8.
[Whittaker09] WHITTAKER, James. Exploratory Software Testing Addison-Wesley, 2009, ISBN 0321-63641-4.
Captulo 4:
www.testingstandards.co.uk.
Verso 2012br
Pgina 70 de 73
9. ndice remissivo
0-switch, 35
defeito, 4, 5, 9, 12, 18, 20, 23, 27, 35, 37, 40, 42,
51, 55, 56, 58, 59, 60, 61
heurstica, 46, 52
incidente, 18, 59
inspeo, 52, 60
interoperabilidade, 4, 46, 47, 48, 49, 50
atratividade, 46, 47
avaliao, 3, 7, 9, 10, 16, 17, 20, 22, 25, 26, 27, 42,
46, 47, 49, 52, 57
iterativo incorporado, 11
N-1 switches, 35
nvel de risco, 22, 26, 27
pares, 36
prottipos, 52
questionrios, 52, 53
comandos, 65, 67
reunies retrospectivas, 20
Verso 2012br
Pgina 71 de 73
SUMI, 41, 46
pesquisas, 46
anlise de teste, 12
base de teste, 14
caso de teste, 13
carta de teste, 26
condio de teste, 12
controle de teste, 8
modelagem de teste, 8, 12
teste de acessibilidade, 53
ambiente de teste, 16
teste de acurcia, 49
estimativas de teste, 11
execuo de teste, 8, 16
implementao de teste, 8, 15
vantagens da automao, 67
registro de teste, 17
monitoramento de teste, 20
orculo de teste, 14
planejamento de teste, 8, 11
planos de teste, 11
mtodos geis, 10
iterativo, 10
ciclo de vida de software, 9
tcnica baseada em especificaes, 26
tcnicas baseadas em especificaes, 27
sutes de teste, 15
tcnicas de teste, 26
teste de caractersticas de qualidade de software, 41
ferramenta de modelagem de teste, 29, 56, 57
DO-178B, 16
ED-12B, 16
UML, 46
teste de transio de estados, 26, 30
rastreabilidade, 12
entendibilidade, 41
adequao, 41
teste de adequao, 44
Verso 2012br
Pgina 72 de 73
Verso 2012br
Pgina 73 de 73