Importância da avaliação: validar a interface
de acordo com os requisitos do usuário, per-
mitindo verificar se ele encontrará dificul-
dades em seu uso e identificar barreiras que
possam comprometer a interação.
FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o
cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de
Ciências Matemáticas e de Computação.
Objetivos da Avaliação:
• Identificar necessidades dos usuários ou verificar
o entendimento dos projetistas sobre elas
• Identificar problemas de interação ou de interface
• Investigar como uma interface afeta a forma de
trabalhar dos usuários
• Comparar alternativas de projeto de interface
• Alcançar objetivos quantificáveis em métricas de
usabilidade
• Verificar conformidade com um padrão ou
conjunto de heurísticas
Os métodos de avaliação de
interface diferem entre si em vários
aspectos. É preciso entender as
diferentes características de cada
método, para se definir qual deles
é o mais apropriado para se avaliar
a interface de um software em um
determinado contexto.
PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de
Interfaces de Usuário: Conceitos e Métodos. In: Anais do XXIII Congresso Na-
cional da Sociedade Brasileira de Computação, 2003.
Tipos de avaliação
Avaliação analítica ou de inspeção: realizada por
especialistas com conhecimentos sobre características
de qualidade de interfaces, não envolvem a participação
de usuários. Seu objetivo é buscar problemas em uma
interface existente, analisá-los e solucioná-los ou
oferecer recomendações para tal.
Destaca-se a avaliação heurística, através da qual a
avaliação da interface acontece com base em heurísticas
testadas e reconhecidas.
Tipos de avaliação
Avaliação empírica: realizada com a participação de
usuários, através de atividades que geram dados para
análise do avaliador. As técnicas de avaliação empírica
mais usadas são a coleta de opinião, a observação de
usuários e o registro de uso.
Conforme as particularidades de cada situação,
avaliações empíricas e analíticas podem ser adaptadas
ou combinadas.
Principais diferenças entre os métodos de avaliação
• Etapa do ciclo de design em que podem ou devem ser
aplicados
• A técnica de coleta de dados utilizada
• Os tipos de dados coletados
• Os tipos de análise de dados
PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário:
Conceitos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação,
2003.
Etapa do ciclo de design em que podem ou devem ser
aplicados
• Avaliação Formativa: realizada durante o
desenvolvimento do produto.
Objetivo: Identificar e corrigir problemas antes de
liberar o produto para o uso.
• Avaliação Somativa: realizada após o término do produto.
Objetivo: melhorar a qualidade do sistema ou verificar
sua conformidade com um determinado padrão.
Técnicas de coleta de dados
• Coleta da opinião de usuários
Objetivo: obter uma apreciação dos usuários em relação ao
sistema.
Formas de coleta: questionários, entrevistas, grupos focais.
• Observação de usuários
Objetivo: ter uma visão dos problemas e dos aspectos
positivos vivenciados pelos usuários.
Formas de coleta: anotações, gravação de vídeo, áudio e/ou
interação.
Local da coleta: Contexto de uso (casa, escola, trabalho, etc)
ou ambiente controlado (laboratórios de testes).
Técnicas de coleta de dados
• Registro de uso: registrar em um arquivo as ações executadas pelo
usuário durante o uso do sistema.
Objetivo: coletar informações sobre como os usuários usam o sistema,
sem a necessidade de estar presente.
Formas de coleta: gravação em vídeo, registro de logs.
• Coleta da opinião de especialistas: usada em situações em que
usuários não estão disponíveis ou o seu envolvimento implica um custo
elevado.
Objetivo: prever possíveis dificuldades que os usuários podem ter ao
utilizar o sistema.
Formas de coleta: checklists e guidelines, nos quais os avaliadores
se baseiam para analisar a interface.
Tipos de dados coletados
• Dados quantitativos: utilizados para avaliar eficiência e
produtividade de um sistema, para comparar alternativas de
design ou determinar se o sistema atingiu algum objetivo de
qualidade de uso pré-definido.
• Dados qualitativos: permitem identificar quais são as
características de interação ou interface relacionadas com os
problemas observados.
Tipos de análise de dados
• Análise preditiva: realizada em dados coletados por
especialistas buscando prever que tipo de problemas os usuários
enfrentarão.
• Análise interpretativa: realizada em dados coletados durante
a interação em ambiente natural. Depende da interpretação dos
avaliadores, que procuram explicar os fenômenos ocorridos
durante a interação.
• Análise experimental: realizada em dados coletados durante
a interação em ambiente controlado. Também depende da
interpretação dos avaliadores, mas as variáveis manipuladas são
conhecidas.
Avaliação empírica e/ou por inspeção: etapas preparatórias
• Determinação do objetivo da avaliação: definir o que será avaliado e quais os
critérios relevantes ou prioritários de avaliação.
• Seleção de tarefas (ou páginas a serem avaliadas): devem ser realistas e
significativas para fornecer os indicadores pretendidos.
• Seleção de participantes: usuários representantes do público alvo do sistema
e/ou especialistas nos quesitos a serem avaliados. Considerar quantidade e
experiência dos participantes em função do tipo de avaliação pretendida e dos
prazos e recursos disponíveis.
• Geração do material de teste: questionários, scripts, roteiros de entrevista
e observação, descrição de tarefas, checklist, formulários, termo de
consentimento, etc.
• Definição de questões éticas: tempo de duração dos testes, anonimato,
voluntariedade, assinatura do consentimento, etc.
• Execução do teste piloto: avaliação da qualidade do material gerado.
Avaliação empírica e/ou por inspeção: guia para etapas preparatórias
Framework DECIDE
1) (DETERMINE) - Determinar os objetivos gerais da avaliação.
2) (EXPLORE) - Explorar perguntas específicas a serem respondidas.
3) (CHOOSE) - Escolher o paradigma e as técnicas de avaliação.
4) (IDENTIFY) - Identificar questões práticas a serem tratadas.
5) (DECIDE) - Decidir como lidar com questões éticas.
6) (EVALUATE) - Avaliar, interpretar e apresentar os dados.
PREECE, Jennifer; ROGERS, Yvonne; SHARP, Helen. Design de interação: além da interação homem-
computador. Porto Alegre: Bookman, 2005. xvi, 548p.
Existe uma série de métodos de avaliação que podem ser utilizados
em diferentes etapas do desenvolvimento de interfaces Web. Eles
podem ser empíricos ou por inspeção e devem ser escolhidos
conforme a situação.
Não existe um único método capaz de identificar todos os problemas
de usabilidade em uma interface, embora métodos que utilizem
a interação do usuário sejam mais completos e, algumas vezes,
considerados de referência.
WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In:
NEDEL, Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v.
1, p. 85-137. ). Fortaleza: SBC, 2002. v. 1, p. 336- 347.
Métodos e técnicas de inspeção para avaliação
de usabilidade
• Avaliação Heurística (NIELSEN; 1993): inspeciona
a interface com base em uma lista de heurísticas de
usabilidade, considerando a severidade dos problemas.
É uma das formas de avaliação mais utilizadas, pois
apresenta bons resultados práticos, é pouco dispendiosa e
fácil de conduzir.
• Revisão de Guidelines (ROCHA e BARANAUSKAS;
2000): a interface é inspecionada de acordo com uma lista
de guidelines de usabilidade. É um método pouco utilizado,
pois são muitas guidelines, tornando a avaliação muito
extensa.
Métodos e técnicas de inspeção para avaliação de
usabilidade
• Percurso Cognitivo (ROCHA e BARANAUSKAS; 2000): o avaliador
deve simular o caminho que o usuário executaria para realizar as
tarefas. O foco principal do método é avaliar as interfaces quanto à
facilidade de aprendizagem. Restrição: o método foca em apenas
um dos atributos de usabilidade.
• Inspeção de Consistência (ROCHA e BARANAUSKAS; 2000):
a inspeção é feita em uma família de interfaces, verificando-se a
consistência dos elementos que constituem a interface, tais como:
terminologia, cores, layout, formatos de entrada e saída. Também
é avaliado o suporte online de treinamento e ajuda. Este método é
considerado demorado de ser aplicado.
Métodos e técnicas de inspeção para avaliação de
usabilidade
• Inspeção por Checklist (WINCKLER e PIMENTA; 2002): baseada
em listas de verificação de aplicações recomendáveis ao projeto.
Garantem resultados estáveis com redução da subjetividade e não
necessitam ser executadas por especialistas. Pode ser adaptada a
diversas situações de avaliação.
• Inspeção Percurso Pluralista (DIAS; 2007): são feitas reunião
com usuários e colaboradores para discutir toda a interface. A
equipe inspeciona a interface através de simulações de uso.
Cada um dos elementos da interação do usuário com o sistema é
avaliado.
Técnicas e métodos empíricos para avaliação de
usabilidade
• Ensaios de Interação (DIAS; 2007): usuários representativos do
público-alvo do sistema realizam tarefas típicas de suas atividades.
A seleção de usuários e tarefas é feitas com base no contexto de uso
do sistema.
• Protocolo verbal ou Thinking-aloud (DIAS; 2007): é pedido aos
usuários que verbalizem seus pensamentos, opiniões e sentimentos
enquanto interagem com o sistema.
Técnicas e métodos empíricos para avaliação de
usabilidade
• Observação Direta (ROCHA e BARANAUSKAS; 2000): é
considerado um método de observação invasivo, pois o avaliador
fica ao lado do usuário monitorando sua interação com o sistema.
As anotações são feitas em tempo real dificultando o registro
completo das atividades do usuário.
• Observação Indireta (ROCHA e BARANAUSKAS; 2000): realizado
em laboratórios de usabilidade, o usuário é monitorado por uma
câmera de vídeo enquanto interage com o sistema, o que torna
o procedimento menos invasivo. Todas as atividades podem ser
gravadas e analisadas posteriormente.
Técnicas e métodos empíricos para avaliação de
usabilidade
• Entrevistas e questionários (WINCKLER e PIMENTA; 2002):
permitem que os avaliadores conheçam a opinião dos usuários
sobre um sistema. Facilitam uma visão compreensiva dos problemas
de usabilidade.
• Grupo focal (DIAS; 2007): reunião de usuários para discutir a
interface. O grupo deve ter um moderador para conduzir o encontro,
manter o foco da discussão, garantir a contribuição de todos,
preparar uma lista de assuntos a serem discutidos e do tipo de
informações a ser coletadas e, por fim, fazer uma análise final.
Técnicas e métodos empíricos para avaliação de
usabilidade
• Co-descoberta (DIAS; 2007): dois participantes executam juntos
as tarefas designadas e verbalizam seus pensamentos, dificuldades
e opiniões. Há uma ajuda mútua na resolução de problemas com a
interface do sistema.
• Medida de desempenho (DIAS; 2007): aferição do tempo gasto
pelo usuário para completar uma ou mais tarefas específicas
(eficiência) e se ele conseguiu realizá-las de forma correta e
completa (eficácia). Podem ser medidos: número de tarefas
realizadas em um determinado tempo; número de erros; número de
comandos usados, etc.
• Um ponto carente são metodologias para a fase de Avaliação. E
possível observar em algumas propostas a sugestão de técnicas
oriundas da Usabilidade para mensurar os resultados dos projetos.
Mas os autores dedicam pouca atenção a essa fase e não apontam
adaptações dessas técnicas para atributos da Arquitetura da
Informação.
• A Arquitetura de Informação ainda precisa avançar nas técnicas
de mensuração dos resultados de seu trabalho. Embora seja difícil
encontrar tais indicadores, eles são importantes para melhorar a
eficácia dos trabalhos e justificar sua importância.
REIS, Guilhermo Almeida dos. Centrando a Arquitetura de Informação no usuário. São Paulo, 2007.
Dissertação (Mestrado) - Escola de Comunicação e Artes, Universidade de São Paulo.
• A avaliação da arquitetura de informação é feita, principalmente,
por análise da estrutura da informação utilizando métodos de
verificação heurística. Algumas heurísticas aplicadas à arquitetura
de informação para websites podem ajudar na análise.
• A ideia é verificar a qualidade e eficiência dos seguintes
elementos: página principal; sistemas de organização, rotulação,
navegação e busca. Também podem ser utilizados testes de
usabilidade e card sorting.
REBELO, Irla. User experience and HCI expert. Disponível em: <http://irlabr.wordpress.com/aposti-
la-de-ihc/parte-1-ihc-na-pratica/8-arquitetura-de-informacao/>
Heurísticas de Louis Rosenfeld para a Arquitetura da
Informação
ROSENFELD, Louis. Information Architecture Heuristics. Disponível em <http://louisrosenfeld.com/
home/bloug_archive/000286.html>
PÁGINA PRINCIPAL
• Suporta múltiplas maneiras de alcançar o conteúdo?
• Destaca as melhores maneiras para alcançar o conteúdo?
• Orienta o usuário sobre o assunto do site e sobre qual é o conteúdo
disponível?
• Atende aos usuários que já visitaram o site e sabem o que estão
procurando?
INTERFACE DE BUSCA
• É fácil encontrá-la e está posicionada consistentemente?
• É fácil de usá-la?
• Permite que o usuário refaça ou refine sua busca?
• Os construtores de query (corretor ortográfico, pesquisa
de radicais, busca por conceito e em tesauros) são usados
eficazmente?
RESULTADOS DA BUSCA
• Os resultados relevantes estão no topo da lista?
• Está claro quais foram os parâmetros usados na busca?
• Está claro o que foi buscado?
• Está claro quantos resultados foram encontrados?
• As informações apresentadas para cada usuário são úteis?
• Os resultados estão agrupados de uma forma útil?
NAVEGAÇÃO GLOBAL
• É possível se mover através do site com poucos cliques?
• A amplitude e a profundidade da estrutura estão balanceadas?
• Os rótulos são claros e significativos?
NAVEGAÇÃO CONTEXTUAL
• Está claro onde estou tanto em termos de qual site estou como
também em que lugar dentro do site estou?
• Existem poucas opções que me conduzem onde eu gostaria de ir
em seguida?
• As opções têm rótulos claros?
Objetivo: identificar barreiras de acessibilidade em websites e
reportar estes problemas para correção.
Como a avaliação de usabilidade, pode ser feita através de vários
métodos e técnicas, tanto por inspeção quanto por testes empíricos.
Embora a avaliação por inspeção permita encontrar diversos
problemas, alguns são encontrados apenas em testes empíricos.
Atualmente, a maioria dos métodos de avaliação de acessibilidade é
adaptada dos métodos de avaliação de usabilidade.
FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o
cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de
Ciências Matemáticas e de Computação.
Métodos de avaliação de acessibilidade
• Conformidade com diretrizes (guidelines): validação automática,
por meio de validadores automáticos e/ou inspeção manual.
Na inspeção manual o avaliador percorre o código HTML,
identificando problemas
Na validação automática o avaliador utiliza uma ou mais ferramentas
automatizadas.
Demonstração de uso do validado automático daSilva
http://www.dasilva.org.br/
http://www.bibliotecadigital.ufmg.br/dspace
Métodos de avaliação de acessibilidade
Testes com usuários: ensaios de interação, através dos quais pessoas
com deficiência (com o perfil desejado) realizam tarefas no website.
É importante considerar as tecnologias assistivas necessárias e
particularidades do perfil desses usuários:
• Deficiência visual: não usar documentos impressos, ter cuidado
com termos ao passar as instruções.
• Deficiência auditiva: considerar a presença de um interprete em
LIBRAS.
• Deficiência cognitiva: deixar que explorem a interface à sua
maneira, sem listas de tarefas.
• Deficiência física: acessibilidade física do ambiente de teste.
Métodos de avaliação de acessibilidade
• Inspeção por Heurísticas (PADDISON e ENGLEFIELD; 2003, TANAKA,
2010): avaliador verifica a conformidade dos websites a heurísticas
previamente definidas.
• Percurso de barreiras (BRAJNIK; 2006): método de inspeção onde
o avaliador identifica cenários compostos por tipos de usuários,
configurações, objetivos e possíveis tarefas.
• Percurso cognitivo estendido (KATO e HORI; 2006): realiza a
distinção entre percepção e entendimento. Considera que apenas
perceber uma informação, visível ou audível, não garante que a
mesma seja entendida cognitivamente.
Método de avaliação de acessibilidade proposto pelo
W3C
O documento Evaluating Web Sites for Accessibility (http://www.
w3.org/WAI/EO/Drafts/impl/eval/) apresenta dois métodos para a
avaliação de acessibilidade em websites:
• Avaliação preliminar de acessibilidade: verifica rapidamente os
problemas de acessibilidade em um website, mas não identifica
todos eles.
• Avaliação de conformidade com as diretrizes: avaliação abrangente
de conformidade do website com as diretrizes de acessibilidade.
Não inclui a participação de usuários com deficiências, mas ressalta
que eles aumentam a eficácia da avaliação, pois incorporam suas
experiências de acesso e uso diferenciado.
Avaliação preliminar de acessibilidade:
1) Seleção de amostra representativa de páginas: páginas mais acessadas do website e
com diferentes layouts e funcionalidades: página principal e com tabelas, formulários,
conteúdos gráficos, etc.
2) Exame das páginas com navegadores gráficos: usar diferentes navegadores gráficos,
mudando resolução de tela, tamanho de fonte, cor de exibição, navegação pelo
teclado, imagens e áudio desabilitados, etc.
3) Exame das páginas com navegadores especiais: usar navegadores textuais e
sintetizadores de voz para verificar se a informação apresentada é tão significativa e
compreensível quanto à apresentada por navegadores gráficos.
4) Uso de ferramentas de avaliação automática de acessibilidade: analisar as páginas
com, no mínimo dois validadores automáticos, atentando para suas limitações.
5) Sumarização de resultados: resumir os problemas e os aspectos positivos
encontrados, identificar o método usado, recomendar solução para os problemas e
outra forma de avaliação.
Avaliação de conformidade com as diretrizes:
1) Determinação do escopo da avaliação: determinar o alcance da avaliação, a diretriz
e o nível de prioridade usados; selecionar amostra representativa de páginas para
avaliação manual; identificar e divulgar o site inteiro para análise automática. Se a
avaliação de todo o site for inviável, selecionar páginas representativas.
2) Uso de ferramentas de avaliação de acessibilidade Web: usar uma ferramenta de
validação de sintaxe para avaliar o código HTML e CSS e, no mínimo, dois validadores
automáticos de acessibilidade em todo o site, ou nas páginas representativas.
3) Avaliação manual da amostra representativa de páginas: usar a lista de pontos de
verificação da diretriz adotada, verificando pontos não identificados pelos validadores
automáticos; usar navegadores gráficos e especiais conforme recomendado para a
avaliação preliminar de acessibilidade; ler os textos das páginas, avaliando clareza,
simplicidade e coerência com os objetivos do site.
4) Sumarização e apresentação de resultados: resumir e apresentar problemas e pontos
positivos identificados e o método usado; eliminar barreiras identificadas; expandir
pontos positivos e monitorar a acessibilidade conquistada.
Método de avaliação de acessibilidade proposto e-MAG
2.0
1) Uso de validadores automáticos de acessibilidade: não especifica a quantidade de
ferramentas que deve ser usada. A menção a validadores automáticos sugere que seja
mais de um.
2) Validação humana por profissionais técnicos: profissionais que desenvolveram a
acessibilização devem navegar pelo site com leitores de tela, através de plano de testes
dirigido e coerente com os requisitos desenvolvidos.
3) Validação humana por usuários com deficiência: eles dever navegar pelo site com
programas leitores de tela, de forma aleatória e não dirigida, simulando a situação de
uso real.
Método de avaliação de acessibilidade proposto e-MAG
3.0
e-MAG 3.0 - Processo de Avaliação de Acessibilidade
1) Validar os códigos do conteúdo HTML e das folhas de estilo (CSS);
2) Verificar o fluxo de leitura da página: utilizar um navegador textual, como o Lynx, ou um
leitor de tela (NVDA ou ORCA).
3) Verificar o fluxo de leitura da página sem estilos, sem script e sem as imagens;
4) Verificar as funcionalidades da barra de acessibilidade, aumentando e diminuindo a
letra, modificando o contraste, etc.;
5) Realizar a validação automática de acessibilidade utilizando o ASES e outros
avaliadores automáticos;
6) Realizar a validação manual, utilizando os checklists de validação humana.
Avaliação de Acessibilidade - e-MAG 2.0 X e-MAG 3.0
• A inspeção é mais detalhada no e-MAG 3.0
• Recomenda o ASES como validador automático.
• A avaliação com usuários não consta como um dos passos do
Processo de Avaliação de Acessibilidade do e-MAG 3.0, mas o
documento menciona que ela é uma etapa essencial da validação
de uma página.
Avaliador e Simulador de Acessibilidade de Sítios
(ASES)
Objetivo: fornecer instrumentos que viabilizem a adoção da acessibilidade pelos
órgãos do governo. É uma ferramenta que permite avaliar, simular e corrigir
a acessibilidade de páginas, sítios e portais, sendo de grande valia para os
desenvolvedores e publicadores de conteúdo.
Funcionalidades:
• Avaliador de acessibilidade (e-MAG e WCAG);
• Avaliador de CSS;
• Avaliador de HTML (4.01 e XHTML);
• Simuladores de leitor de tela (tempo) e Baixa visão (daltonismo, miopia,
catarata);
• Ferramenta para selecionar o DocType, conteúdo alternativo, associador de
rótulos, links redundantes, corretor de eventos e preenchimento de formulários.
TV e monitor Computador
SALA DE TESTES
SALA DE OBSERVAÇÃO
Câmera
Usuário testado
Avaliador
Equipamento de gravação
Equipamento de áudio
MEMÓRIA, Felipe. Design para a internet. Rio de Janeiro: Elsevier, 2005.
EYE TRACKING
O eye tracking é um processo que reconhece os movimentos dos olhos dos usuários e
mede, na tela de um computador, os pontos onde o olhar se fixa por mais tempo. Esta
técnica é útil para se perceber quais elementos de uma página exercem maior atração
visual, quais elementos o usuário passa mais tempo observando e quais podem passar
desapercebidos.
O eye tracking não é uma ferramenta específica para avaliação de usabilidade, mas
seus resultados ajudam a entender melhor como o usuário se comporta no site e assim
efetuar mudanças e ajustes que proporcionem um aumento na taxa de conversão.
http://www.mercedessanchez.com.br/pt-br/eye-tracking.asp
REFERÊNCIAS BIBLIOGRÁFICAS
BRASIL. e-MAG - Modelo de Acessibilidade de Governo Eletrônico. Disponível em: <http://goo.gl/
zSntM>.
FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o
cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de Ciências
Matemáticas e de Computação. Capítulo 2. Disponível em: <http://goo.gl/jF9a4>.
PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário: Concei-
tos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação, 2003. Ex-
ceto tópicos: 6.4.4, 6.4.5, 6.5.1 e 6.5.2. Disponível em: <http://goo.gl/W9gYc>.
REBELO, Irla. User experience and HCI expert. Disponível em: <http://goo.gl/cyPuJ>
TANAKA, Eduardo Hideki. Método Baseado em Heurísticas para Avaliação de Acessibilidade em Siste-
mas de Informação. 2010. 190f. Tese (Doutorado). Instituto de Computação da UNICAMP. Disponível em:
<http://goo.gl/LzYKj>
W3C. Evaluating Web Sites for Accessibility. Disponível em: <http://goo.gl/Fbtzm>
W3C. Web Content Accessibility Guidelines (WCAG). Disponível em: <http://goo.gl/nDnhT>
WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In: NEDEL,
Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v. 1, p. 85-137.
Fortaleza: SBC, 2002. v. 1, p. 336- 347. Tópicos recomendados: 3.1; 3.2 e seus subtópicos; 3.4 e seus
subtópicos (exceto 3.4.3.2, 3.4.3.3); 3.5 e seus subtópicos; 3.6 e seus subtópicos; 3.7. Disponível em:
<http://goo.gl/ZtPpG>.