Advertisement

More Related Content

Advertisement

More from Claudio Diniz - Designer Gráfico(20)

Advertisement

Avaliação de Interface

  1. Avaliação de Interfaces ©2012 Cláudio Diniz Alves e Janicy Rocha
  2. Importância da avaliação: validar a interface de acordo com os requisitos do usuário, per- mitindo verificar se ele encontrará dificul- dades em seu uso e identificar barreiras que possam comprometer a interação. FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de Ciências Matemáticas e de Computação.
  3. Objetivos da Avaliação: • Identificar necessidades dos usuários ou verificar o entendimento dos projetistas sobre elas • Identificar problemas de interação ou de interface • Investigar como uma interface afeta a forma de trabalhar dos usuários • Comparar alternativas de projeto de interface • Alcançar objetivos quantificáveis em métricas de usabilidade • Verificar conformidade com um padrão ou conjunto de heurísticas
  4. Os métodos de avaliação de interface diferem entre si em vários aspectos. É preciso entender as diferentes características de cada método, para se definir qual deles é o mais apropriado para se avaliar a interface de um software em um determinado contexto. PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário: Conceitos e Métodos. In: Anais do XXIII Congresso Na- cional da Sociedade Brasileira de Computação, 2003.
  5. Tipos de avaliação Avaliação analítica ou de inspeção: realizada por especialistas com conhecimentos sobre características de qualidade de interfaces, não envolvem a participação de usuários. Seu objetivo é buscar problemas em uma interface existente, analisá-los e solucioná-los ou oferecer recomendações para tal. Destaca-se a avaliação heurística, através da qual a avaliação da interface acontece com base em heurísticas testadas e reconhecidas.
  6. Tipos de avaliação Avaliação empírica: realizada com a participação de usuários, através de atividades que geram dados para análise do avaliador. As técnicas de avaliação empírica mais usadas são a coleta de opinião, a observação de usuários e o registro de uso. Conforme as particularidades de cada situação, avaliações empíricas e analíticas podem ser adaptadas ou combinadas.
  7. Principais diferenças entre os métodos de avaliação • Etapa do ciclo de design em que podem ou devem ser aplicados • A técnica de coleta de dados utilizada • Os tipos de dados coletados • Os tipos de análise de dados PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário: Conceitos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação, 2003.
  8. Etapa do ciclo de design em que podem ou devem ser aplicados • Avaliação Formativa: realizada durante o desenvolvimento do produto. Objetivo: Identificar e corrigir problemas antes de liberar o produto para o uso. • Avaliação Somativa: realizada após o término do produto. Objetivo: melhorar a qualidade do sistema ou verificar sua conformidade com um determinado padrão.
  9. Técnicas de coleta de dados • Coleta da opinião de usuários Objetivo: obter uma apreciação dos usuários em relação ao sistema. Formas de coleta: questionários, entrevistas, grupos focais. • Observação de usuários Objetivo: ter uma visão dos problemas e dos aspectos positivos vivenciados pelos usuários. Formas de coleta: anotações, gravação de vídeo, áudio e/ou interação. Local da coleta: Contexto de uso (casa, escola, trabalho, etc) ou ambiente controlado (laboratórios de testes).
  10. Técnicas de coleta de dados • Registro de uso: registrar em um arquivo as ações executadas pelo usuário durante o uso do sistema. Objetivo: coletar informações sobre como os usuários usam o sistema, sem a necessidade de estar presente. Formas de coleta: gravação em vídeo, registro de logs. • Coleta da opinião de especialistas: usada em situações em que usuários não estão disponíveis ou o seu envolvimento implica um custo elevado. Objetivo: prever possíveis dificuldades que os usuários podem ter ao utilizar o sistema. Formas de coleta: checklists e guidelines, nos quais os avaliadores se baseiam para analisar a interface.
  11. Tipos de dados coletados • Dados quantitativos: utilizados para avaliar eficiência e produtividade de um sistema, para comparar alternativas de design ou determinar se o sistema atingiu algum objetivo de qualidade de uso pré-definido. • Dados qualitativos: permitem identificar quais são as características de interação ou interface relacionadas com os problemas observados.
  12. Tipos de análise de dados • Análise preditiva: realizada em dados coletados por especialistas buscando prever que tipo de problemas os usuários enfrentarão. • Análise interpretativa: realizada em dados coletados durante a interação em ambiente natural. Depende da interpretação dos avaliadores, que procuram explicar os fenômenos ocorridos durante a interação. • Análise experimental: realizada em dados coletados durante a interação em ambiente controlado. Também depende da interpretação dos avaliadores, mas as variáveis manipuladas são conhecidas.
  13. Avaliação empírica e/ou por inspeção: etapas preparatórias • Determinação do objetivo da avaliação: definir o que será avaliado e quais os critérios relevantes ou prioritários de avaliação. • Seleção de tarefas (ou páginas a serem avaliadas): devem ser realistas e significativas para fornecer os indicadores pretendidos. • Seleção de participantes: usuários representantes do público alvo do sistema e/ou especialistas nos quesitos a serem avaliados. Considerar quantidade e experiência dos participantes em função do tipo de avaliação pretendida e dos prazos e recursos disponíveis. • Geração do material de teste: questionários, scripts, roteiros de entrevista e observação, descrição de tarefas, checklist, formulários, termo de consentimento, etc. • Definição de questões éticas: tempo de duração dos testes, anonimato, voluntariedade, assinatura do consentimento, etc. • Execução do teste piloto: avaliação da qualidade do material gerado.
  14. Avaliação empírica e/ou por inspeção: guia para etapas preparatórias Framework DECIDE 1) (DETERMINE) - Determinar os objetivos gerais da avaliação. 2) (EXPLORE) - Explorar perguntas específicas a serem respondidas. 3) (CHOOSE) - Escolher o paradigma e as técnicas de avaliação. 4) (IDENTIFY) - Identificar questões práticas a serem tratadas. 5) (DECIDE) - Decidir como lidar com questões éticas. 6) (EVALUATE) - Avaliar, interpretar e apresentar os dados. PREECE, Jennifer; ROGERS, Yvonne; SHARP, Helen. Design de interação: além da interação homem- computador. Porto Alegre: Bookman, 2005. xvi, 548p.
  15. Avaliação de usabilidade
  16. Existe uma série de métodos de avaliação que podem ser utilizados em diferentes etapas do desenvolvimento de interfaces Web. Eles podem ser empíricos ou por inspeção e devem ser escolhidos conforme a situação. Não existe um único método capaz de identificar todos os problemas de usabilidade em uma interface, embora métodos que utilizem a interação do usuário sejam mais completos e, algumas vezes, considerados de referência. WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In: NEDEL, Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v. 1, p. 85-137. ). Fortaleza: SBC, 2002. v. 1, p. 336- 347.
  17. Métodos e técnicas de inspeção para avaliação de usabilidade • Avaliação Heurística (NIELSEN; 1993): inspeciona a interface com base em uma lista de heurísticas de usabilidade, considerando a severidade dos problemas. É uma das formas de avaliação mais utilizadas, pois apresenta bons resultados práticos, é pouco dispendiosa e fácil de conduzir. • Revisão de Guidelines (ROCHA e BARANAUSKAS; 2000): a interface é inspecionada de acordo com uma lista de guidelines de usabilidade. É um método pouco utilizado, pois são muitas guidelines, tornando a avaliação muito extensa.
  18. Métodos e técnicas de inspeção para avaliação de usabilidade • Percurso Cognitivo (ROCHA e BARANAUSKAS; 2000): o avaliador deve simular o caminho que o usuário executaria para realizar as tarefas. O foco principal do método é avaliar as interfaces quanto à facilidade de aprendizagem. Restrição: o método foca em apenas um dos atributos de usabilidade. • Inspeção de Consistência (ROCHA e BARANAUSKAS; 2000): a inspeção é feita em uma família de interfaces, verificando-se a consistência dos elementos que constituem a interface, tais como: terminologia, cores, layout, formatos de entrada e saída. Também é avaliado o suporte online de treinamento e ajuda. Este método é considerado demorado de ser aplicado.
  19. Métodos e técnicas de inspeção para avaliação de usabilidade • Inspeção por Checklist (WINCKLER e PIMENTA; 2002): baseada em listas de verificação de aplicações recomendáveis ao projeto. Garantem resultados estáveis com redução da subjetividade e não necessitam ser executadas por especialistas. Pode ser adaptada a diversas situações de avaliação. • Inspeção Percurso Pluralista (DIAS; 2007): são feitas reunião com usuários e colaboradores para discutir toda a interface. A equipe inspeciona a interface através de simulações de uso. Cada um dos elementos da interação do usuário com o sistema é avaliado.
  20. Técnicas e métodos empíricos para avaliação de usabilidade • Ensaios de Interação (DIAS; 2007): usuários representativos do público-alvo do sistema realizam tarefas típicas de suas atividades. A seleção de usuários e tarefas é feitas com base no contexto de uso do sistema. • Protocolo verbal ou Thinking-aloud (DIAS; 2007): é pedido aos usuários que verbalizem seus pensamentos, opiniões e sentimentos enquanto interagem com o sistema.
  21. Técnicas e métodos empíricos para avaliação de usabilidade • Observação Direta (ROCHA e BARANAUSKAS; 2000): é considerado um método de observação invasivo, pois o avaliador fica ao lado do usuário monitorando sua interação com o sistema. As anotações são feitas em tempo real dificultando o registro completo das atividades do usuário. • Observação Indireta (ROCHA e BARANAUSKAS; 2000): realizado em laboratórios de usabilidade, o usuário é monitorado por uma câmera de vídeo enquanto interage com o sistema, o que torna o procedimento menos invasivo. Todas as atividades podem ser gravadas e analisadas posteriormente.
  22. Técnicas e métodos empíricos para avaliação de usabilidade • Entrevistas e questionários (WINCKLER e PIMENTA; 2002): permitem que os avaliadores conheçam a opinião dos usuários sobre um sistema. Facilitam uma visão compreensiva dos problemas de usabilidade. • Grupo focal (DIAS; 2007): reunião de usuários para discutir a interface. O grupo deve ter um moderador para conduzir o encontro, manter o foco da discussão, garantir a contribuição de todos, preparar uma lista de assuntos a serem discutidos e do tipo de informações a ser coletadas e, por fim, fazer uma análise final.
  23. Técnicas e métodos empíricos para avaliação de usabilidade • Co-descoberta (DIAS; 2007): dois participantes executam juntos as tarefas designadas e verbalizam seus pensamentos, dificuldades e opiniões. Há uma ajuda mútua na resolução de problemas com a interface do sistema. • Medida de desempenho (DIAS; 2007): aferição do tempo gasto pelo usuário para completar uma ou mais tarefas específicas (eficiência) e se ele conseguiu realizá-las de forma correta e completa (eficácia). Podem ser medidos: número de tarefas realizadas em um determinado tempo; número de erros; número de comandos usados, etc.
  24. Avaliação da Arquitetura da Informação
  25. • Um ponto carente são metodologias para a fase de Avaliação. E possível observar em algumas propostas a sugestão de técnicas oriundas da Usabilidade para mensurar os resultados dos projetos. Mas os autores dedicam pouca atenção a essa fase e não apontam adaptações dessas técnicas para atributos da Arquitetura da Informação. • A Arquitetura de Informação ainda precisa avançar nas técnicas de mensuração dos resultados de seu trabalho. Embora seja difícil encontrar tais indicadores, eles são importantes para melhorar a eficácia dos trabalhos e justificar sua importância. REIS, Guilhermo Almeida dos. Centrando a Arquitetura de Informação no usuário. São Paulo, 2007. Dissertação (Mestrado) - Escola de Comunicação e Artes, Universidade de São Paulo.
  26. • A avaliação da arquitetura de informação é feita, principalmente, por análise da estrutura da informação utilizando métodos de verificação heurística. Algumas heurísticas aplicadas à arquitetura de informação para websites podem ajudar na análise. • A ideia é verificar a qualidade e eficiência dos seguintes elementos: página principal; sistemas de organização, rotulação, navegação e busca. Também podem ser utilizados testes de usabilidade e card sorting. REBELO, Irla. User experience and HCI expert. Disponível em: <http://irlabr.wordpress.com/aposti- la-de-ihc/parte-1-ihc-na-pratica/8-arquitetura-de-informacao/>
  27. Heurísticas de Louis Rosenfeld para a Arquitetura da Informação ROSENFELD, Louis. Information Architecture Heuristics. Disponível em <http://louisrosenfeld.com/ home/bloug_archive/000286.html>
  28. PÁGINA PRINCIPAL • Suporta múltiplas maneiras de alcançar o conteúdo? • Destaca as melhores maneiras para alcançar o conteúdo? • Orienta o usuário sobre o assunto do site e sobre qual é o conteúdo disponível? • Atende aos usuários que já visitaram o site e sabem o que estão procurando?
  29. INTERFACE DE BUSCA • É fácil encontrá-la e está posicionada consistentemente? • É fácil de usá-la? • Permite que o usuário refaça ou refine sua busca? • Os construtores de query (corretor ortográfico, pesquisa de radicais, busca por conceito e em tesauros) são usados eficazmente?
  30. RESULTADOS DA BUSCA • Os resultados relevantes estão no topo da lista? • Está claro quais foram os parâmetros usados na busca? • Está claro o que foi buscado? • Está claro quantos resultados foram encontrados? • As informações apresentadas para cada usuário são úteis? • Os resultados estão agrupados de uma forma útil?
  31. NAVEGAÇÃO GLOBAL • É possível se mover através do site com poucos cliques? • A amplitude e a profundidade da estrutura estão balanceadas? • Os rótulos são claros e significativos?
  32. NAVEGAÇÃO CONTEXTUAL • Está claro onde estou tanto em termos de qual site estou como também em que lugar dentro do site estou? • Existem poucas opções que me conduzem onde eu gostaria de ir em seguida? • As opções têm rótulos claros?
  33. Avaliação de Acessibilidade
  34. Objetivo: identificar barreiras de acessibilidade em websites e reportar estes problemas para correção. Como a avaliação de usabilidade, pode ser feita através de vários métodos e técnicas, tanto por inspeção quanto por testes empíricos. Embora a avaliação por inspeção permita encontrar diversos problemas, alguns são encontrados apenas em testes empíricos. Atualmente, a maioria dos métodos de avaliação de acessibilidade é adaptada dos métodos de avaliação de usabilidade. FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de Ciências Matemáticas e de Computação.
  35. Métodos de avaliação de acessibilidade • Conformidade com diretrizes (guidelines): validação automática, por meio de validadores automáticos e/ou inspeção manual. Na inspeção manual o avaliador percorre o código HTML, identificando problemas Na validação automática o avaliador utiliza uma ou mais ferramentas automatizadas.
  36. Lista completa de validadores de acessibilidade:
  37. Demonstração de uso do validado automático daSilva http://www.dasilva.org.br/ http://www.bibliotecadigital.ufmg.br/dspace
  38. Métodos de avaliação de acessibilidade Testes com usuários: ensaios de interação, através dos quais pessoas com deficiência (com o perfil desejado) realizam tarefas no website. É importante considerar as tecnologias assistivas necessárias e particularidades do perfil desses usuários: • Deficiência visual: não usar documentos impressos, ter cuidado com termos ao passar as instruções. • Deficiência auditiva: considerar a presença de um interprete em LIBRAS. • Deficiência cognitiva: deixar que explorem a interface à sua maneira, sem listas de tarefas. • Deficiência física: acessibilidade física do ambiente de teste.
  39. Métodos de avaliação de acessibilidade • Inspeção por Heurísticas (PADDISON e ENGLEFIELD; 2003, TANAKA, 2010): avaliador verifica a conformidade dos websites a heurísticas previamente definidas. • Percurso de barreiras (BRAJNIK; 2006): método de inspeção onde o avaliador identifica cenários compostos por tipos de usuários, configurações, objetivos e possíveis tarefas. • Percurso cognitivo estendido (KATO e HORI; 2006): realiza a distinção entre percepção e entendimento. Considera que apenas perceber uma informação, visível ou audível, não garante que a mesma seja entendida cognitivamente.
  40. Método de avaliação de acessibilidade proposto pelo W3C O documento Evaluating Web Sites for Accessibility (http://www. w3.org/WAI/EO/Drafts/impl/eval/) apresenta dois métodos para a avaliação de acessibilidade em websites: • Avaliação preliminar de acessibilidade: verifica rapidamente os problemas de acessibilidade em um website, mas não identifica todos eles. • Avaliação de conformidade com as diretrizes: avaliação abrangente de conformidade do website com as diretrizes de acessibilidade. Não inclui a participação de usuários com deficiências, mas ressalta que eles aumentam a eficácia da avaliação, pois incorporam suas experiências de acesso e uso diferenciado.
  41. Avaliação preliminar de acessibilidade: 1) Seleção de amostra representativa de páginas: páginas mais acessadas do website e com diferentes layouts e funcionalidades: página principal e com tabelas, formulários, conteúdos gráficos, etc. 2) Exame das páginas com navegadores gráficos: usar diferentes navegadores gráficos, mudando resolução de tela, tamanho de fonte, cor de exibição, navegação pelo teclado, imagens e áudio desabilitados, etc. 3) Exame das páginas com navegadores especiais: usar navegadores textuais e sintetizadores de voz para verificar se a informação apresentada é tão significativa e compreensível quanto à apresentada por navegadores gráficos. 4) Uso de ferramentas de avaliação automática de acessibilidade: analisar as páginas com, no mínimo dois validadores automáticos, atentando para suas limitações. 5) Sumarização de resultados: resumir os problemas e os aspectos positivos encontrados, identificar o método usado, recomendar solução para os problemas e outra forma de avaliação.
  42. Navegador textual - Lynx
  43. Avaliação de conformidade com as diretrizes: 1) Determinação do escopo da avaliação: determinar o alcance da avaliação, a diretriz e o nível de prioridade usados; selecionar amostra representativa de páginas para avaliação manual; identificar e divulgar o site inteiro para análise automática. Se a avaliação de todo o site for inviável, selecionar páginas representativas. 2) Uso de ferramentas de avaliação de acessibilidade Web: usar uma ferramenta de validação de sintaxe para avaliar o código HTML e CSS e, no mínimo, dois validadores automáticos de acessibilidade em todo o site, ou nas páginas representativas. 3) Avaliação manual da amostra representativa de páginas: usar a lista de pontos de verificação da diretriz adotada, verificando pontos não identificados pelos validadores automáticos; usar navegadores gráficos e especiais conforme recomendado para a avaliação preliminar de acessibilidade; ler os textos das páginas, avaliando clareza, simplicidade e coerência com os objetivos do site. 4) Sumarização e apresentação de resultados: resumir e apresentar problemas e pontos positivos identificados e o método usado; eliminar barreiras identificadas; expandir pontos positivos e monitorar a acessibilidade conquistada.
  44. Método de avaliação de acessibilidade proposto e-MAG 2.0 1) Uso de validadores automáticos de acessibilidade: não especifica a quantidade de ferramentas que deve ser usada. A menção a validadores automáticos sugere que seja mais de um. 2) Validação humana por profissionais técnicos: profissionais que desenvolveram a acessibilização devem navegar pelo site com leitores de tela, através de plano de testes dirigido e coerente com os requisitos desenvolvidos. 3) Validação humana por usuários com deficiência: eles dever navegar pelo site com programas leitores de tela, de forma aleatória e não dirigida, simulando a situação de uso real.
  45. Método de avaliação de acessibilidade proposto e-MAG 3.0 e-MAG 3.0 - Processo de Avaliação de Acessibilidade 1) Validar os códigos do conteúdo HTML e das folhas de estilo (CSS); 2) Verificar o fluxo de leitura da página: utilizar um navegador textual, como o Lynx, ou um leitor de tela (NVDA ou ORCA). 3) Verificar o fluxo de leitura da página sem estilos, sem script e sem as imagens; 4) Verificar as funcionalidades da barra de acessibilidade, aumentando e diminuindo a letra, modificando o contraste, etc.; 5) Realizar a validação automática de acessibilidade utilizando o ASES e outros avaliadores automáticos; 6) Realizar a validação manual, utilizando os checklists de validação humana.
  46. Avaliação de Acessibilidade - e-MAG 2.0 X e-MAG 3.0 • A inspeção é mais detalhada no e-MAG 3.0 • Recomenda o ASES como validador automático. • A avaliação com usuários não consta como um dos passos do Processo de Avaliação de Acessibilidade do e-MAG 3.0, mas o documento menciona que ela é uma etapa essencial da validação de uma página.
  47. Avaliador e Simulador de Acessibilidade de Sítios (ASES) Objetivo: fornecer instrumentos que viabilizem a adoção da acessibilidade pelos órgãos do governo. É uma ferramenta que permite avaliar, simular e corrigir a acessibilidade de páginas, sítios e portais, sendo de grande valia para os desenvolvedores e publicadores de conteúdo. Funcionalidades: • Avaliador de acessibilidade (e-MAG e WCAG); • Avaliador de CSS; • Avaliador de HTML (4.01 e XHTML); • Simuladores de leitor de tela (tempo) e Baixa visão (daltonismo, miopia, catarata); • Ferramenta para selecionar o DocType, conteúdo alternativo, associador de rótulos, links redundantes, corretor de eventos e preenchimento de formulários.
  48. Avaliador e Simulador de Acessibilidade de Sítios (ASES)
  49. Laboratório de Testes de Usabilidade
  50. MEMÓRIA, Felipe. Design para a internet. Rio de Janeiro: Elsevier, 2005.
  51. TV e monitor Computador SALA DE TESTES SALA DE OBSERVAÇÃO Câmera Usuário testado Avaliador Equipamento de gravação Equipamento de áudio MEMÓRIA, Felipe. Design para a internet. Rio de Janeiro: Elsevier, 2005.
  52. Laboratório ICEx/DCC/UFMG - Sala de Testes
  53. Laboratório ICEx/DCC/UFMG - Sala de Observação
  54. VÍDEOS LABORATÓRIO DE USABILIDADE
  55. EYE TRACKING O eye tracking é um processo que reconhece os movimentos dos olhos dos usuários e mede, na tela de um computador, os pontos onde o olhar se fixa por mais tempo. Esta técnica é útil para se perceber quais elementos de uma página exercem maior atração visual, quais elementos o usuário passa mais tempo observando e quais podem passar desapercebidos. O eye tracking não é uma ferramenta específica para avaliação de usabilidade, mas seus resultados ajudam a entender melhor como o usuário se comporta no site e assim efetuar mudanças e ajustes que proporcionem um aumento na taxa de conversão. http://www.mercedessanchez.com.br/pt-br/eye-tracking.asp
  56. REFERÊNCIAS BIBLIOGRÁFICAS BRASIL. e-MAG - Modelo de Acessibilidade de Governo Eletrônico. Disponível em: <http://goo.gl/ zSntM>. FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre o cenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de Ciências Matemáticas e de Computação. Capítulo 2. Disponível em: <http://goo.gl/jF9a4>. PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário: Concei- tos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação, 2003. Ex- ceto tópicos: 6.4.4, 6.4.5, 6.5.1 e 6.5.2. Disponível em: <http://goo.gl/W9gYc>. REBELO, Irla. User experience and HCI expert. Disponível em: <http://goo.gl/cyPuJ> TANAKA, Eduardo Hideki. Método Baseado em Heurísticas para Avaliação de Acessibilidade em Siste- mas de Informação. 2010. 190f. Tese (Doutorado). Instituto de Computação da UNICAMP. Disponível em: <http://goo.gl/LzYKj> W3C. Evaluating Web Sites for Accessibility. Disponível em: <http://goo.gl/Fbtzm> W3C. Web Content Accessibility Guidelines (WCAG). Disponível em: <http://goo.gl/nDnhT> WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In: NEDEL, Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v. 1, p. 85-137. Fortaleza: SBC, 2002. v. 1, p. 336- 347. Tópicos recomendados: 3.1; 3.2 e seus subtópicos; 3.4 e seus subtópicos (exceto 3.4.3.2, 3.4.3.3); 3.5 e seus subtópicos; 3.6 e seus subtópicos; 3.7. Disponível em: <http://goo.gl/ZtPpG>.
Advertisement