Avaliação de Interface

7,436 views
7,110 views

Published on

Published in: Education
0 Comments
3 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
7,436
On SlideShare
0
From Embeds
0
Number of Embeds
4
Actions
Shares
0
Downloads
221
Comments
0
Likes
3
Embeds 0
No embeds

No notes for slide

Avaliação de Interface

  1. 1. Avaliação de Interfaces©2012 Cláudio Diniz Alves e Janicy Rocha
  2. 2. Importância da avaliação: validar a interfacede acordo com os requisitos do usuário, per-mitindo verificar se ele encontrará dificul-dades em seu uso e identificar barreiras quepossam comprometer a interação.FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre ocenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto deCiências Matemáticas e de Computação.
  3. 3. Objetivos da Avaliação:• Identificar necessidades dos usuários ou verificar o entendimento dos projetistas sobre elas• Identificar problemas de interação ou de interface• Investigar como uma interface afeta a forma de trabalhar dos usuários• Comparar alternativas de projeto de interface• Alcançar objetivos quantificáveis em métricas de usabilidade• Verificar conformidade com um padrão ou conjunto de heurísticas
  4. 4. Os métodos de avaliação deinterface diferem entre si em váriosaspectos. É preciso entender asdiferentes características de cadamétodo, para se definir qual delesé o mais apropriado para se avaliara interface de um software em umdeterminado contexto.PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação deInterfaces de Usuário: Conceitos e Métodos. In: Anais do XXIII Congresso Na-cional da Sociedade Brasileira de Computação, 2003.
  5. 5. Tipos de avaliaçãoAvaliação analítica ou de inspeção: realizada porespecialistas com conhecimentos sobre característicasde qualidade de interfaces, não envolvem a participaçãode usuários. Seu objetivo é buscar problemas em umainterface existente, analisá-los e solucioná-los ouoferecer recomendações para tal.Destaca-se a avaliação heurística, através da qual aavaliação da interface acontece com base em heurísticastestadas e reconhecidas.
  6. 6. Tipos de avaliaçãoAvaliação empírica: realizada com a participação deusuários, através de atividades que geram dados paraanálise do avaliador. As técnicas de avaliação empíricamais usadas são a coleta de opinião, a observação deusuários e o registro de uso.Conforme as particularidades de cada situação,avaliações empíricas e analíticas podem ser adaptadasou combinadas.
  7. 7. Principais diferenças entre os métodos de avaliação• Etapa do ciclo de design em que podem ou devem ser aplicados• A técnica de coleta de dados utilizada• Os tipos de dados coletados• Os tipos de análise de dadosPRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário:Conceitos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação,2003.
  8. 8. Etapa do ciclo de design em que podem ou devem seraplicados • Avaliação Formativa: realizada durante o desenvolvimento do produto. Objetivo: Identificar e corrigir problemas antes de liberar o produto para o uso. • Avaliação Somativa: realizada após o término do produto. Objetivo: melhorar a qualidade do sistema ou verificar sua conformidade com um determinado padrão.
  9. 9. Técnicas de coleta de dados • Coleta da opinião de usuários Objetivo: obter uma apreciação dos usuários em relação ao sistema. Formas de coleta: questionários, entrevistas, grupos focais. • Observação de usuários Objetivo: ter uma visão dos problemas e dos aspectos positivos vivenciados pelos usuários. Formas de coleta: anotações, gravação de vídeo, áudio e/ou interação. Local da coleta: Contexto de uso (casa, escola, trabalho, etc) ou ambiente controlado (laboratórios de testes).
  10. 10. Técnicas de coleta de dados • Registro de uso: registrar em um arquivo as ações executadas pelo usuário durante o uso do sistema. Objetivo: coletar informações sobre como os usuários usam o sistema, sem a necessidade de estar presente. Formas de coleta: gravação em vídeo, registro de logs. • Coleta da opinião de especialistas: usada em situações em que usuários não estão disponíveis ou o seu envolvimento implica um custo elevado. Objetivo: prever possíveis dificuldades que os usuários podem ter ao utilizar o sistema. Formas de coleta: checklists e guidelines, nos quais os avaliadores se baseiam para analisar a interface.
  11. 11. Tipos de dados coletados • Dados quantitativos: utilizados para avaliar eficiência e produtividade de um sistema, para comparar alternativas de design ou determinar se o sistema atingiu algum objetivo de qualidade de uso pré-definido. • Dados qualitativos: permitem identificar quais são as características de interação ou interface relacionadas com os problemas observados.
  12. 12. Tipos de análise de dados • Análise preditiva: realizada em dados coletados por especialistas buscando prever que tipo de problemas os usuários enfrentarão. • Análise interpretativa: realizada em dados coletados durante a interação em ambiente natural. Depende da interpretação dos avaliadores, que procuram explicar os fenômenos ocorridos durante a interação. • Análise experimental: realizada em dados coletados durante a interação em ambiente controlado. Também depende da interpretação dos avaliadores, mas as variáveis manipuladas são conhecidas.
  13. 13. Avaliação empírica e/ou por inspeção: etapas preparatórias • Determinação do objetivo da avaliação: definir o que será avaliado e quais os critérios relevantes ou prioritários de avaliação. • Seleção de tarefas (ou páginas a serem avaliadas): devem ser realistas e significativas para fornecer os indicadores pretendidos. • Seleção de participantes: usuários representantes do público alvo do sistema e/ou especialistas nos quesitos a serem avaliados. Considerar quantidade e experiência dos participantes em função do tipo de avaliação pretendida e dos prazos e recursos disponíveis. • Geração do material de teste: questionários, scripts, roteiros de entrevista e observação, descrição de tarefas, checklist, formulários, termo de consentimento, etc. • Definição de questões éticas: tempo de duração dos testes, anonimato, voluntariedade, assinatura do consentimento, etc. • Execução do teste piloto: avaliação da qualidade do material gerado.
  14. 14. Avaliação empírica e/ou por inspeção: guia para etapas preparatórias Framework DECIDE 1) (DETERMINE) - Determinar os objetivos gerais da avaliação. 2) (EXPLORE) - Explorar perguntas específicas a serem respondidas. 3) (CHOOSE) - Escolher o paradigma e as técnicas de avaliação. 4) (IDENTIFY) - Identificar questões práticas a serem tratadas. 5) (DECIDE) - Decidir como lidar com questões éticas. 6) (EVALUATE) - Avaliar, interpretar e apresentar os dados.PREECE, Jennifer; ROGERS, Yvonne; SHARP, Helen. Design de interação: além da interação homem-computador. Porto Alegre: Bookman, 2005. xvi, 548p.
  15. 15. Avaliação deusabilidade
  16. 16. Existe uma série de métodos de avaliação que podem ser utilizados em diferentes etapas do desenvolvimento de interfaces Web. Eles podem ser empíricos ou por inspeção e devem ser escolhidos conforme a situação. Não existe um único método capaz de identificar todos os problemas de usabilidade em uma interface, embora métodos que utilizem a interação do usuário sejam mais completos e, algumas vezes, considerados de referência.WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In:NEDEL, Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v.1, p. 85-137. ). Fortaleza: SBC, 2002. v. 1, p. 336- 347.
  17. 17. Métodos e técnicas de inspeção para avaliaçãode usabilidade • Avaliação Heurística (NIELSEN; 1993): inspeciona a interface com base em uma lista de heurísticas de usabilidade, considerando a severidade dos problemas. É uma das formas de avaliação mais utilizadas, pois apresenta bons resultados práticos, é pouco dispendiosa e fácil de conduzir. • Revisão de Guidelines (ROCHA e BARANAUSKAS; 2000): a interface é inspecionada de acordo com uma lista de guidelines de usabilidade. É um método pouco utilizado, pois são muitas guidelines, tornando a avaliação muito extensa.
  18. 18. Métodos e técnicas de inspeção para avaliação deusabilidade • Percurso Cognitivo (ROCHA e BARANAUSKAS; 2000): o avaliador deve simular o caminho que o usuário executaria para realizar as tarefas. O foco principal do método é avaliar as interfaces quanto à facilidade de aprendizagem. Restrição: o método foca em apenas um dos atributos de usabilidade. • Inspeção de Consistência (ROCHA e BARANAUSKAS; 2000): a inspeção é feita em uma família de interfaces, verificando-se a consistência dos elementos que constituem a interface, tais como: terminologia, cores, layout, formatos de entrada e saída. Também é avaliado o suporte online de treinamento e ajuda. Este método é considerado demorado de ser aplicado.
  19. 19. Métodos e técnicas de inspeção para avaliação deusabilidade • Inspeção por Checklist (WINCKLER e PIMENTA; 2002): baseada em listas de verificação de aplicações recomendáveis ao projeto. Garantem resultados estáveis com redução da subjetividade e não necessitam ser executadas por especialistas. Pode ser adaptada a diversas situações de avaliação. • Inspeção Percurso Pluralista (DIAS; 2007): são feitas reunião com usuários e colaboradores para discutir toda a interface. A equipe inspeciona a interface através de simulações de uso. Cada um dos elementos da interação do usuário com o sistema é avaliado.
  20. 20. Técnicas e métodos empíricos para avaliação deusabilidade • Ensaios de Interação (DIAS; 2007): usuários representativos do público-alvo do sistema realizam tarefas típicas de suas atividades. A seleção de usuários e tarefas é feitas com base no contexto de uso do sistema. • Protocolo verbal ou Thinking-aloud (DIAS; 2007): é pedido aos usuários que verbalizem seus pensamentos, opiniões e sentimentos enquanto interagem com o sistema.
  21. 21. Técnicas e métodos empíricos para avaliação deusabilidade • Observação Direta (ROCHA e BARANAUSKAS; 2000): é considerado um método de observação invasivo, pois o avaliador fica ao lado do usuário monitorando sua interação com o sistema. As anotações são feitas em tempo real dificultando o registro completo das atividades do usuário. • Observação Indireta (ROCHA e BARANAUSKAS; 2000): realizado em laboratórios de usabilidade, o usuário é monitorado por uma câmera de vídeo enquanto interage com o sistema, o que torna o procedimento menos invasivo. Todas as atividades podem ser gravadas e analisadas posteriormente.
  22. 22. Técnicas e métodos empíricos para avaliação deusabilidade • Entrevistas e questionários (WINCKLER e PIMENTA; 2002): permitem que os avaliadores conheçam a opinião dos usuários sobre um sistema. Facilitam uma visão compreensiva dos problemas de usabilidade. • Grupo focal (DIAS; 2007): reunião de usuários para discutir a interface. O grupo deve ter um moderador para conduzir o encontro, manter o foco da discussão, garantir a contribuição de todos, preparar uma lista de assuntos a serem discutidos e do tipo de informações a ser coletadas e, por fim, fazer uma análise final.
  23. 23. Técnicas e métodos empíricos para avaliação deusabilidade • Co-descoberta (DIAS; 2007): dois participantes executam juntos as tarefas designadas e verbalizam seus pensamentos, dificuldades e opiniões. Há uma ajuda mútua na resolução de problemas com a interface do sistema. • Medida de desempenho (DIAS; 2007): aferição do tempo gasto pelo usuário para completar uma ou mais tarefas específicas (eficiência) e se ele conseguiu realizá-las de forma correta e completa (eficácia). Podem ser medidos: número de tarefas realizadas em um determinado tempo; número de erros; número de comandos usados, etc.
  24. 24. Avaliação daArquitetura da Informação
  25. 25. • Um ponto carente são metodologias para a fase de Avaliação. E possível observar em algumas propostas a sugestão de técnicas oriundas da Usabilidade para mensurar os resultados dos projetos. Mas os autores dedicam pouca atenção a essa fase e não apontam adaptações dessas técnicas para atributos da Arquitetura da Informação. • A Arquitetura de Informação ainda precisa avançar nas técnicas de mensuração dos resultados de seu trabalho. Embora seja difícil encontrar tais indicadores, eles são importantes para melhorar a eficácia dos trabalhos e justificar sua importância.REIS, Guilhermo Almeida dos. Centrando a Arquitetura de Informação no usuário. São Paulo, 2007.Dissertação (Mestrado) - Escola de Comunicação e Artes, Universidade de São Paulo.
  26. 26. • A avaliação da arquitetura de informação é feita, principalmente, por análise da estrutura da informação utilizando métodos de verificação heurística. Algumas heurísticas aplicadas à arquitetura de informação para websites podem ajudar na análise. • A ideia é verificar a qualidade e eficiência dos seguintes elementos: página principal; sistemas de organização, rotulação, navegação e busca. Também podem ser utilizados testes de usabilidade e card sorting.REBELO, Irla. User experience and HCI expert. Disponível em: <http://irlabr.wordpress.com/aposti-la-de-ihc/parte-1-ihc-na-pratica/8-arquitetura-de-informacao/>
  27. 27. Heurísticas de Louis Rosenfeld para a Arquitetura daInformaçãoROSENFELD, Louis. Information Architecture Heuristics. Disponível em <http://louisrosenfeld.com/home/bloug_archive/000286.html>
  28. 28. PÁGINA PRINCIPAL • Suporta múltiplas maneiras de alcançar o conteúdo? • Destaca as melhores maneiras para alcançar o conteúdo? • Orienta o usuário sobre o assunto do site e sobre qual é o conteúdo disponível? • Atende aos usuários que já visitaram o site e sabem o que estão procurando?
  29. 29. INTERFACE DE BUSCA • É fácil encontrá-la e está posicionada consistentemente? • É fácil de usá-la? • Permite que o usuário refaça ou refine sua busca? • Os construtores de query (corretor ortográfico, pesquisa de radicais, busca por conceito e em tesauros) são usados eficazmente?
  30. 30. RESULTADOS DA BUSCA • Os resultados relevantes estão no topo da lista? • Está claro quais foram os parâmetros usados na busca? • Está claro o que foi buscado? • Está claro quantos resultados foram encontrados? • As informações apresentadas para cada usuário são úteis? • Os resultados estão agrupados de uma forma útil?
  31. 31. NAVEGAÇÃO GLOBAL • É possível se mover através do site com poucos cliques? • A amplitude e a profundidade da estrutura estão balanceadas? • Os rótulos são claros e significativos?
  32. 32. NAVEGAÇÃO CONTEXTUAL • Está claro onde estou tanto em termos de qual site estou como também em que lugar dentro do site estou? • Existem poucas opções que me conduzem onde eu gostaria de ir em seguida? • As opções têm rótulos claros?
  33. 33. Avaliação deAcessibilidade
  34. 34. Objetivo: identificar barreiras de acessibilidade em websites e reportar estes problemas para correção. Como a avaliação de usabilidade, pode ser feita através de vários métodos e técnicas, tanto por inspeção quanto por testes empíricos. Embora a avaliação por inspeção permita encontrar diversos problemas, alguns são encontrados apenas em testes empíricos. Atualmente, a maioria dos métodos de avaliação de acessibilidade é adaptada dos métodos de avaliação de usabilidade.FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre ocenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto deCiências Matemáticas e de Computação.
  35. 35. Métodos de avaliação de acessibilidade • Conformidade com diretrizes (guidelines): validação automática, por meio de validadores automáticos e/ou inspeção manual. Na inspeção manual o avaliador percorre o código HTML, identificando problemas Na validação automática o avaliador utiliza uma ou mais ferramentas automatizadas.
  36. 36. Lista completa devalidadores deacessibilidade:
  37. 37. Demonstração de uso do validado automático daSilva http://www.dasilva.org.br/http://www.bibliotecadigital.ufmg.br/dspace
  38. 38. Métodos de avaliação de acessibilidade Testes com usuários: ensaios de interação, através dos quais pessoas com deficiência (com o perfil desejado) realizam tarefas no website. É importante considerar as tecnologias assistivas necessárias e particularidades do perfil desses usuários: • Deficiência visual: não usar documentos impressos, ter cuidado com termos ao passar as instruções. • Deficiência auditiva: considerar a presença de um interprete em LIBRAS. • Deficiência cognitiva: deixar que explorem a interface à sua maneira, sem listas de tarefas. • Deficiência física: acessibilidade física do ambiente de teste.
  39. 39. Métodos de avaliação de acessibilidade • Inspeção por Heurísticas (PADDISON e ENGLEFIELD; 2003, TANAKA, 2010): avaliador verifica a conformidade dos websites a heurísticas previamente definidas. • Percurso de barreiras (BRAJNIK; 2006): método de inspeção onde o avaliador identifica cenários compostos por tipos de usuários, configurações, objetivos e possíveis tarefas. • Percurso cognitivo estendido (KATO e HORI; 2006): realiza a distinção entre percepção e entendimento. Considera que apenas perceber uma informação, visível ou audível, não garante que a mesma seja entendida cognitivamente.
  40. 40. Método de avaliação de acessibilidade proposto peloW3C O documento Evaluating Web Sites for Accessibility (http://www. w3.org/WAI/EO/Drafts/impl/eval/) apresenta dois métodos para a avaliação de acessibilidade em websites: • Avaliação preliminar de acessibilidade: verifica rapidamente os problemas de acessibilidade em um website, mas não identifica todos eles. • Avaliação de conformidade com as diretrizes: avaliação abrangente de conformidade do website com as diretrizes de acessibilidade. Não inclui a participação de usuários com deficiências, mas ressalta que eles aumentam a eficácia da avaliação, pois incorporam suas experiências de acesso e uso diferenciado.
  41. 41. Avaliação preliminar de acessibilidade:1) Seleção de amostra representativa de páginas: páginas mais acessadas do website e com diferentes layouts e funcionalidades: página principal e com tabelas, formulários, conteúdos gráficos, etc.2) Exame das páginas com navegadores gráficos: usar diferentes navegadores gráficos, mudando resolução de tela, tamanho de fonte, cor de exibição, navegação pelo teclado, imagens e áudio desabilitados, etc.3) Exame das páginas com navegadores especiais: usar navegadores textuais e sintetizadores de voz para verificar se a informação apresentada é tão significativa e compreensível quanto à apresentada por navegadores gráficos.4) Uso de ferramentas de avaliação automática de acessibilidade: analisar as páginas com, no mínimo dois validadores automáticos, atentando para suas limitações.5) Sumarização de resultados: resumir os problemas e os aspectos positivos encontrados, identificar o método usado, recomendar solução para os problemas e outra forma de avaliação.
  42. 42. Navegador textual - Lynx
  43. 43. Avaliação de conformidade com as diretrizes:1) Determinação do escopo da avaliação: determinar o alcance da avaliação, a diretriz e o nível de prioridade usados; selecionar amostra representativa de páginas para avaliação manual; identificar e divulgar o site inteiro para análise automática. Se a avaliação de todo o site for inviável, selecionar páginas representativas.2) Uso de ferramentas de avaliação de acessibilidade Web: usar uma ferramenta de validação de sintaxe para avaliar o código HTML e CSS e, no mínimo, dois validadores automáticos de acessibilidade em todo o site, ou nas páginas representativas.3) Avaliação manual da amostra representativa de páginas: usar a lista de pontos de verificação da diretriz adotada, verificando pontos não identificados pelos validadores automáticos; usar navegadores gráficos e especiais conforme recomendado para a avaliação preliminar de acessibilidade; ler os textos das páginas, avaliando clareza, simplicidade e coerência com os objetivos do site.4) Sumarização e apresentação de resultados: resumir e apresentar problemas e pontos positivos identificados e o método usado; eliminar barreiras identificadas; expandir pontos positivos e monitorar a acessibilidade conquistada.
  44. 44. Método de avaliação de acessibilidade proposto e-MAG2.01) Uso de validadores automáticos de acessibilidade: não especifica a quantidade de ferramentas que deve ser usada. A menção a validadores automáticos sugere que seja mais de um.2) Validação humana por profissionais técnicos: profissionais que desenvolveram a acessibilização devem navegar pelo site com leitores de tela, através de plano de testes dirigido e coerente com os requisitos desenvolvidos. 3) Validação humana por usuários com deficiência: eles dever navegar pelo site com programas leitores de tela, de forma aleatória e não dirigida, simulando a situação de uso real.
  45. 45. Método de avaliação de acessibilidade proposto e-MAG3.0e-MAG 3.0 - Processo de Avaliação de Acessibilidade1) Validar os códigos do conteúdo HTML e das folhas de estilo (CSS);2) Verificar o fluxo de leitura da página: utilizar um navegador textual, como o Lynx, ou um leitor de tela (NVDA ou ORCA).3) Verificar o fluxo de leitura da página sem estilos, sem script e sem as imagens;4) Verificar as funcionalidades da barra de acessibilidade, aumentando e diminuindo a letra, modificando o contraste, etc.;5) Realizar a validação automática de acessibilidade utilizando o ASES e outros avaliadores automáticos;6) Realizar a validação manual, utilizando os checklists de validação humana.
  46. 46. Avaliação de Acessibilidade - e-MAG 2.0 X e-MAG 3.0 • A inspeção é mais detalhada no e-MAG 3.0 • Recomenda o ASES como validador automático. • A avaliação com usuários não consta como um dos passos do Processo de Avaliação de Acessibilidade do e-MAG 3.0, mas o documento menciona que ela é uma etapa essencial da validação de uma página.
  47. 47. Avaliador e Simulador de Acessibilidade de Sítios(ASES) Objetivo: fornecer instrumentos que viabilizem a adoção da acessibilidade pelos órgãos do governo. É uma ferramenta que permite avaliar, simular e corrigir a acessibilidade de páginas, sítios e portais, sendo de grande valia para os desenvolvedores e publicadores de conteúdo. Funcionalidades: • Avaliador de acessibilidade (e-MAG e WCAG); • Avaliador de CSS; • Avaliador de HTML (4.01 e XHTML); • Simuladores de leitor de tela (tempo) e Baixa visão (daltonismo, miopia, catarata); • Ferramenta para selecionar o DocType, conteúdo alternativo, associador de rótulos, links redundantes, corretor de eventos e preenchimento de formulários.
  48. 48. Avaliador e Simulador de Acessibilidade de Sítios(ASES)
  49. 49. Laboratóriode Testes deUsabilidade
  50. 50. MEMÓRIA, Felipe. Design para a internet. Rio de Janeiro: Elsevier, 2005.
  51. 51. TV e monitor Computador SALA DE TESTESSALA DE OBSERVAÇÃO Câmera Usuário testado Avaliador Equipamento de gravação Equipamento de áudioMEMÓRIA, Felipe. Design para a internet. Rio de Janeiro: Elsevier, 2005.
  52. 52. Laboratório ICEx/DCC/UFMG - Sala de Testes
  53. 53. Laboratório ICEx/DCC/UFMG - Sala de Observação
  54. 54. VÍDEOS LABORATÓRIO DE USABILIDADE
  55. 55. EYE TRACKINGO eye tracking é um processo que reconhece os movimentos dos olhos dos usuários emede, na tela de um computador, os pontos onde o olhar se fixa por mais tempo. Estatécnica é útil para se perceber quais elementos de uma página exercem maior atraçãovisual, quais elementos o usuário passa mais tempo observando e quais podem passardesapercebidos.O eye tracking não é uma ferramenta específica para avaliação de usabilidade, masseus resultados ajudam a entender melhor como o usuário se comporta no site e assimefetuar mudanças e ajustes que proporcionem um aumento na taxa de conversão.http://www.mercedessanchez.com.br/pt-br/eye-tracking.asp
  56. 56. REFERÊNCIAS BIBLIOGRÁFICASBRASIL. e-MAG - Modelo de Acessibilidade de Governo Eletrônico. Disponível em: <http://goo.gl/zSntM>.FREIRE, André Pimenta. Acessibilidade no Desenvolvimento de Sistemas Web: um estudo sobre ocenário brasileiro. 2008. 154f. Dissertação (Mestrado) - Universidade de São Paulo, Instituto de CiênciasMatemáticas e de Computação. Capítulo 2. Disponível em: <http://goo.gl/jF9a4>.PRATES, Raquel Oliveira; BARBOSA, Simone Diniz Junqueira. Avaliação de Interfaces de Usuário: Concei-tos e Métodos. In: Anais do XXIII Congresso Nacional da Sociedade Brasileira de Computação, 2003. Ex-ceto tópicos: 6.4.4, 6.4.5, 6.5.1 e 6.5.2. Disponível em: <http://goo.gl/W9gYc>.REBELO, Irla. User experience and HCI expert. Disponível em: <http://goo.gl/cyPuJ>TANAKA, Eduardo Hideki. Método Baseado em Heurísticas para Avaliação de Acessibilidade em Siste-mas de Informação. 2010. 190f. Tese (Doutorado). Instituto de Computação da UNICAMP. Disponível em:<http://goo.gl/LzYKj>W3C. Evaluating Web Sites for Accessibility. Disponível em: <http://goo.gl/Fbtzm>W3C. Web Content Accessibility Guidelines (WCAG). Disponível em: <http://goo.gl/nDnhT>WINCKLER, Marco Antônio; PIMENTA, Marcelo Soares. Avaliação de usabilidade de sites Web. In: NEDEL,Luciana Porcher. (Org.). Escola de Informática da SBC Sul (ERI 2002). Porto Alegre, 2002, v. 1, p. 85-137.Fortaleza: SBC, 2002. v. 1, p. 336- 347. Tópicos recomendados: 3.1; 3.2 e seus subtópicos; 3.4 e seussubtópicos (exceto 3.4.3.2, 3.4.3.3); 3.5 e seus subtópicos; 3.6 e seus subtópicos; 3.7. Disponível em:<http://goo.gl/ZtPpG>.

×