Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

2013 - Ex. Victor Borquez.

540 views

Published on

Presentación Víctor Bórquez para optar al título de Ingeniero Informático de la Universidad de Valparaíso.

Published in: Education
  • Be the first to comment

  • Be the first to like this

2013 - Ex. Victor Borquez.

  1. 1. “Estudio de Usabilidad en Portales Web delas Universidades Pertenecientes al Consejo de Rectores de Chile” Presentación para optar al Título de Ingeniero en Informática Aplicada Víctor Eduardo Bórquez Hermosilla Comisión Evaluadora Prof. Guía: Mg. Roberto Muñoz Soto Prof. Informantes: Dr. Carlos Becerra Castro Enero, 2013 Mg. René Nöel López
  2. 2. ContenidoIntroducciónMarco ConceptualDefinición del ProblemaDiseño de la SoluciónDiseño de la EvaluaciónEjecución de la EvaluaciónAnálisis de ResultadosConclusionesTrabajos FuturosBibliografía
  3. 3. Introducción
  4. 4. Introducción• No existe un estudio que determine el grado de usabilidad de las universidades pertenecientes al consejo de rectores.• Rol de las universidades – En la formación de excelencia. – Compromiso con el desarrollo de Chile. – Producir Investigación de Calidad.• Importancia de la información que muestra a la comunidad en sus portales Web.
  5. 5. Marco Conceptual
  6. 6. Marco Conceptual• Usabilidad – La eficacia, eficiencia y satisfacción con la que un producto permite alcanzar objetivos específicos en un contexto de uso específico. ISO/IEC 9241 – Medida para evaluar la calidad de la experiencia del usuario al interactuar con un sistema y su grado de satisfacción. – Uno de los principales atributos del software.
  7. 7. Marco Conceptual• Atributos Usabilidad – Facilidad de aprendizaje. • ¿Que tan fácil es para los usuarios realizar tareas básicas la primera vez que se encuentra con el diseño? – Eficiencia de uso. • Una vez que los usuarios han aprendido en el diseño, ¿cuán rápido pueden realizar tareas?
  8. 8. Marco Conceptual• Atributos Usabilidad – Recuerdo en el tiempo. • Cuando los usuarios vuelven al diseño después de un perıodo de no usarlo, ¿con qué facilidad pueden restablecer las tareas realizadas anteriormente? – Tasa de errores. • ¿Cuántos errores hacen los usuarios? • ¿Cuán graves son estos errores y cómo fácilmente puede recuperarse de ellos?
  9. 9. Marco Conceptual• Atributos Usabilidad – Satisfacción subjetiva. • ¿Cuán agradable es que utilice el diseño?
  10. 10. Marco Conceptual• Métodos de evaluación – Métodos de Inspección. • Expertos en Usabilidad. – Métodos de Prueba. • Usuario Representativos.
  11. 11. Marco Conceptual• Métodos de Inspección – Evaluación heurística. • Evaluadores inspeccionan el diseño de interfaz basada en principios de usabilidad.
  12. 12. Marco Conceptual• Métodos de Prueba – Interacción constructiva. • Dos usuarios de prueba exploran el sistema juntos. Profundizan en el conocimiento de su conversación en el desempeño de tareas específicas. – Técnicas de consulta. • Entrevistas y cuestionarios.
  13. 13. Marco Conceptual• Portales Web – Gran puerta o punto de acceso para iniciar la navegación. – Así como muchas páginas web (vinculadas física y temáticamente entre sí) conforman un sitio, varios sitios web conforman un portal. – Contiene canales • Espacios concebidos especialmente para los diferentes públicos objetivos de una institución, segmentándolo y brindándoles una oferta de contenidos. • Ejemplo: académicos, estudiantes, funcionarios, postulantes, egresados, etc.
  14. 14. Marco Conceptual• Consejo de Rectores y sus universidades – Integrado por 25 universidades públicas y tradicionales. – Universidades fundadas antes de 1980. – Presidente es el Ministro de Educación. – Comprende una importante estadística. • 48% matrícula pregrado en total. • 67% matrícula postgrado en total. • 81% académicos con doctorado.
  15. 15. Definición del Problema
  16. 16. Definición del Problema• Problema – No existe un estudio actual que determine el grado de usabilidad de los portales Web de las Universidades pertenecientes al Consejo de Rectores de Chile.
  17. 17. Definición del Problema• Preguntas de investigación – ¿Qué problemas de usabilidad son los más frecuentes? – ¿Son de la misma categoría estos problemas en los diferentes portales web? – ¿Cuál es el grado de usabilidad que estos poseen? – ¿Cuáles son los principios más vulnerados? – ¿Cuáles son los portales que presentan un mayor grado de usabilidad?
  18. 18. Definición del Problema• Solución Propuesta – Se aplicará una metodología de evaluación de usabilidad particularizada para determinar el grado de usabilidad de los portales Web de las Universidades del Consejo de Rectores. – Se analizarán y compararán los resultados obtenidos para dar respuesta a los objetivos planteados.
  19. 19. Definición del Problema• Objetivo General – Determinar el grado de usabilidad de los portales web de las Universidades pertenecientes al consejo de rectores.
  20. 20. Definición del Problema• Objetivos específicos – Determinar el rol, estadísticas relevantes y los portales web de las universidades pertenecientes al consejo de rectores. – Particularizar los conceptos de usabilidad al contexto de los portales web de estas universidades. – Analizar los métodos de evaluación de usabilidad. – Aplicar los métodos de evaluación de usabilidad a los portales web de estas universidades de acuerdo a una metodología de trabajo. – Comparar resultados obtenidos.
  21. 21. Definición del Problema• Metodología de investigación – Estudio descriptivo. • Describir situaciones o eventos. • Los estudios descriptivos buscan especificar las propiedades importantes de personas, grupos, comunidades o cualquier otro fenómeno que sea sometido a análisis (Dankhe, 1986). • Se selecciona una serie de cuestiones y se mide cada una de ellas independientemente, para así describir lo que se investiga.
  22. 22. Definición del Problema• Metodología de investigación – Etapas • Formulación de la investigación. • Recolección de información. • Evaluar y aplicar información. • Informar resultados.
  23. 23. Definición del Problema• Metodología de trabajo
  24. 24. Diseño de la Solución
  25. 25. Diseño de la Solución• Solución Propuesta – Aplicar un método de Inspección. • Checklist de evaluación heurística. – Aplicar métodos de pruebas. • Interacción Constructiva. • Técnicas de Interrogación.• Aplicación de los Métodos – Preparación. – Desarrollo. – Análisis.
  26. 26. Diseño de la Solución• Método de Inspección: Checklist de Usabilidad particularizado Sirius – Es un sistema de evaluación de la usabilidad web que parte de la evaluación heurística pero que aúna una serie de características que la diferencia de otras propuestas: • Se aplica a cualquier tipo de sitio web y es aplicable durante todo el ciclo de vida del sitio. • Entrega como resultado un valor porcentual del nivel de usabilidad del sitio evaluado, un dato por tanto cuantitativo.
  27. 27. Diseño de la Solución• El hecho que entregue un resultado porcentual, significa que entrega un dato cuantitativo, lo que permite: – Cuantificar y comparar la mejora de usabilidad de un portal en el tiempo. – Comparar la usabilidad de diferentes portales de un mismo sector. – Establecer clasificaciones y ranking en base a la usabilidad.• Se basa en 10 heurísticas de usabilidad.• Se evalúan 83 problemas en total.
  28. 28. Diseño de la Solución Pautas de Evaluación • Criterio 1 Aspecto • Criterio n 1 • Criterio 1 Aspecto • Criterio n 2 • Criterio 1 … • Criterio n • Criterio 1 Aspecto • Criterio n 10
  29. 29. Diseño de la Solución Valores de Evaluación0..10 • Grado de conformidad con el cumplimiento del criterioNTS • No se cumple en todo el sitio (Valor 0)NEP • No se cumple en los enlaces principales (valor 2.5)NPP • No se cumple en la página principal (Valor 5)NPI • No se cumple en alguna página interior (Valor 7.5) S • Se cumple el criterio (Valor 10)NA • Criterio no aplicable al sitio
  30. 30. Diseño de la Solución Valores de Ponderación • Muy Alta: 4 • Alta: 3 • Media: 2 Aspectos • Baja: 1 • Crítico: 8 • Mayor: 4 • Medio: 2 Criterios • Moderado: 1
  31. 31. Diseño de la SoluciónMétrica de Evaluación
  32. 32. Diseño de la Solución
  33. 33. Diseño de la Solución• Método de Prueba: Interacción Constructiva (1) – Acuerdo de confidencialidad. – Interacción entre dos personas que intercambian información a viva voz de acuerdo a una lista de tareas a realizar. – Se almacena en audio y/o video. – Se genera un documento que lista los problemas encontrados.
  34. 34. Diseño de la Solución
  35. 35. Diseño de la Solución• Método de Prueba: Técnicas de Interrogación (2)• Acuerdo de confidencialidad.• Problemas de relevancia critica y mayor del checklist de evaluación heurística son evaluados o ponderados.• Se genera un documento que lista los problemas antes descritos y son evaluados de 0 a 4: – Notas mínimas corresponden al no cumplimiento o calificación negativa. Notas máximas corresponden al cumplimiento o calificación positiva.
  36. 36. Diseño de la SoluciónMétrica de Evaluación
  37. 37. Diseño de la Evaluación• Para responder a las preguntas de investigación• ¿Qué problemas de usabilidad son los más frecuentes? – Checklist de Usabilidad, con las ponderaciones de cada criterio de usabilidad (o problema), que establece si se cumplen o no y/o en que grado se cumplen. – Interacción constructiva, con los problemas encontrados por los usuarios representativos y si los problemas son parecidos o iguales a los del Checklist. – Técnicas de interrogación, se derivan del Checklist de Usabilidad, pero las ponderaciones sólo corresponden a problemas críticos o mayores en clasificación de severidad.
  38. 38. Diseño de la Evaluación• ¿Son de la misma categoría estos problemas en los diferentes portales web? – Checklist de Usabilidad hace una clasificación de los problemas potenciales de usabilidad.• ¿Cuál es el grado de usabilidad que estos poseen? – Checklist de Usabilidad entrega directamente el grado o porcentaje de usabilidad de cada portal web evaluado. – Técnicas de Interrogación, entrega una ponderación de una escala de 0 a 4 que después se transforma a porcentaje.
  39. 39. Diseño de la Evaluación• ¿Cuáles son los principios mas vulnerados? – Checklist de Usabilidad entrega los problemas con las más bajas ponderaciones o el no cumplimiento definitivo de la heurística. – Técnicas de interrogación entrega los problemas críticos o mayores con las más bajas ponderaciones o el no cumplimiento definitivo de la heurística.
  40. 40. Diseño de la Evaluación• ¿Cuáles son los portales que presentan un mayor grado de usabilidad? – Checklist de Usabilidad entrega un ranking de porcentaje o grado de usabilidad en forma directa. – Técnicas de Interrogación entrega un ranking de ponderaciones de problemas críticos o mayores que después son llevadas a porcentaje.
  41. 41. Ejecución de la Evaluación
  42. 42. Ejecución de la evaluación• Checklist Usabilidad
  43. 43. Ejecución de la evaluación• Checklist Usabilidad Zona Norte Grado (%) Más Vulnerada Menos VulneradaUniversidad Arturo Prat 66,14 H.9 Y H.10 H.2Universidad Católica del Norte 63,69 H.9 Y H.10 H.4Universidad de Antofagasta 59,39 H.9 Y H.10 H.8Universidad de Atacama 48,88 H.9 Y H.10 H.8Universidad de La Serena 69,24 H.10 H.6Universidad de Tarapacá 70,05 H.9 Y H.10 H.5
  44. 44. Ejecución de la evaluación• Checklist Usabilidad Zona Centro Grado (%) Más Vulnerada Menos VulneradaPontificia Universidad Católica deValparaíso 71,03 H.10 H.4Universidad Técnica Federico Santa María 75,54 H.10 H.2Universidad de Valparaíso 79,20 H.10 H.6Universidad de Playa Ancha de Cienciasde la Educación 76,24 H.7 H.4Universidad de Chile 79,85 H.10 H.2Pontificia Universidad Católica de Chile 80,13 H.10 H.2Universidad de Santiago de Chile 78,08 H.10 H.8Universidad Metropolitana de Ciencias dela Educación 68,75 H.10 H.2Universidad Tecnológica Metropolitana 75,20 H.10 H.2
  45. 45. Ejecución de la evaluación• Checklist Usabilidad Zona Sur Grado (%) Más Vulnerada Menos VulneradaUniversidad de Concepción 63,93 H.10 H.2Universidad Austral de Chile 60,69 H.7 H.5Universidad del Bio - Bio 65,17 H.10 H.4Universidad de La Frontera 68,83 H.10 H.4Universidad de Magallanes 66,80 H.10 H.4Universidad de Talca 73,46 H.10 H.2Universidad de Los Lagos 64,24 H.10 H.4Universidad Católica del Maule 77,32 H.10 H.6Universidad Católica de la SantísimaConcepción 75,61 H.10 H.5Universidad Católica de Temuco 70,24 H.10 H.8
  46. 46. Ejecución de la evaluación • Checklist Usabilidad Zona Norte - Grado (%) 100.00 90.00 80.00Porcentaje 69.24 70.05 70.00 66.14 63.69 59.39 60.00 48.88 50.00 40.00 Universidad Arturo Universidad Universidad de Universidad de Universidad de La Universidad de Prat Católica del Norte Antofagasta Atacama Serena Tarapacá Grado (%)
  47. 47. Ejecución de la evaluación • Checklist Usabilidad Zona Centro - Grado (%) 100.00 90.00 79.20 79.85 80.13 78.08 80.00 75.54 76.24 75.20Porcentaje 71.03 68.75 70.00 60.00 50.00 40.00 Pontificia Universidad Universidad de Universidad de Universidad de Pontificia Universidad de Universidad Universidad Universidad Técnica Valparaíso Playa Ancha Chile Universidad Santiago de Metropolitana Tecnológica Católica de Federico de Ciencias de Católica de Chile de Ciencias de Metropolitana Valparaíso Santa María la Educación Chile la Educación Grado (%)
  48. 48. Ejecución de la evaluación • Checklist Usabilidad Zona Sur - Grado (%) 100.00 90.00 77.32 75.61 80.00 73.46Porcentaje 68.83 70.24 70.00 65.17 66.80 63.93 64.24 60.69 60.00 50.00 40.00 Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad de Austral de del Bio - Bio de La de de Talca de Los Lagos Católica del Católica de Católica de Concepción Chile Frontera Magallanes Maule la Santísima Temuco Concepción Grado (%)
  49. 49. Ejecución de la evaluación• Checklist Usabilidad Promedios por Zonas - Grado (%) 100.00 90.00 80.00 76.00 Porcentaje 68.63 70.00 62.90 Grado (%) 60.00 50.00 40.00 Zona Norte Zona Central Zona Sur
  50. 50. Ejecución de la evaluación• Checklist Usabilidad Criterios Zona Norte Zona Central Zona SurHEURÍSTICO ASPECTOS GENERALES 6,35 7,22 7,00IDENTIDAD E INFORMACIÓN 8,83 9,41 8,77ESTRUCTURA Y NAVEGACIÓN 6,96 7,65 7,34ROTULADO 8,14 9,19 7,70LAYOUT DE LA PÁGINA 8,91 8,23 8,77ENTENDIBILIDAD Y FACILIDAD EN LAINTERACCIÓN 8,57 8,77 8,00CONTROL Y RETORALIMENTACIÓN 5,28 6,64 4,73ELEMENTOS MULTIMEDIA 8,58 8,83 8,40BÚSQUEDA 1,64 6,28 4,91AYUDA 0,00 1,14 3,54
  51. 51. Ejecución de la evaluación • Checklist Usabilidad 10.00 9.41 9.19 8.83 8.91 9.00 8.77 8.77 8.578.77 8.588.838.40 8.14 8.23 8.00 7.65 7.70 8.00 7.227.00 7.34 6.96 6.64 7.00 6.35Puntuaciones 6.28 6.00 5.28 4.73 4.91 5.00 4.00 3.54 3.00 1.64 2.00 1.14 1.00 0.00 0.00 INFORMACIÓN" "ROTULADO" "ENTENDIBILIDAD Y RETORALIMENTACIÓN" "HEURÍSTICO ASPECTOS MULTIMEDIA" "ELEMENTOS "ESTRUCTURA Y "AYUDA" "LAYOUT DE LA PÁGINA" "BÚSQUEDA" "IDENTIDAD E NAVEGACIÓN" FACILIDAD EN LA INTERACCIÓN" "CONTROL Y GENERALES" Zona Norte Zona Central Zona Sur
  52. 52. Ejecución de la evaluación• Interacción Constructiva – Heurísticas vulneradas correspondiente a la herramienta SIRIUS: • Aspectos Generales. • Estructura y Navegación. • Layout de la Página. • Entendibilidad y Facilidad en la Interacción. • Elementos Multimedia.
  53. 53. Ejecución de la evaluación• Interacción Constructiva HEURÍSTICAS Ocurrencias Universidades Aspectos Generales 28 20 Identidad y Información 0 0 Estructura y Navegación 32 20 Rotulado 0 0 Layout de la Página 15 13 Entendibilidad y Facilidad en la Interacción 12 11 Control y Retroalimentación 0 0 Elementos Multimedia 6 6 Búsqueda 0 0 Ayuda 0 0
  54. 54. Ejecución de la evaluación • Interacción Constructiva Ocurrencias 35 32 28 30 25Cantidad 20 15 15 12 10 6 5 0 0 0 0 0 0 Ocurrencias
  55. 55. Ejecución de la evaluación • Interacción Constructiva Universidades 25 20 20 20 13Cantidad 15 11 10 6 5 0 0 0 0 0 0 Universidades
  56. 56. Ejecución de la evaluación• Técnicas de Interrogación Zona Norte Grado (%) Más Vulnerada Menos VulneradaUniversidad Arturo Prat 74,17 H.9 Y H.10 H.1Universidad Católica del Norte 48,33 H.9 H.8Universidad de Antofagasta 57,50 H.5 H.8Universidad de Atacama 69,17 H.10 H.7Universidad de La Serena 59,17 H.9 H.3Universidad de Tarapacá 84,17 H.10 H.1
  57. 57. Ejecución de la evaluación• Técnicas de Interrogación Zona Centro Grado (%) Más Vulnerada Menos VulneradaPontificia Universidad Católica deValparaíso 51,67 H.9 Y H.10 H.2Universidad Técnica Federico SantaMaría 65,00 H.10 H.3Universidad de Valparaíso 75,00 H.9 Y H.10 H.1Universidad de Playa Ancha deCiencias de la Educación 72,50 H.10 H.1Universidad de Chile 62,50 H.7 H.2Pontificia Universidad Católica de Chile 69,17 H.10 H.4Universidad de Santiago de Chile 68,33 H.10 H.5Universidad Metropolitana de Cienciasde la Educación 66,67 H.2 H.1Universidad Tecnológica Metropolitana 65,83 H.10 H.2
  58. 58. Ejecución de la evaluación• Técnicas de Interrogación Zona Sur Grado (%) Más Vulnerada Menos VulneradaUniversidad de Concepción 89,17 H.7 H.1Universidad Austral de Chile 53,33 H.10 H.2Universidad del Bio - Bio 51,67 H.10 H.2Universidad de La Frontera 63,33 H.10 H.6Universidad de Magallanes 46,67 H.10 H.8Universidad de Talca 55,83 H.10 H.3Universidad de Los Lagos 75,00 H.10 H.4Universidad Católica del Maule 70,83 H.10 H.1Universidad Católica de la SantísimaConcepción 79,17 H.10 H.1Universidad Católica de Temuco 71,67 H.8 H.4
  59. 59. Ejecución de la evaluación • Técnicas de Interrogación Zona Norte - Grado (%) 100.00 90.00 84.17 80.00 74.17Porcentaje 69.17 70.00 57.50 59.17 60.00 48.33 50.00 40.00 Universidad Arturo Universidad Universidad de Universidad de Universidad de La Universidad de Prat Católica del Norte Antofagasta Atacama Serena Tarapacá Grado (%)
  60. 60. Ejecución de la evaluación • Técnicas de Interrogación Zona Centro - Grado (%) 100.00 90.00 80.00 75.00 72.50Porcentaje 69.17 68.33 70.00 65.00 66.67 65.83 62.50 60.00 51.67 50.00 40.00 Pontificia Universidad Universidad de Universidad de Universidad de Pontificia Universidad de Universidad Universidad Universidad Técnica Valparaíso Playa Ancha Chile Universidad Santiago de Metropolitana Tecnológica Católica de Federico de Ciencias de Católica de Chile de Ciencias de Metropolitana Valparaíso Santa María la Educación Chile la Educación Grado (%)
  61. 61. Ejecución de la evaluación • Técnicas de Interrogación Zona Sur - Grado (%) 100.00 89.17 90.00 79.17 80.00 75.00Porcentaje 70.83 71.67 70.00 63.33 60.00 55.83 53.33 51.67 50.00 46.67 40.00 Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad Universidad de Austral de del Bio - Bio de La de de Talca de Los Lagos Católica del Católica de Católica de Concepción Chile Frontera Magallanes Maule la Santísima Temuco Concepción Grado (%)
  62. 62. Ejecución de la evaluación• Técnicas de Interrogación Promedio por Zonas - Grado (%) 100.00 90.00 80.00Porcentaje 70.00 65.42 66.30 65.67 Grado (%) 60.00 50.00 40.00 Zona Norte Zona Centro Zona Sur
  63. 63. Ejecución de la evaluación• Técnicas de Interrogación 4.00 3.50 3.22 3.28 3.22 3.15 3.30 3.22 3.13 3.11 3.07 3.04 2.93 2.90 2.90 2.93 2.89 2.90 3.00 2.78 2.61 2.60 2.60 2.56 Puntuaciones 2.52 2.44 2.50 2.33 2.23 2.22 2.00 1.44 1.39 1.50 1.13 0.89 1.00 0.50 0.00 ROTULADO INFORMACIÓN RETORALIMENTACIÓN LAYOUT DE LA PÁGINA BÚSQUEDA ESTRUCTURA Y ENTENDIBILIDAD Y HEURÍSTICO ASPECTOS ELEMENTOS MULTIMEDIA AYUDA IDENTIDAD E FACILIDAD EN LA NAVEGACIÓN INTERACCIÓN CONTROL Y GENERALES Zona Norte Zona Central Zona Sur
  64. 64. Análisis de Resultados
  65. 65. Análisis de Resultados • Relación Checklist y Técnicas de Interrogación 100.00% 90.00%Porcentaje 80.00% 70.00% 60.00% 50.00% 40.00% Checklist Tec. Interr. Coeficiente de Correlación = 0,1831
  66. 66. Análisis de Resultados • Relación Checklist y Técnicas de Interrogación 10.00 3.50 9.00 3.00 8.00Puntuaciones 7.00 2.50 6.00 2.00 5.00 4.00 1.50 3.00 1.00 2.00 1.00 0.50 0.00 0.00 Checklist Técnicas de Interrogación Coeficiente de Correlación = 0,8711
  67. 67. Análisis de Resultados• Para responder a las preguntas de Investigación – ¿Qué problemas de usabilidad son los más frecuentes? • Checklist de Usabilidad. – Estableció 10 criterios o potenciales problemas de Usabilidad. • Interacción constructiva. – Con respecto a la correspondencia del checklist de evaluación de Usabilidad y esta prueba fueron Estructura y Navegación. • Técnicas de interrogación. – Estableció 10 criterios o potenciales problemas de Usabilidad.
  68. 68. Análisis de Resultados• ¿Son de la misma categoría estos problemas en los diferentes portales web? – Checklist de Usabilidad. • Aspectos Generales. • Identidad e Información. • Estructura y Navegación. • Rotulado. • Layout de la Página. • Entendibilidad y Facilidad en la Interacción. • Control y Retroalimentación. • Elementos Multimedia. • Búsqueda. • Ayuda.
  69. 69. Análisis de Resultados• ¿Cuál es el grado de usabilidad que estos poseen? – Checklist de Usabilidad y Técnicas de Interrogación. • Entregó directamente el grado o porcentaje de usabilidad de cada portal web evaluado.
  70. 70. Análisis de Resultados• ¿Cuáles son los principios mas vulnerados? – Checklist de Usabilidad. • Búsqueda y Ayuda. – Técnicas de Interrogación. • Búsqueda y Ayuda.
  71. 71. Análisis de Resultados• ¿Cuáles son los portales que presentan un mayor grado de usabilidad? – Checklist de Usabilidad. • Pontificia Universidad Católica de Chile (mayor). • Universidad de Talca (menor). – Técnicas de Interrogación. • Universidad de Concepción (mayor). • Universidad de Magallanes (menor).
  72. 72. Conclusiones
  73. 73. Conclusiones• Cada Universidad Chilena perteneciente al consejo de Rectores posee un portal institucional en el cual se exhibe importante información relacionada con su respectiva comunidad universitaria.• Antes de este estudio se desconocía el grado de usabilidad que poseían estos portales, puesto que no se disponía de un estudio que proporcionara esta medida.• Para determinar el grado o porcentaje de usabilidad de los veinticinco portales Web de las Universidades pertenecientes al consejo de rectores de Chile se aplicó una herramienta de evaluación de usabilidad SIRIUS que entregó dicho porcentaje, el cual fue corroborado por medio de técnicas de interrogación.
  74. 74. Conclusiones• La usabilidad progresivamente se ha transformado en un término común entre las tecnologías de información y comunicación por lo tanto es importante que se encuentre presente en todas estas disciplinas o áreas del conocimiento.• Cada método de usabilidad entrega información relevante y son clasificados en inspección y prueba.• Los métodos de inspección y prueba se complementan, pero de ninguna manera se pueden remplazar entre sí.• Se sugiere que el orden de aplicación de métodos sea primero los de inspección y luego los de prueba.
  75. 75. Conclusiones• Las estadísticas demostraron que a pesar de que no fueron los mismos usuarios que participaron en la evaluación, se pudo apreciar una correlación entre métodos.• Si bien es cierto que este estudio no propone mejoras, si presenta los elementos en los cuales se debe prestar más atención y también cuales presenta mayores fortalezas.• Con respectos a los objetivos planteados en este trabajo, se cumplieron todos y se dieron respuesta a todas las preguntas de investigación planteadas.
  76. 76. Conclusiones• Este estudio determinó que las Universidades de la zona central tuvieron mejores ponderaciones, con respecto al grado de usabilidad, que las de otras zona.• Las heurísticas más vulneradas fueron Búsqueda y Ayuda, lo que indica que se debe prestar más atención a ellas y trabajar en ellas para mejorar los portales Web.• Como aporte futuro, este trabajo puede servir de base para otras investigaciones o para la creación de nuevas metodologías de evaluación.
  77. 77. Trabajos Futuros
  78. 78. Trabajos Futuros• Incorporar más usuarios para llevar a cabo el Checklist de evaluación de Usabilidad y así poder hacer más estadísticas y obtener nuevos resultados.• Llevar a cabo los experimentos formales como método de prueba.• Obtener estadísticas de las acciones de los usuarios con los experimentos formales.
  79. 79. Referencias
  80. 80. Referencias1. ISO 9241-11:1998. Ergonomic requirements for office work with visual display terminals (vdts) – part 11: Guidance on usability. International Organization for Standardization, (November):4, 1998.2. K. Andrews. Human computer interaction. Journal of digital imaging the official journal of the Society for Computer Applications in Radiology, 24(5):794–803, 2011.3. K. Andrews. Human Computer Interaction. IICM, Graz University of Technology, 2012.4. N. Bevan. What is usability? In In: Human Aspects in Computing: Design and Use of Interactive Systems with Terminals, pages 651–655. Elsevier, 1991.5. N. Bevan. Usability is quality of use. In Katsuhiko Ogawa Yuichiro Anzai and Hirohiko Mori, editors, Symbiosis of Human and Artifact Future Computing and Design for Human-Computer Interaction Proceedings of the Sixth International Conference on Human-Computer Interaction, (HCI International ’95), volume 20 of Advances in Human Factors/Ergonomics, pages 349 – 354. Elsevier, 1995.6. N. Bevan. Quality in use: Meeting user needs for quality. J. Syst. Softw., 49(1):89–96, December 1999.7. T. Brinck, D. Gergle, and S.D.Wood. DesigningWeb Sites thatWork: Usability for the Web. The Morgan Kaufmann Series in Interactive Technologies. Morgan Kaufmann Publishers, 2002.8. J. Cato. User-Centered Web Design. Addison-Wesley, 2001.9. B. Chaparro. Usability evaluation of a university portal website. Technical report, Wichita State University, USA, 2008.10. Consejo de Rectores de las Universidades Chilenas. Presentación institucional del consejo de rectores. Website, Ultima visita: 15 de abril de 2012. http://www.consejoderectores.cl/.11. Serrano E. Accesibilidad vs usabilidad web: evaluación y correlación. Investigación Bibliotecológica, México, 23(48):61–103, mayo/agosto, 2009.12. E. Folmer and J. Bosch. Architecting for usability: a survey. Journal of Systems and Software, 70(1-2):61–78, 2004.
  81. 81. Referencias13. W.O. Galitz. The Essential Guide to User Interface Design: An Introduction to GUI Design Principles and Techniques. Wiley Desktop Editions. John Wiley & Sons, 2007.14. J. García. Los portales de Internet. Fac. Documentación, Universidad de Murcia, España, 2001.15. ISO/IEC. ISO/IEC 9126. Software engineering – Product quality. ISO/IEC, 2001.16. ISO/IEC 9241. International standards for hci and usability. Website, Ultima visita: 15 de abril de 2012.17. http://www.usabilitynet.org/tools/r_international.htm.18. K. Holzblatt J. Whiteside, J Bennett. Usability engineering: our experience and evolution. In: Handbook of Human- Computer Interaction, Helander M. Elsevier, 1988.19. N. E. Jacobsen, M. Hertzum, and B. E. John. The evaluator effect in usability tests. In CHI ’98: CHI 98 conference summary on Human factors in computing systems, pages 255–256, New York, NY, USA, 1998. ACM.20. J. Karat. User-Centered Software Evaluation Methodologies, volume 2, pages 689–704. Elsevier Science, 1997.21. S. Krug. No me hagas pensar : una aproximación a la usabilidad en la web. Madrid [etc.] : Pearson Educación, 2006.22. D.J. Mayhew. The Usability Engineering Lifecycle: A Practitioner’s Handbook for User Interface Design. The Morgan Kaufmann Series in Interactive Technologies. Morgan Kaufmann Publishers, 1999.23. SH Mustafa and LF Al-Zoua’bi. Usability of the academic websites of jordan’s universities an evaluation study. Technical report, Faculty of Information Technology, Yarmouk University, Irbid, JORDAN, 2008.24. J. Nielsen. Finding usability problems through heuristic evaluation. In Proceedings of the SIGCHI conference on Human factors in computing systems, CHI ’92, pages 373–380, New York, NY, USA, 1992. ACM.25. J. Nielsen. Usability inspection methods. chapter Heuristic evaluation, pages 25–62. John Wiley & Sons, Inc., New York, NY, USA, 1994.26. J. Nielsen. Usability 101: Introduction to usability. Website, Ultima visita: 23 de enero de 2013, 2003. http://www.nngroup.com/articles/.
  82. 82. Referencias27. J. Nielsen. Ten Usability Heuristics. Website, Ultima visita: 23 de enero de 2013, 2005. http://www.useit.com/papers/heuristic/heuristic list.html.28. J. Nielsen and R. L. Mack, editors. Usability inspection methods. JohnWiley & Sons, Inc., New York, NY, USA, 1994.29. J. Nielsen and R. Molich. Heuristic evaluation of user interfaces. In Proc. ACM CHI’90 Conf. (Seattle, WA, 1-5 April), pages 249–256.30. R. Otaiza, C. Rusu, and S. Roncagliolo. Evaluating the usability of transactional web sites. In Proceedings of the 2010 Third International Conference on Advances in Computer-Human Interactions, ACHI ’10, pages 32– 37, Washington, DC, USA, 2010. IEEE Computer Society.31. K. Patterson and A. Ellis. Usability and meeting the needs of educational web site users. Technical report, Southern Cross University, Australia, 2004.32. K. Pierce. Web site usability report for harvard university. Technical report, Capella University, USA, 2005.33. J. Preece and Y. Rogers. Human-computer interaction. Ics Series. Addison-Wesley Pub. Co., 1994.34. W. Quesenbery. What Does Usability Mean: Looking Beyond ’Ease of Use, volume 48, pages 1–7. 2001.35. C. N. Quinn. Pragmatic evaluation: lessons from usability. 13th Annual Conference of the Australasian Society for, pages 1–6, 1996.36. J. Redish. Are we really entering a post-usability era? SIGDOC Asterisk J. Comput. Doc., 19(1):18–24, March 1995.37. M.B. Rosson and J.M. Carroll. Usability Engineering: Scenario-Based Development of Human-Computer Interaction. Morgan Kaufmann Series in Interactive Technologies. Academic Press, 2002.38. C. Rusu. Human computer interaction, 2009. Presentación Power Point del Curso39. HCI, Magister en Ingeniería Informática, Pontificia Universidad Católica de Valparaíso.40. R. Sampieri, C. Fernández, and P. Baptista. Metodología de la Investigación. McGraw Hill, 1997.41. B. Shneiderman. Designing the User Interface. Addison Wesley Longman, third edition, 1998.
  83. 83. Referencias42. M. Suarez. Sirius: Sistema de evaluación de usabilidad web orientado al usuario y basado en la determinación de tareas criticas. Technical report, Universidad de Oviedo, Oviedo, España, 2011.43. B. Woodward. Evaluation methods in usability testing. Website, 1998. Ultima visita: 15 de abril de 2012. http://www.swt.edu/ hd01/5326/projects/BWOODWARD.HTM.44. P. Zaphiris and E. Darin. Website usability and content accessibility of the top usa universities. Technical report, Wayne State University, USA, 2001.
  84. 84. Preguntas
  85. 85. “Estudio de Usabilidad en Portales Web delas Universidades Pertenecientes al Consejo de Rectores de Chile” Presentación para optar al Título de Ingeniero en Informática Aplicada Víctor Eduardo Bórquez Hermosilla Comisión Evaluadora Prof. Guía: Mg. Roberto Muñoz Soto Prof. Informantes: Dr. Carlos Becerra Castro Enero, 2013 Mg. René Nöel López

×