Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Charla Evento TestingUY 2018 - Pruebas de desempeño en sistemas del gobierno brasileño

91 views

Published on

Expositor: Thiago Burgos Medeiros Rodrigues

Resumen: “Aunque es difícil medir y definir un software como de buena calidad, un software de mala calidad es fácilmente identificado” – Guillermo Motta.

Con la frase del colega arriba, pretendo iniciar la discusión sobre Pruebas de Desempeño, más específicamente, sobre el actual proceso de Pruebas de Desempeño que observo en el sector público brasileño.

En seis años de trabajo en el sector, he vivido repetidas situaciones como: sistemas reprobados por bajo desempeño y/o errores funcionales cerca de la fecha límite de entrega; requisitos que no concuerdan con la expectativa del cliente o clientes que se enfrentan a la difícil tarea de definir parámetros de prueba sin instrucciones adecuadas; inexistencia o plazo insuficiente para el desarrollo de pruebas; dificultad para obtener masa de datos; cambios en lo sistema o manipulación de los datos por terceros durante el desarrollo de las pruebas, entre otras situaciones cotidianas de un desarrollador de pruebas.

¿Cómo afrontar problemas de especificación, alinear la expectativa del cliente y alcanzar un punto de concordancia o congruencia de intereses? Éste será el hilo conductor de nuestra charla, ante el escenario actual, abordando los mayores obstáculos y cómo se están enfrentando.

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Charla Evento TestingUY 2018 - Pruebas de desempeño en sistemas del gobierno brasileño

  1. 1. Pruebas de Desempeño en Sistemas del Gobierno Brasileño Thiago Burgos thiagobmrodrigues@gmail.com @ti_burgos 21 y 22 de mayo, 2018 www.testinguy.org #testinguy |@testinguy
  2. 2. • ¿Quién soy yo? • ¿Qué vamos a hablar? • Audiencia Presentación
  3. 3. “Aunque es difícil medir y definir un software como de buena calidad, un software de mala calidad es fácilmente identificado.” (Guilherme Tavares Motta)
  4. 4. • Pruebas de Desempeño en Sistemas de Información del Gobierno Brasileño • Lecciones aprendidas • Perspectivas futuras Agenda
  5. 5. Pruebas de Desempeño en Sistemas de Información del Gobierno Brasileño
  6. 6. (contexto Dataprev) • Departamento de Pruebas de Software • Se utilizó el modelo de madurez TPI Next, de SOGETI, como referencia para organizar el departamento • Proceso estructurado de pruebas El escenario
  7. 7. El escenario
  8. 8. Desenvolvimento Ágil >> Sprint [n] >> Realizar Testes El escenario
  9. 9. • Web • Java • Primefaces • React • Componentes y Servicios • EJB • SOAP • REST ¿Qué probamos?
  10. 10. • Previdência Social (Ministério de Trabajo y Seguridad Social) • Ministério do Trabalho (Ministério de Trabajo y Seguridad Social) • Receita Federal (Dirección Nacional de Aduanas) • Bancos públicos y privados Clientes
  11. 11. Especificación y implementación de pruebas de rendimiento: ● IBM Rational Quality Manager (Gerencia de Pruebas) ○ Plan de Prueba ○ Guión de Prueba ● IBM Rational Performance Tester (Autimatización de las pruebas de rendimiento) ○ Agentes de ejecución remota de RPT ● GIT (Control de versiones) Herramientas utilizadas
  12. 12. Monitorización y Profiling: • CA Introscope • Bitácora de la Base de Datos (Oracle) Herramientas utilizadas
  13. 13. Registro de defectos: • IBM Rational Team Concert (Gestión de configuración y cambio) Herramientas utilizadas
  14. 14. Lecciones aprendidas
  15. 15. Temas recurrentes - 04 relacionados con personas y 03 con tecnología: 1. Definición de tiempo de inactividad (“think time”) y tiempo de respuesta 2. Especificación de Requisitos de Rendimiento 3. ¿Cuándo iniciar el desarrollo de las pruebas? 4. Anticipar problemas de rendimiento 5. Creación de Datos de Prueba 6. Cómo manejar cambios del sistema 7. Cómo manejar cambios de los datos del sistema Lecciones aprendidas
  16. 16. 1. Definición de tiempo de inactividad (“think time”) y tiempo de respuesta Problema: • Clientes enfrentan la difícil tarea de definir tiempos de respuesta y inactividad sin instrucciones adecuadas Solución: • Investigación Nielsen - 0.1s, 1.0s y 10.0s • El costumbre - 2s, 5s y 10s Lecciones aprendidas
  17. 17. 2. Especificación de Requisitos de Rendimiento Problema: • Requisitos que no están de acuerdo con la realidad del cliente • Requisitos que no son mensurables Solución: • ¡Valida los requisitos antes de empezar! • Si es incorrecto, orientar el cliente/proyecto para que escriba correctamente Lecciones aprendidas
  18. 18. 3. ¿Cuándo iniciar el desarrollo de las pruebas? Problema: • Desarrollar pruebas basadas en la interfaz gráfica en proyectos inacabados Solución: • Antes de empezar la fase de desarrollo de las pruebas, asegúrese que: ○ Funcionalidades estén evaluadas y aprobadas por pruebas funcionales ○ Entorno de prueba esté disponible ○ Versión del sistema (script y base de datos) esté congelado durante el período adecuado para el desarrollo y la ejecución de las pruebas ○ Datos de Prueba adecuados para el desarrollo y la ejecución Lecciones aprendidas
  19. 19. 4. Anticipar problemas de rendimiento Problema: • Identificación de problemas de rendimiento y / o errores funcionales cerca de la fecha límite de entrega Solución: • Ejecutar pruebas intermedias Lecciones aprendidas
  20. 20. 5. Creación de Datos de Prueba Problema: • Dificultad para obtener Datos de Prueba Solución: • Buscar ayuda del proyecto • Por veces necesitamos desarrollar nuestra propia herramienta Lecciones aprendidas
  21. 21. 6. Cómo manejar cambios del sistema Problema: • Cambios en la secuencia de comandos del sistema durante el desarrollo de las pruebas Solución: • ¿Evaluar rápidamente - rehacer el script o arreglarlo? Lecciones aprendidas
  22. 22. 7. Cómo manejar cambios de los datos del sistema Problema: • Manipulación de los datos por terceros durante el desarrollo de las pruebas Solución: • Evitar el "entorno compartido" • Interrumpir el uso por terceros o esperar hasta que el sistema esté disponible • Revisar Datos de Prueba o rehacerla Lecciones aprendidas
  23. 23. • Mejorar la competencia de las pruebas (GATE) • Nuevo formato de soporte a la actividad de pruebas • Nuevas tecnologías Perspectivas futuras
  24. 24. 21 y 22 de mayo, 2018 www.testinguy.org #testinguy |@testinguy ¿PREGUNTAS? ¡MUCHAS GRACIAS! Thiago Burgos thiagobmrodrigues@gmail.com @ti_burgos

×