This document discusses continuous performance testing (CPT) and introduces the Jagger CPT solution. It provides an overview of why performance testing is important, outlines the principles and goals of CPT, and describes the key parts of the Jagger CPT platform including load generation, metrics collection, test data management, and environment management. It also provides an example customer success story where Jagger was used for continuous performance testing of a large ecommerce site.
This document discusses continuous performance testing (CPT) and introduces the Jagger CPT solution. It provides an overview of why performance testing is important, outlines the principles and goals of CPT, and describes the key parts of the Jagger CPT platform including load generation, metrics collection, test data management, and environment management. It also provides an example customer success story where Jagger was used for continuous performance testing of a large ecommerce site.
Мощь переполняет с JDI 2.0 - новая эра UI автоматизацииSQALab
This document provides an overview of the JDI (Java UI test automation framework). It discusses features of JDI including being UI element oriented, providing common UI elements and solutions to common problems. It provides examples of how to write tests using JDI annotations and page object pattern. The document also summarizes benefits of JDI such as reducing test code, improving test clarity, reuse across projects. Finally it outlines new features planned for JDI 2.0 including layout verification, page object generator, integration with Selenium and expanding JDI to other languages like Python.
The document discusses testing of geolocation systems. It provides an overview of geolocation, including definitions and importance. It then outlines the speaker's experience and work testing GIS systems. The rest of the document details approaches to testing geolocation, including simulating calls, checking responses and databases, and verifying accuracy. It also discusses common data formats, projections, tools like PostGIS and QGIS, and potential bugs to watch for like coordinate jumbling. The conclusion emphasizes starting simple, practicing to improve, and for tests to grow with knowledge as geolocation is important for future IT.
Sustainable Test Automation: Collaborate within TeamSQALab
This document discusses challenges with test automation and best practices for sustainable test automation. It recommends addressing manual testing efforts, long feedback times, and operational blindness. Test automation should be treated as an activity that is part of the definition of done and not everything needs to be automated. Risk management is important and the Pareto principle applies. Test cases need maintenance over time. Data management techniques include independent test data, external storage, and microservices. Embrace microservices, learn about data virtualization, and make test automation part of the CI/CD pipeline. BDD, page objects, and separating framework, page and test layers are advised.
This document discusses best practices for test data preparation and management. It recommends generating test data before running tests to make tests independent. It also suggests using tools like OKHttp and Jackson to generate Java objects from JSON, send HTTP requests to log in instead of using the UI, and make each test independent by creating and cleaning test data. The document contrasts best practices like using page objects and avoiding Thread.sleep with bad practices like relying on XPath alone and not making tests independent.
This document discusses psychology and behavioral principles related to mobile app and game design. It explains that much of app and game usage is habitual and driven by unconscious motivations rather than conscious decision making. Variable and social rewards can be particularly motivating due to psychological desires for pleasure from others, resources, information, mastery, and a sense of control and completion. Proper trigger design and balancing of these intrinsic and extrinsic motivations is important for engaging user behavior and driving continued app usage over time. Questions at the end assess potential negative impacts of overuse or manipulation.
Мощь переполняет с JDI 2.0 - новая эра UI автоматизацииSQALab
This document provides an overview of the JDI (Java UI test automation framework). It discusses features of JDI including being UI element oriented, providing common UI elements and solutions to common problems. It provides examples of how to write tests using JDI annotations and page object pattern. The document also summarizes benefits of JDI such as reducing test code, improving test clarity, reuse across projects. Finally it outlines new features planned for JDI 2.0 including layout verification, page object generator, integration with Selenium and expanding JDI to other languages like Python.
The document discusses testing of geolocation systems. It provides an overview of geolocation, including definitions and importance. It then outlines the speaker's experience and work testing GIS systems. The rest of the document details approaches to testing geolocation, including simulating calls, checking responses and databases, and verifying accuracy. It also discusses common data formats, projections, tools like PostGIS and QGIS, and potential bugs to watch for like coordinate jumbling. The conclusion emphasizes starting simple, practicing to improve, and for tests to grow with knowledge as geolocation is important for future IT.
Sustainable Test Automation: Collaborate within TeamSQALab
This document discusses challenges with test automation and best practices for sustainable test automation. It recommends addressing manual testing efforts, long feedback times, and operational blindness. Test automation should be treated as an activity that is part of the definition of done and not everything needs to be automated. Risk management is important and the Pareto principle applies. Test cases need maintenance over time. Data management techniques include independent test data, external storage, and microservices. Embrace microservices, learn about data virtualization, and make test automation part of the CI/CD pipeline. BDD, page objects, and separating framework, page and test layers are advised.
This document discusses best practices for test data preparation and management. It recommends generating test data before running tests to make tests independent. It also suggests using tools like OKHttp and Jackson to generate Java objects from JSON, send HTTP requests to log in instead of using the UI, and make each test independent by creating and cleaning test data. The document contrasts best practices like using page objects and avoiding Thread.sleep with bad practices like relying on XPath alone and not making tests independent.
This document discusses psychology and behavioral principles related to mobile app and game design. It explains that much of app and game usage is habitual and driven by unconscious motivations rather than conscious decision making. Variable and social rewards can be particularly motivating due to psychological desires for pleasure from others, resources, information, mastery, and a sense of control and completion. Proper trigger design and balancing of these intrinsic and extrinsic motivations is important for engaging user behavior and driving continued app usage over time. Questions at the end assess potential negative impacts of overuse or manipulation.
3. План доклада
• Что такое UAT и зачем он нужен?
• Какие бывают Бизнес-пользователи?
• Какие плюсы и минусы при работе с каждым
типом?
• Что за проблемы встречаются и как их
решить?
_________________
Подведем итоги.
Вопросы и ответы.
4. UAT –Что это?
UAT – пользовательское приемочное
тестирование, проводимое конечными
пользователями системы с целью
принятия решения о выпуске продукта.
Зачастую бизнес-пользователей на протяжении
всего UAT сопровождают тестировщики
5. UAT – Когда?
Идея пришла
Анализ проведен
Функционал разработан
Установлен на тестовую среду
Проведены необходимые настройки
Проведено функционально тестирование
UAT
10. Тип 1 – Новичок
или «Я не знаю что делать»
Плюсы
• Не сомневается в
квалификации тестировщика
• Не требует ненужных
углубленных проверок
• Хочет быстрее все узнать
Минусы
• Не знает как работает обычный
функционал
• Слишком доверяет тестировщику
• Не знает смысла UAT
• Медленно проводит
тестирование
• Тратит время отведенное на
тестирование на время его
обучения
• Очень низкое качество UAT
11. Тип 1 – Новичок
или «Я не знаю что делать»
Проблемы
• Низкое качество UAT
• Медленная скорость UAT
• Дополнительные ресурсы
Решения
• Желательно исключение
таких Бизнес-пользователей
из UAT
• Закладывание небольшого
срока на обучение
• Усиленная дополнительная
проверка тестировщиком во
время UAT
• Постоянная личная связь
12. Тип 2 – Молния
или «оно не работает, сами ищите,
где и что – мне некогда»
13. Тип 2 – Молния
или «оно не работает, сами ищите,
где и что – мне некогда»
Плюсы
• Опытный пользователь
функционала
• Быстро проводит тестирование
• Понимает смысл UAT
• Качественное UAT
Минусы
• Слишком занятой
• Не хочет помогать решать
возникающие проблемы
• Требует малых дополнительных
затрат на детектирование того,
что не понравилось
пользователю
• Сомневается в квалификации
тестировщика
14. Тип 2 – Молния
или «оно не работает, сами ищите,
где и что – мне некогда»
Проблемы
• Требует идеального
функционала
• Не желает решать проблемы в
диалоге
• Не хочет продолжать UAT
Решения
• Разумные доводы
• Эскалация
15. Тип 3 – Эсперт
или «а вы проверяли стоя на
голове?»
16. Тип 3 – Эксперт
или «а вы проверяли стоя на голове?»
Плюсы
• Очень опытный пользователь
• Понимает смысл UAT
• Быстро проводит тестирование
• Качественное UAT
• Дает полезные советы по
дополнительной проверке
Минусы
• Требует много дополнительных
проверок
• Сомневается в квалификации
тестировщика
17. Тип 3 – Эксперт
или «а вы проверяли стоя на голове»
Проблемы
• Тратят трудовые ресурсы для
перестраховки
Решения
• Закладывание времени в UAT
заранее на дополнительные
проверки.
• Постоянный тандем
• Ранняя передача на UAT
19. Тип 4 – Случайный зритель
или «вы сделайте и пришлите протокол
посмотреть»
Плюсы
• Опытный пользователь
• Быстро проводит тестирование
• Не требует дополнительных
затрат
• Не сомневается в
квалификации тестировщика
Минусы
• Низкое качество UAT
• Базируется на протоколах
• Неохотно начинает UAT
• Не понимает смысла UAT
20. Тип 4 – Случайный зритель
или «вы сделайте и пришлите протокол
посмотреть»
Проблемы
• Пересылка протоколов
• Плохая проверка
Решения
• Инициативные вопросы от
тестировщика к бизнес-
пользователю
• Системы менеджмента
жизненного цикла или ведение
протокола
21. Итоги
UAT – это важная часть
тестирования.
Типы бизнес пользователей
Новичок
Молния
Эксперт
Случайный зритель