Оценка проектов: шарлатанство или шаманство (Сергей Архипенков)Alexander Orlov
Оценка проектов: шарлатанство или шаманство?
Ведущий мастер-класса: Сергей Архипенков – эксперт в управлении разработкой ПО, PMP® PMI, вице-президент Гильдии менеджеров программных проектов.
Несколько фактов об опыте тренера:
В разработке ПО более 30 лет. Создавал имитационные модели сложных космических систем в Центре управления полетами. Руководил коммерческой разработкой ПО и проектами организационного развития в компаниях PriceWaterhouseCoopers, Luxoft, CBOSS. Выполнял проекты по заказу Европейского космического агентства, «Даймлер-Бенц Аэроспейс», корпорации «Боинг», ЦБ РФ, ОАО «Газпром».
Автор 5 книг, более 100 статей, докладов и учебных курсов по информационным технологиям и управлению программными проектами. Постоянный участник конференций по проблемам разработки ПО. Доклады на конференциях SEF-2009 (Минск, Беларусь), PM-Labs 2009 (Киев, Украина), CEE-SECR 2009 (Москва, Россия), SPM Conf 2011 (Санкт-Петербург, Россия) признаны лучшими по оценкам участников.
Описание мастер-класса:
Неадекватные оценки трудоемкости и срока разработки ПО послужили причиной провала многих программных проектов. Профессор А.Н. Терехов в своем отзыве на мою книгу «Лекции по управлению программными проектами» назвал метод определения объема будущего ПО на основе анализа функциональных точек «несколько шарлатанской идеей». Я докажу, что это не так. Это не шарлатанство, это – шаманство! Об этом и других подходах к оценке программных проектов, о влиянии на оценки масштаба проекта и сложности продукта пойдет речь на мастер-классе.
Как оценить время на тестирование. Александр Зиновьев, Test Lead SoftengiSoftengi
Презентация Александра Зиновьева, Test Lead компании Softengi, на семинаре "Оценка в жизни тестировщика" от тренинговой центра QAS Training Center, который прошел 27 ноября в пространстве Циферблат, Киев.
Оценка проектов: шарлатанство или шаманство (Сергей Архипенков)Alexander Orlov
Оценка проектов: шарлатанство или шаманство?
Ведущий мастер-класса: Сергей Архипенков – эксперт в управлении разработкой ПО, PMP® PMI, вице-президент Гильдии менеджеров программных проектов.
Несколько фактов об опыте тренера:
В разработке ПО более 30 лет. Создавал имитационные модели сложных космических систем в Центре управления полетами. Руководил коммерческой разработкой ПО и проектами организационного развития в компаниях PriceWaterhouseCoopers, Luxoft, CBOSS. Выполнял проекты по заказу Европейского космического агентства, «Даймлер-Бенц Аэроспейс», корпорации «Боинг», ЦБ РФ, ОАО «Газпром».
Автор 5 книг, более 100 статей, докладов и учебных курсов по информационным технологиям и управлению программными проектами. Постоянный участник конференций по проблемам разработки ПО. Доклады на конференциях SEF-2009 (Минск, Беларусь), PM-Labs 2009 (Киев, Украина), CEE-SECR 2009 (Москва, Россия), SPM Conf 2011 (Санкт-Петербург, Россия) признаны лучшими по оценкам участников.
Описание мастер-класса:
Неадекватные оценки трудоемкости и срока разработки ПО послужили причиной провала многих программных проектов. Профессор А.Н. Терехов в своем отзыве на мою книгу «Лекции по управлению программными проектами» назвал метод определения объема будущего ПО на основе анализа функциональных точек «несколько шарлатанской идеей». Я докажу, что это не так. Это не шарлатанство, это – шаманство! Об этом и других подходах к оценке программных проектов, о влиянии на оценки масштаба проекта и сложности продукта пойдет речь на мастер-классе.
Как оценить время на тестирование. Александр Зиновьев, Test Lead SoftengiSoftengi
Презентация Александра Зиновьева, Test Lead компании Softengi, на семинаре "Оценка в жизни тестировщика" от тренинговой центра QAS Training Center, который прошел 27 ноября в пространстве Циферблат, Киев.
Пусть не каждый день, но довольно часто, мы сталкиваемся с задачей оценить ту или иную работу по тестированию. Вы скажете - как это связано с тестированием? Но, иногда, из-за слишком сжатых сроков приходится сверхурочно дорабатывать или сдавать некачественный продукт. Все потому, что эстимейты делали не вы, или же вы, но по какой-то причине некачественно. В докладе я расскажу об эстимации тестовых задач для тестировщиков. Как подходить к задаче и ее декомпозиции, какие приемы позволяют повысить их точность. Попробуем на примерах определить границу между хорошими эстимейтами и не очень. Также, я надеюсь, что у нас получится обсудить пару тройку интересных вопросов по этой теме.
Доклад Александры Ковалевой, Test Lead в QA Service, Softengi, Украина.
В презентации представлен симбиоз теории планирования и практического опыта компании QA Service в оценке трудозатрат на тестирование.
Руководители отдела тестирования, ведущие тестировщики узнают:
Чем отличаются стратегические, тактические и оперативные планы? - Что такое планирование с точки зрения тестировщика?
Кто в отвечает за планирование трудозатрат на тестирование?
Какие существуют методы оценки?
Всегда ли имеет смысл детальное планирование и оценка?
Подводные камни планирование сроков тестирования и связь с другими активностями проекта.
Как начать внедрение системы планирования и оценки «снизу»?
Тестировщикам доклад поможет посмотреть на оценку сроков с точки зрения менеджмента и ответить на вопросы:
Как я оцениваю свои задачи? Как это делают другие? Можно ли что-то улучшить?
Как заставить лида перестать спрашивать о сроках?
Чем отличаются трудозатраты на выполнение задачи и сроки завершения задачи. Как сдавать задачи в срок?
Test labs 2016. Пренебрежение лучшими практиками тестированияSasha Soleev
"Лучшие практики" тестирования, чем они хороши, примеры;
Что плохого в их несоблюдении;
Когда можно ими пренебречь, риски нарушения;
Примеры: нивелирование рисков тестирования в Agile-подходе.
Автор: Григорий Сенин
Оптимизация процесса тестирования с использованием аналитических подходов RCA...Aleksandr Meshkov
Достаточно часто многие организации проводят аудиты или оценки зрелости своего процесса тестирования с целью повышения его эффективности. Такие модели, как TMMI, TPI Next и другие, позволяют оптимизировать процесс тестирования, но насколько эффективно будет ваше решение, основанное на общих практиках? Поможет ли оно именно вашему процессу тестирования?
Многие сталкивались с проблемами того, что мировые практики не всегда подходят для решения именно ваших проблем в процессе тестирования. Поэтому, я расскажу вам об абсолютно другом подходе к оптимизации процесса тестирования, основанного на аналитических моделях RCA и GQM, которые на самом низком уровне определяют причины ваших проблем, что позволяет "точечно" решать конкретные задачи, тем самым повышая эффективность принимаемых вами решений для совершенствования процесса тестирования.
Test labs 2016. QA в тотальном аутсорсеSasha Soleev
Мы привыкли работать с информацией от заказчиков, от разработчиков, с документацией. Но что делать, когда вы оказались в ситуации информационного вакуума? Как продолжать работать и развиваться, как мотивировать команду и себя, а также какие бонусы можно найти в такой обстановке – всё это мы обсудим в рамках данного доклада.
Автор: Ольга Пронина
2013.08.24 Антон Киселёв семинар "Agile (Scrum)"Alexey Fedorov
Антон Киселёв (Undev, Tester's Life) сделал для SPB SQA Group обзорный доклад о Agile и Scrum. В презентации много ссылок на истоки, прошлое, настоящее и тендеции будущего Scrum
Пусть не каждый день, но довольно часто, мы сталкиваемся с задачей оценить ту или иную работу по тестированию. Вы скажете - как это связано с тестированием? Но, иногда, из-за слишком сжатых сроков приходится сверхурочно дорабатывать или сдавать некачественный продукт. Все потому, что эстимейты делали не вы, или же вы, но по какой-то причине некачественно. В докладе я расскажу об эстимации тестовых задач для тестировщиков. Как подходить к задаче и ее декомпозиции, какие приемы позволяют повысить их точность. Попробуем на примерах определить границу между хорошими эстимейтами и не очень. Также, я надеюсь, что у нас получится обсудить пару тройку интересных вопросов по этой теме.
Доклад Александры Ковалевой, Test Lead в QA Service, Softengi, Украина.
В презентации представлен симбиоз теории планирования и практического опыта компании QA Service в оценке трудозатрат на тестирование.
Руководители отдела тестирования, ведущие тестировщики узнают:
Чем отличаются стратегические, тактические и оперативные планы? - Что такое планирование с точки зрения тестировщика?
Кто в отвечает за планирование трудозатрат на тестирование?
Какие существуют методы оценки?
Всегда ли имеет смысл детальное планирование и оценка?
Подводные камни планирование сроков тестирования и связь с другими активностями проекта.
Как начать внедрение системы планирования и оценки «снизу»?
Тестировщикам доклад поможет посмотреть на оценку сроков с точки зрения менеджмента и ответить на вопросы:
Как я оцениваю свои задачи? Как это делают другие? Можно ли что-то улучшить?
Как заставить лида перестать спрашивать о сроках?
Чем отличаются трудозатраты на выполнение задачи и сроки завершения задачи. Как сдавать задачи в срок?
Test labs 2016. Пренебрежение лучшими практиками тестированияSasha Soleev
"Лучшие практики" тестирования, чем они хороши, примеры;
Что плохого в их несоблюдении;
Когда можно ими пренебречь, риски нарушения;
Примеры: нивелирование рисков тестирования в Agile-подходе.
Автор: Григорий Сенин
Оптимизация процесса тестирования с использованием аналитических подходов RCA...Aleksandr Meshkov
Достаточно часто многие организации проводят аудиты или оценки зрелости своего процесса тестирования с целью повышения его эффективности. Такие модели, как TMMI, TPI Next и другие, позволяют оптимизировать процесс тестирования, но насколько эффективно будет ваше решение, основанное на общих практиках? Поможет ли оно именно вашему процессу тестирования?
Многие сталкивались с проблемами того, что мировые практики не всегда подходят для решения именно ваших проблем в процессе тестирования. Поэтому, я расскажу вам об абсолютно другом подходе к оптимизации процесса тестирования, основанного на аналитических моделях RCA и GQM, которые на самом низком уровне определяют причины ваших проблем, что позволяет "точечно" решать конкретные задачи, тем самым повышая эффективность принимаемых вами решений для совершенствования процесса тестирования.
Test labs 2016. QA в тотальном аутсорсеSasha Soleev
Мы привыкли работать с информацией от заказчиков, от разработчиков, с документацией. Но что делать, когда вы оказались в ситуации информационного вакуума? Как продолжать работать и развиваться, как мотивировать команду и себя, а также какие бонусы можно найти в такой обстановке – всё это мы обсудим в рамках данного доклада.
Автор: Ольга Пронина
2013.08.24 Антон Киселёв семинар "Agile (Scrum)"Alexey Fedorov
Антон Киселёв (Undev, Tester's Life) сделал для SPB SQA Group обзорный доклад о Agile и Scrum. В презентации много ссылок на истоки, прошлое, настоящее и тендеции будущего Scrum
Светлана Мухина, Метрики в Agile проектахScrumTrek
Я думаю, что чем сложнее метрика, тем проще ее подвести под необходимые результаты. Зачастую достаточно немного исказить одно не самое важное значение в формуле расчета и в итоге на больших числах можно получить приличное искажение. С помощью визуализации метрик тоже можно оказывать влияние и изменять мнение в необходимую вам сторону. И тут возникает вопрос #2 - "Что делать?" Использовать или не использовать метрики. Возможно, вы найдете для себя ответ на этот вопрос в моем докладе про очень простые метрики: -capacity - кол-во идеальных часов доступное в итерацию; -velocity - количество сделанной работы в стори поинтах или других "попугаях"; -burn-down - прогресс команды на данный момент, сколько сделали и сколько осталось; -индекс стабильности требований - как часто меняются требования; И еще поделюсь своим мнением о том, какая может быть польза команде от заполнения системы учета времени; Я расскажу, как мы собираем эти метрики на проектах и что нам это дает. Например, иногда они помогают найти ответ на вопрос #1 "Кто виноват?" (это шутка).
My main goal is to share and make you experiment some of the techniques that I use when transforming teams into high-perfoming agile teams, by providing you with four (4) different ways to estimate projects in Agile.
Методические рекомендации по внедрению проектного управления в органах властиAndrey Badin
Методические рекомендации по внедрению проектного управления в органах власти, презентация на Совете по внедрению проектного управления в органах власти. Подробности работы по Методическим рекомендациям см. в блоге http://www.pmservices.ru/#!blog/c1xai
Практика внедрения проектного управления в исполнительных органах государстве...ProjectPractice2013
1. Текущее состояние и основные тенденции развития проектного управления в государственном секторе РФ
2. Ключевые особенности внедрения проектного управления в ИОГВ
3. Дорожная карта внедрения проектного управления на региональном уровне
4. Рассмотрение типовых проблем и способов их решения при реализации дорожной карты внедрения проектного управления на региональном уровне
Мы обсудим основные виды тестовой документации, зачем и почему они нужны, кратко поговорим о том почему нужны тест планы и в каком виде. Узнаем для каких задач какую тест документацию стоит выбрать. Поговорим об эффективных принципах и подходах к построению наборов тест-кейсов и чек-листов. Затронем тему отчетности и, конечно же, поговорим о типичных ошибках.
http://cmcons.com
http://uml2.ru
Методы оценки качества требований и работы аналитика
семинар 15 июня 2010 года - «ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ IBM RATIONAL ДЛЯ УЛУЧШЕНИЯ ПРОЦЕССОВ РАЗРАБОТКИ И СОПРОВОЖДЕНИЯ ПО»
Test Strategy: creation and optimization - QA Fest-2017 (Тестовая стратегия: ...Andrey Ladutko
Тест-менеджер ставит перед собой и командой долгосрочные и сложные цели. Например, как выбрать и соединить вместе изученные техники и виды тестирования, как понять, почему в одних условиях у нас получилось провести “качественное” тестирование, а в других нет? Как понять, будет ли эффективна автоматизация на проекте прежде, чем вложиться человека-годами в Фреймворк и тесты? Ответы на эти вопросы находятся в «стратегии тестирования». Она есть у каждой команды, пусть и не в осознанном и формализованном виде. Поэтому нужно научиться пользоваться этим инструментом, уметь как составлять тестовую стратегию с нуля на проекте, так и оптимизировать уже существующую стратегию.
QA Fest 2017. Андрей Ладутько.Тестовая стратегия: создание и оптимизацияQAFest
Тест-менеджер ставит перед собой и командой долгосрочные и сложные цели. Например, как выбрать и соединить вместе изученные техники и виды тестирования, как понять, почему в одних условиях у нас получилось провести “качественное” тестирование, а в других нет? Как понять, будет ли эффективна автоматизация на проекте прежде, чем вложиться человека-годами в Фреймворк и тесты? Ответы на эти вопросы находятся в «стратегии тестирования». Она есть у каждой команды, пусть и не в осознанном и формализованном виде. Поэтому нужно научиться пользоваться этим инструментом, уметь как составлять тестовую стратегию с нуля на проекте, так и оптимизировать уже существующую стратегию.
Test Labs 2009. Налютин Никита. Тестирование, как средство противодействия вн...Nikita Nalyutin
В реальной жизни тестировщики часто сталкиваются с ситуацией, когда требования к системе меняются постоянно, сроки разработки сжаты, а 100% покрытие недостижимо – не потому, что заказчик не знает, чего хочет, а потому что постоянно меняется среда, в которой работает система, и потому что опоздать – хуже, чем ошибиться. Здесь приходится говорить о достаточном уровне надежности, приоритетах и принятии определенной доли риска.
Классическая литература такие ситуации часто обходит: считается, что четко определенный процесс тестирования в подобных условиях не существует. На самом деле процесс есть, он просто другой. Целью становится не полное покрытие и документальное подтверждение следования технологии, а постоянная оценка и пересмотр критических мест системы, поддержание целостной информации о ее состоянии, ее функциональности и дефектах. В докладе пойдет речь о возможной организации такого процесса при помощи GTD, управления конфигурациями и быстрой визуальной оценки состояния системы.
18. Ищем, что посчитать
• Количество бизнес-процессов
• Количество строк кода
• Количество входов-выходов
• Количество ХП
• Количество подсистем
• Количество модулей
33. Что можем посчитать
• Количество файлов
• Объём кода в Мб
• Количество ХП
• Количество пунктов меню (вариантов
использования)
• Количество экранных форм
• Количество печатных форм
34. Что можем вычислить
• Оценить среднее соотношение строк кода и
объёма файлов (файлы содержат ещё и
ресурсы)
36. Как можем уточнить
• Анализ наиболее рискованных вариантов
использования (экспертный анализ)
37. Что оцениваем
• Аналитика
• Разработка
• Тестирование
• Управление
38. Вводим поправки
• Ищем повторяющиеся действия –
сокращаем оценки
• Не забываем про фреймворк – базовая
архитектура
39.
40. Исходные данные
• Длительность предыдущей фазы: 15 мес.
• Количество старых требований: 502
• Команда уменьшилась в 2 раза
• Количество новых требований: 250
• Время на оценку – 2 дня
Задача – определить стоимость всех работ
41. Грубая интегральная оценка
1 требование разрабатывалось:
15 мес. / 502 треб. = 0,62 дня
1 требование новой командой:
0,62 дня * 2 = 1,24 дня
Новый scope:
1,24 дня * 250 = 308 дней ~ 15 мес.
42. Грубая интегральная оценка
Корректировка на проблемы внедрения
(эмпирически)
308 дней * 1,2 = 370 дней ~ 17,5 мес.
Общая трудоёмкость:
17,5 мес * 54 чел = 945 чел*мес
44. Ранжирование требований
Новые Детализация Доля от Коэффициент Старых
требования общего соответствия требований в
количества диапазоне
166 высокая 65% 0.13 12
23 не очень 9% 0.17 4
36 средняя 14% 0.67 25
9 более 5% 0.56 5
среднего
11 сильно общие 5% 2.07 22
5 абстрактные 2% 1.11 6
45. Уточнённая оценка
• 250 новых требования соответствуют 74-ём
старым требованиям
945 чел*мес * (74 / 250) = 280 чел*мес
46. Описание результата
• Без технического и функционального
анализа задач
• Без учёта проектных факторов (команда,
баги, регрессии)
• Без учёта внепроектных факторов (болезни,
отпуска и пр.)
• Только на основе предыдущего опыта!
• Но закон больших чисел на нашей стороне.
47. Повышение атомарности задач
Предыдущий этап:
• Не позволял манипулировать задачами
• Не учитывал специфику «несредних задач»
• Был слишком непрозрачен для Заказчика
48. Оценка индивидуальных задач
• Разбиваем на аналитику, разработку,
тестирование
• Ранжируем на уровни сложности:
– элементарный
– лёгкий
– средний
– тяжёлый
– очень тяжёлый
49. Оценка индивидуальных задач
Уровень сложности % от средней Трудоёмкость, чч
разработки* трудоёмкости
Элементарная (1) 25 47
Лёгкая (2) 50 94
Средняя (3) 100 188
Тяжёлая (4) 200 376
Очень тяжёлая (5) 400 752
* То же для аналитики и тестирования
50. Оценка задач
Разработка Аналитика Тестирование
Задача
R E, чч R E, чч R E, чч
Задача 1 1 47 1 4 1 47
Задача 2 2 94 2 16 2 94
Задача 3 1 47 4 28 1 47
Задача 4 3 188 3 20 3 188
Задача 5 3 188 2 16 2 188
Задача 6 3 188 4 28 2 188
Задача 7 4 376 4 28 3 376
Задача 8 0 0 2 16 0 0