Alexander Dzyuba, CEO, Sense.Vision
Evgeniy Tur, Sense.Vision
How to collect user feedback for decision making by game designer and game producer. Rules of research methodology picking and questions formulation. Dramatic differences from colloquial language.
Striking data garbling during data collection, caused by wrong actions – results of provocative experiments with innocent players.
5. Задача - точные метрики, тонкая настройка математики
(ARPU, Retention%, DAU, MAU и т.п.)
- Need 4 BIG DATA
- НЕТ инсайтов о причинах поведения игрока
- НЕТ информации об эмоциях и восприятии проблем
Игровая аналитика
7. + слабые механизмы удержания игрока (недостаточно
мотивации вернуться в игру)
+ нечестная сложность - поражения ощущаются как
удача противника, а не скилл
+ однообразный игровой процесс (недостаточно
развлечений/фичей)
Возможные гипотезы
9. + негативный опыт первой покупки
(неудовлетворенность):
+ ожидал другого эффекта в игре
+ игра с купленным бустером кажется слишком легкой
+ нет необходимости в дополнительной покупке -
достаточно ресурсов
+ второе предложение значительно уступает по
выгодности первому в глазах потребителя
Возможные гипотезы
13. Задача - маркетинг, инсталлы на лонче, PvP
- Гиперлояльность
- Знание планов
- Персонализированное отношение
- Фрагментарные данные
Бета-тест (комьюнити)
14. слышно только самых
громких и лояльных
нужно постоянно
давать контент
поздняя стадия
разработки
Бета-тест (комьюнити)
Igor Klyukin (Pixonic)
What Went Wrong
While Developing War Robots
15. Задача - получить недостающие знания
- опыт и знания
- высокая вовлеченность
- питч издателям и инвесторам
Фидбек от коллег
17. 5 друзей
Snail Bob 5 Adventure
20 минут игровая сессия
разработчик проводит
опрос
Friends & Family
все данные эксперимента
http://experiment.sense.vision
18. Задача - личная поддержка )
- несоответствие ЦА
- неискренние ответы
- фидбек зависит от отношений
- краткая и обрывочная информация
- неправильно заданные вопросы
Friends & Family
все данные эксперимента
http://experiment.sense.vision
21. Планирование проекта
Выбор ЦА игры
Потребительские практики
Каналы информирования
Референтные группы
Оценка и выбор игры ЦА
Драйверы, триггеры, барьеры
Видение идеальной игры
29. Один вопрос за раз
Нейтральность вопросов
Однозначность формулировки
Уточняющие вопросы
Как задавать вопросы
30. Правильно
Открытые вопросы
Что Вы думаете об этом?
Как бы Вы описали систему
прогресса в игре?
Уточняющие вопросы
Что именно в интерфейсе Вам
непонятно?
31. Неправильно
Закрытые вопросы
Вам понравилась игра?
Наводящие вопросы
Понятно ли, что цель игры состоит в наборе
максимального количества очков?
Вопросы о будущем
Будете играть, если добавят метагейм?
32. ЦА - строго под проект
игроки не боятся обидеть разработчика
независимая оценка игры
подробная и всесторонняя информация
опытные интервьюеры
Плейтест
38. знают методологию
помнят вопросы
заранее готовят ответы
смещен фокус во время игры
= измененное восприятие игры
Повторный плейтест
все данные эксперимента
http://experiment.sense.vision
39. Как бывает
Можно провести через
Длится
Стоит
Риск
Результат
Софт-лонч
1 год
1 месяц
$4k
$120k
Гипотеза
Плейтест
2 месяца
1 неделю
$2k
$10k
Знание
40. Задачи Ответы Достоверность Точность
Игровая аналитика нет да да
Коллеги да вероятно нет
Friends&Family да нет нет
Beta-Test вероятно вероятно нет
Панелисты да вероятно нет
Плейтесты да да вероятно
Границы