2. План доклада
1. Почему много данных не бывает.
2. Получение данных:
- о техническом состоянии сайта;
- контенте;
- ссылочной массе;
- конкурентах;
- репутации в сети.
3. Отчетность и сводный анализ полученных данных.
6. Идеальный вариант
1. Данных ровно столько, сколько нужно.
2. Нет лишнего мусора.
3. Нет проблемы с хранением избыточных данных.
7. Первый шаг в построении системы мониторинга -
планирование
Что можем
собрать?
Что нужно
собрать? Сторонний
источник
Наша
БД
Это не Google
Analytics или Яндекс.
Метрика
9. Во что превратится набросок?
На выходе мы хотим получить:
● автоматизированную;
● систему принятия решений;
● с максимальной достоверностью;
● доступных данных.
10. Собираем данные о техническом состоянии сайта
1. Свой парсер или готовые решения, позволяющие выгружать
данные в базу данных:
2. Получаем данные по API с автоматической проверкой
(например, из Google Search Console)
12. В нашей системе появились первые данные
Технические проблемы
13. Собираем данные о контенте сайта
1. Свой парсер изменений в контенте сайта, который умеет складывать
данные в базу данных:
14. Собираем данные о контенте сайта
2. Получаем сторонние данные и автоматически их проверяем:
15. Собираем данные о контенте сайта
3. Измеряем потребление контента и его качество:
16. Собираем данные о контенте сайта
4. Просим посетителей помочь найти ошибки:
17. Собираем данные о контенте сайта
5. Получаем данные о семантике:
https://prodvigator.ru/keywords/search?query=wikimart.ru&format=html_tree
18. В нашей системе появились данные о контенте
Технические проблемы
Проблемы с контентом
19. Собираем данные о ссылочной массе
Источников много, но и много шума:
20. Собираем данные о ссылочной массе
Начать стоит с проверки есть ли ссылка на домен:
Простой вариант - функция IMPORTXML в Google Sheets:
21. Собираем данные о ссылочной массе
Проверяем данные о параметрах доноров:
Качество своей ссылочной массы лучше знать :)
22. В нашей системе появились данные о ссылках
Технические проблемы
Проблемы с контентом
Ссылки
23. Собираем данные о конкурентах
1. Ваши парсеры должны уметь парсить не только вас, но и конкурентов:
● технические проблемы;
● контент;
● внешние данные о ссылочно массе;
● изменения цен;
● другие необходимые вам данные.
2. Как можно это быстро сделать:
http://blog.netpeak.ru/avtomatizirovanniy-parsing-saytov-s-pomoshchyu-kimono-
i-tablits-google/
25. Собираем данные о конкурентах
Что может получиться:
https://prodvigator.ru/site/api/40
26. В нашей системе появились данные о состоянии
рынка
Технические проблемы
Проблемы с контентом
Ссылки
Цены на рынке
27. Собираем данные о нашей репутации
1. Парсим выдачу по брендовым запросам, связанным с отзывами и
репутацией.
2. Мониторим упоминания бренда в социальных сетях, поисковых
системах, сторонних сайтах.
3. По собранным данным определяем тональность упоминаний бренда.
28. Собираем данные о нашей репутации
4. Смотрим “репутацию” тематик нашего сайта.
Пример:
получаем данные из Твиттера по хештегам, связанным с нашим
продуктом, и оцениваем общее впечателение от него без привязки к
конкретному продавцу.
29. Данные репутации тоже собрали
Технические проблемы
Проблемы с контентом
Ссылки
Цены на рынке
Нас все
любят