Подсматриваем идеи у экономных и
успешных, дружим c Google Fred
Трафик из Google c
минимальными затратами
Алексей Трудов, 2017
EN-проекты это
дорого
◉ 15 - 100$ в час ставка native speaker
◉ 10$ в месяц стоит ссылка с очень среднего
сайта (100 ссылок - 1000$/месяц)
◉ Автоматизации линкбилдинга практически
нет
Поищем другой путь?
Успешные кейсы2
sports-management-degrees.com
Cтатейник как статейник
А тем временем видимость
бодро растет
Чем примечателен?
◉ Домену 4 года
◉ 400 страниц
◉ MegaIndex Domain Rank - 14; Moz - 28 (негусто!)
580 000 посетителей/месяц в США
По основному запросу
“sport management
degree” 4 блока
рекламы, а первые две
позиции занимает наш
сайт.
Как удалось?
◉ Узкая ниша без прямых конкурентов
◉ Под важные темы - объемные материалы
◉ Бесплатные ссылки с .edu на “рейтинг”
Но контент все равно уникальный! Нельзя ли
сэкономить и на нем?..
Кейс №2:
stockmarketclock.com
◉ Ниша - фондовый рынок, платежеспособная
ЦА
◉ Возраст меньше года (!)
◉ Moz DA - 5, Megaindex - 6
70 000 посетителей/месяц только в США (а
запросы геонезависимые)
1600 шаблонных страниц
◉ Свой url для каждого пересечения биржа + праздник
◉ Страницы готовятся заранее:
https://www.stockmarketclock.com/exchanges/asx/mar
ket-holidays/2020
Соотношение затраты/трафик фантастическое!
500$
за клик - в порядке вещей
7 000 000
страниц в индексе у топовых агрегаторов
14 лет
средний возраст домена
injuryclaimcoach.com
◉ Домену 3 года
◉ Ссылки безанкор/бренд, Megaindex - 31, Moz DA - 35
◉ Без https, адаптивность появилась пару недель назад
380 000 посетителей/месяц в США
Явно где-то подвох...
Зеркало с 12-летней
историей!
На самом деле важнее
другое
◉ Добросовестно написанный уникальный
контент
◉ Работа с UGC: собирают вопросы посетителей
◉ Тотальный охват семантики
/car-accident-reports.html -
300 ключей частотностью от 50
Охват семантики
Продвигаемся по ключам, с
которыми мало кто работает.
Такие есть и в
суперконкурентных темах.
Итого, 2 составляющие
успешного проекта
Усиливающий “хак”
Рейтинг для генерации
обратных ссылок,
тщательная проработка
шаблона, UGC-контент.
Соблазн: “сделаем кое-как 10 миллионов
страниц”
Что скажет Google
Fred?3
Все, что достоверно известно про Google Fred:
а) шуточный твит Gary Illyes
б) тряска в феврале-марте
Где найти
пострадавших?
История
видимости в
Serpstat
Возможен анализ
ключей
Только через API; не
факт что дело в
Fred-е
Открытые
счетчики
Высокая точность
Преимущественно
Рунет
Обсуждения на
форумах
Доп. данные от
владельца
Смещенная выборка
Пример 1: сайт с UGC
◉ Вполне качественный старый проект
◉ Реклама размещена умеренно
◉ Множество сообщений со ссылкой на
подозрительные сайты
Пример 2: каталог фирм
◉ Около миллиона страниц
◉ Без отзывов, рейтинга или другой доп.
информации
◉ Множество похожих проектов в выдаче
Пример 3: сайт клиники
◉ Коммерческий, рекламы нет
◉ В основном неуникальные статьи
◉ В марте попал под Баден-Баден от Яндекса
Что дал анализ 116
проблемных проектов:
◉ Похоже на хостовый фильтр
◉ Самые разные проекты, в том числе без рекламы
◉ Множество страниц с
неуникальным/малоценным/спамным контентом
Соотношение “хорошие”/”плохие” url - рабочий
критерий?
“Хорошие”
◉ Уникальный текст
◉ От 1000 слов
◉ Экспертность
◉ Естественность
Что такое хорошо и
что такое плохо
“Плохие”
◉ Copy-paste, генережка
◉ Малый объем
◉ “Вода”
◉ Избыток ключей
На самом деле нет.
Хорошая страница - та, которая решает задачи
пользователя. Плохая - которая не решает.
Нужно учитывать специфику запросов, на
которые отвечает страница.
Кто выиграл от
Google Fred4
Пример 1: сайт сделан из
книги
◉ Дизайна - нет
◉ Структуры - нет
◉ Контент заведомо неуникален
◉ Много уникальных комментариев
Пример 2: истории
болезней
◉ Сделан непрофессионально
◉ Оптимизации практически нет
◉ Весь состоит из медицинских выписок с
затертыми персональными данными
Пример 3: интернет-
магазин
◉ Несколько десятков тысяч страниц
◉ В индексе огромное количество пустых
страницы под разные регионы: url есть, но
товаров нет
◉ Узкая ниша
2%
страниц приносят трафик у “плохих”
*Рассматривались сайты размером более 1000 страниц. Результаты
ориентировочные - в обеих группах большая дисперсия. Но тенденция
очевидна.
10%
страниц приносят трафик у
выросших на фоне Fred
В конкурентной выдаче
◉ Дающая полный ответ
◉ С авторитетными бэками
◉ С хорошими ПФ
Итак, “хорошая” страница...
В пустой выдаче
Любая, сколько-нибудь
релевантная
А вдруг все не так?
Эксперимент5
Я сделал ПЛОХОЙ сайт
◉ 60 000 страниц с copy-paste
◉ 110 000 соорудил генератором по шаблону
(уникальность 10%)
◉ Еще 10 000 страниц листингов
Затраты: 2000 рублей программисту +
неделя на домен, сервер, счетчики…
Большинство факторов
ранжирования на нуле
◉ Контент растиражирован на тысячах старых
сайтов
◉ Ссылок нет вообще
◉ Возраст домена - полтора месяца
Зато генережка заточена под НЧ-запросы,
где конкуренции практически нет
В индекс без внешних
ссылок: подготовка
1. 5000 хабовых страниц на 1-2 уровнях вложенности
2. Тройная кольцевая перелинковка
3. Last-Modified и If-Modified-Since
4. Сократить JS и CSS
Googlebot на молодых сайтах довольно ленив!
Анализ логов - ключ к оптимизации crawl budget
“Важные” - с большим числом ссылок на другие
страницы и большим количеством контента
Трафик растет с первого дня (+ 300 визитов в неделю)
Для теста добавлено 6 уникальных статей
№ Позиция по главному
ключу
Конкурентов по главному
ключу
Цитатный поиск в ТОП-3
1 28 339 000 10/10
2 15 1 830 000 10/10
3 >100 33 300 000 8/10
4 42 485 000 10/10
5 63 6 430 000 10/10
6 44 729 000 10/10
Проблем нет. Гипотеза имеет право на жизнь
Как искать ниши6
1 этап: подбор фраз-
маркеров
◉ Смотрим лидеров по главной фразе темы
◉ Снимаем в Serpstat/Semrush их фразы в ТОП
◉ Убираем низкочастотные
◉ Убираем дешевые
2 этап: подбор кандидатов
на анализ
◉ Парсим выдачу по каждому ключу (ТОП-30),
например KeyCollector-ом
◉ Берем домены, встретившиеся в выгрузке хотя бы
2 раза: https://bez-bubna.com/free/domains.php
◉ Из них оставляем только с возрастом до 2-4 лет:
http://www.bulkseotools.com/bulk-check-domain-
age.php
3 этап: оценка кандидатов. Хорошо подходит
Serpstat
В итоге остается 10-20 сайтов на ручной
анализ.
Как анализировать
1. Мало ссылок? (не забываем о зеркалах!)
2. Легко создать аналог по контенту?
3. Можно добавить страниц “под Фреда”?
Главное
◉ Иногда хватает шаблонного контента без ссылок.
Охват семантики + хак = !
◉ Fred смотрит на “хорошие”/”плохие” страницы
◉ Запросы и конкуренция влияют на оценку качества
◉ Парсинг выдачи -> юные кандидаты с трафиком -> 3
“да” - отличная ниша
Контакты
◉ Блог: alexeytrudov.com
◉ Анализ сайта: bez-bubna.com
◉ Консультации: optimumprofit.ru
Спасибо за внимание!

Как собрать трафик из Google с минимальными усилиями

  • 1.
    Подсматриваем идеи уэкономных и успешных, дружим c Google Fred Трафик из Google c минимальными затратами Алексей Трудов, 2017
  • 2.
    EN-проекты это дорого ◉ 15- 100$ в час ставка native speaker ◉ 10$ в месяц стоит ссылка с очень среднего сайта (100 ссылок - 1000$/месяц) ◉ Автоматизации линкбилдинга практически нет Поищем другой путь?
  • 3.
  • 4.
  • 5.
    А тем временемвидимость бодро растет
  • 6.
    Чем примечателен? ◉ Домену4 года ◉ 400 страниц ◉ MegaIndex Domain Rank - 14; Moz - 28 (негусто!) 580 000 посетителей/месяц в США
  • 7.
    По основному запросу “sportmanagement degree” 4 блока рекламы, а первые две позиции занимает наш сайт.
  • 8.
    Как удалось? ◉ Узкаяниша без прямых конкурентов ◉ Под важные темы - объемные материалы ◉ Бесплатные ссылки с .edu на “рейтинг” Но контент все равно уникальный! Нельзя ли сэкономить и на нем?..
  • 9.
    Кейс №2: stockmarketclock.com ◉ Ниша- фондовый рынок, платежеспособная ЦА ◉ Возраст меньше года (!) ◉ Moz DA - 5, Megaindex - 6 70 000 посетителей/месяц только в США (а запросы геонезависимые)
  • 11.
    1600 шаблонных страниц ◉Свой url для каждого пересечения биржа + праздник ◉ Страницы готовятся заранее: https://www.stockmarketclock.com/exchanges/asx/mar ket-holidays/2020 Соотношение затраты/трафик фантастическое!
  • 12.
    500$ за клик -в порядке вещей 7 000 000 страниц в индексе у топовых агрегаторов 14 лет средний возраст домена
  • 13.
    injuryclaimcoach.com ◉ Домену 3года ◉ Ссылки безанкор/бренд, Megaindex - 31, Moz DA - 35 ◉ Без https, адаптивность появилась пару недель назад 380 000 посетителей/месяц в США Явно где-то подвох...
  • 14.
  • 15.
    На самом делеважнее другое ◉ Добросовестно написанный уникальный контент ◉ Работа с UGC: собирают вопросы посетителей ◉ Тотальный охват семантики /car-accident-reports.html - 300 ключей частотностью от 50
  • 17.
    Охват семантики Продвигаемся поключам, с которыми мало кто работает. Такие есть и в суперконкурентных темах. Итого, 2 составляющие успешного проекта Усиливающий “хак” Рейтинг для генерации обратных ссылок, тщательная проработка шаблона, UGC-контент. Соблазн: “сделаем кое-как 10 миллионов страниц”
  • 18.
  • 19.
    Все, что достоверноизвестно про Google Fred: а) шуточный твит Gary Illyes б) тряска в феврале-марте
  • 20.
    Где найти пострадавших? История видимости в Serpstat Возможенанализ ключей Только через API; не факт что дело в Fred-е Открытые счетчики Высокая точность Преимущественно Рунет Обсуждения на форумах Доп. данные от владельца Смещенная выборка
  • 21.
    Пример 1: сайтс UGC ◉ Вполне качественный старый проект ◉ Реклама размещена умеренно ◉ Множество сообщений со ссылкой на подозрительные сайты
  • 22.
    Пример 2: каталогфирм ◉ Около миллиона страниц ◉ Без отзывов, рейтинга или другой доп. информации ◉ Множество похожих проектов в выдаче
  • 23.
    Пример 3: сайтклиники ◉ Коммерческий, рекламы нет ◉ В основном неуникальные статьи ◉ В марте попал под Баден-Баден от Яндекса
  • 24.
    Что дал анализ116 проблемных проектов: ◉ Похоже на хостовый фильтр ◉ Самые разные проекты, в том числе без рекламы ◉ Множество страниц с неуникальным/малоценным/спамным контентом Соотношение “хорошие”/”плохие” url - рабочий критерий?
  • 25.
    “Хорошие” ◉ Уникальный текст ◉От 1000 слов ◉ Экспертность ◉ Естественность Что такое хорошо и что такое плохо “Плохие” ◉ Copy-paste, генережка ◉ Малый объем ◉ “Вода” ◉ Избыток ключей
  • 26.
    На самом деленет. Хорошая страница - та, которая решает задачи пользователя. Плохая - которая не решает. Нужно учитывать специфику запросов, на которые отвечает страница.
  • 27.
  • 28.
    Пример 1: сайтсделан из книги ◉ Дизайна - нет ◉ Структуры - нет ◉ Контент заведомо неуникален ◉ Много уникальных комментариев
  • 29.
    Пример 2: истории болезней ◉Сделан непрофессионально ◉ Оптимизации практически нет ◉ Весь состоит из медицинских выписок с затертыми персональными данными
  • 30.
    Пример 3: интернет- магазин ◉Несколько десятков тысяч страниц ◉ В индексе огромное количество пустых страницы под разные регионы: url есть, но товаров нет ◉ Узкая ниша
  • 31.
    2% страниц приносят трафику “плохих” *Рассматривались сайты размером более 1000 страниц. Результаты ориентировочные - в обеих группах большая дисперсия. Но тенденция очевидна. 10% страниц приносят трафик у выросших на фоне Fred
  • 32.
    В конкурентной выдаче ◉Дающая полный ответ ◉ С авторитетными бэками ◉ С хорошими ПФ Итак, “хорошая” страница... В пустой выдаче Любая, сколько-нибудь релевантная А вдруг все не так?
  • 33.
  • 34.
    Я сделал ПЛОХОЙсайт ◉ 60 000 страниц с copy-paste ◉ 110 000 соорудил генератором по шаблону (уникальность 10%) ◉ Еще 10 000 страниц листингов Затраты: 2000 рублей программисту + неделя на домен, сервер, счетчики…
  • 35.
    Большинство факторов ранжирования нануле ◉ Контент растиражирован на тысячах старых сайтов ◉ Ссылок нет вообще ◉ Возраст домена - полтора месяца Зато генережка заточена под НЧ-запросы, где конкуренции практически нет
  • 36.
    В индекс безвнешних ссылок: подготовка 1. 5000 хабовых страниц на 1-2 уровнях вложенности 2. Тройная кольцевая перелинковка 3. Last-Modified и If-Modified-Since 4. Сократить JS и CSS Googlebot на молодых сайтах довольно ленив! Анализ логов - ключ к оптимизации crawl budget
  • 38.
    “Важные” - сбольшим числом ссылок на другие страницы и большим количеством контента
  • 39.
    Трафик растет спервого дня (+ 300 визитов в неделю)
  • 40.
    Для теста добавлено6 уникальных статей № Позиция по главному ключу Конкурентов по главному ключу Цитатный поиск в ТОП-3 1 28 339 000 10/10 2 15 1 830 000 10/10 3 >100 33 300 000 8/10 4 42 485 000 10/10 5 63 6 430 000 10/10 6 44 729 000 10/10 Проблем нет. Гипотеза имеет право на жизнь
  • 41.
  • 42.
    1 этап: подборфраз- маркеров ◉ Смотрим лидеров по главной фразе темы ◉ Снимаем в Serpstat/Semrush их фразы в ТОП ◉ Убираем низкочастотные ◉ Убираем дешевые
  • 43.
    2 этап: подборкандидатов на анализ ◉ Парсим выдачу по каждому ключу (ТОП-30), например KeyCollector-ом ◉ Берем домены, встретившиеся в выгрузке хотя бы 2 раза: https://bez-bubna.com/free/domains.php ◉ Из них оставляем только с возрастом до 2-4 лет: http://www.bulkseotools.com/bulk-check-domain- age.php
  • 44.
    3 этап: оценкакандидатов. Хорошо подходит Serpstat В итоге остается 10-20 сайтов на ручной анализ.
  • 45.
    Как анализировать 1. Малоссылок? (не забываем о зеркалах!) 2. Легко создать аналог по контенту? 3. Можно добавить страниц “под Фреда”?
  • 46.
    Главное ◉ Иногда хватаетшаблонного контента без ссылок. Охват семантики + хак = ! ◉ Fred смотрит на “хорошие”/”плохие” страницы ◉ Запросы и конкуренция влияют на оценку качества ◉ Парсинг выдачи -> юные кандидаты с трафиком -> 3 “да” - отличная ниша
  • 47.
    Контакты ◉ Блог: alexeytrudov.com ◉Анализ сайта: bez-bubna.com ◉ Консультации: optimumprofit.ru Спасибо за внимание!