6 причин почему нет позиций и трафика

1.Ошибка в присвоении региона

Для геозависимых запросов –присвоение корректного региона один из наиболее важных фактор при продвижении.

Привязка осуществляется в панели Вебмастера Яндекс (webmaster.yandex.ru –> информация о сайте –> Региональность) и Гугл Мой бизнес (business.google.com ).

Обратите внимание для Яндекс:

  • Регион нужно присвоить в разделах “Вебмастер” и “Справочник”;
  • Выбираем наиболее точную геолокацию.
    • Неправильно – Москва и Московская область;
    • Правильно – Москва.
  • В разделе “Вебмастер” можно присвоить только 1 регион – добавляем самый важный;
  • В разделе “Справочник” добавляем все остальные регионы, если можем подтвердить адрес;
  • Если адрес подтвердить не можем, то создаем поддомен для каждой геолокации, добавляем в Вебмастер, привязываем регион в разделе “Вебмастер”;
  • Не добавляйте сразу все геолокации, если их много, действуйте постепенно по 3-5 штук.

Пример настройки 2-х геолокаций в Яндекс:

nastoika_2_geolocacii_yandex

Обратите внимание на Google:

  • Надо добавлять регион Россия (в Search console);
  • В Google Мой Бизнес нужно добавить все города/регионы, в которых представлен сайт.

2.Отсутствие роста или падение в Google

Если когда-то результаты были, а теперь совсем плохие, то причина на 99% в санкциях со стороны Google. Сейчас основные фильтры встроены в алгоритм. Ранее были даты релиза Пингвина и Панды.

Для начала проверяем не применялись ли санкции ранее (может применялись, а мы ничего не заметили или не делали для снятия). Проверить можно сервисом – https://feinternational.com/website-penalty-indicator

Пример такого сайта:

site_filtr_google

Что делать?

Определяем тип санкций и далее проводим работы:

  • Panda – плохое техническое состояние сайта, перепотимизированный или малополезный контент;
  • Penguin – большое количество SEO ссылок;
  • Mobile-First-Index – нет мобильной версии сайта (или адаптивной верстки) или версия плохая;
  • Phantom – несоответствие страницы интенту пользователя, низкое качество сайта (техническое в том числе).

Внешние ссылки:

Недостаток ссылочной массы – частая причина проблем с Google. С одной стороны, Google заявляет, что ссылки – зло и реально можно получить наказание в виде понижения позиций и падения трафика. С другой, наблюдаем, что ссылки играют значимую роль в ранжировании.

Поэтому наращиваем ссылочную массу максимально аккуратно, следим за:

  • Распределением по источникам ссылок: естественные, хорошие каталоги, крауд на форумах, новостники и тд;
  • Готовим анкор-лист заранее, особое внимание уделяем вхождениям вида url и другим наиболее естественным. Коммерческие слова в анкорах стараемся использовать по минимуму или не использовать;
  • Корректным распределением ссылок по сайту, чтобы не было концентрации на 2-3-5 страницах сайта.

3.Не соответствие страницы интенту запроса

Особенно актуально для Яндекса.

Много сказано о соответствии продвигаемого сайта, сайтам из ТОП-10: возраст, тип сайта, кол-во страниц, ссылочная масса, регион и др. Но более важно соответствовать интенту пользователь, то есть давать максимально точный и полезный ответ по запросу. Как правило в выдаче поисковых систем в ТОП уже стоят такие сайты.
Поэтому внимательно отнеситесь к:

  • типу страницы (главная, внутренняя);
  • какая страница (коммерческая, информационная, каталог товаров и др.);
  • какой контент (например, текст+каталог, каталог без текста, продающий текст с описанием услуги, прайс-лист и др.).

Данный пул работ связан с такими работами как сбор сематического ядра, коммерческий аудит, аудит содержания.

На какие элементы страницы обращать внимание:


4. Удаление страниц с трафиком

Можно мониторить все страницы в индексе поисковых систем или контролировать все продвигаемые URL, но в среднестатистическом проекте за 30-35 тысяч рублей в месяц этого просто нет в регламенте работ. Попробуем найти есть ли удаленные страницы, ранее приносившие трафик.

Если мониторинг не был настроен, делаем следующее:

1. Составляем список URL, приносивших трафик. Для этого используем Яндекс.Метрику.

Выбираем: Меню => Отчеты => Содержание => Страницы входа.
На странице отчета: Визиты, в которых => Источники => Последний источник =>Поисковая система => Яндекс.


Даты выставляем более ранние, т.е. за несколько месяцев до того момента, когда трафик начал проседать.

2. Все страницы по списку проверяем на код ответа сервера. Ищем ошибки 404, 301, 302. Примеры сервисов и программ, где это можно сделать

3. Теперь выгружаем данные из Яндекс.Вебмастера: Индексирование => Страницы в поиске => Статус и URL – Удалено: Ошибка HTTP.

4. Результаты копируем/выгружаем в Excel, объединяем с общим списком.
Получили список страниц, раньше приносивших трафик, а теперь недоступных, с данными о количестве переходов.


В одном из примеров было найдено около 1000 потерянных переходов ежемесячно.

5. Просели группы запросов, например: НЧ запросы

Для оптимизаторов низкочастотные запросы – это, например, названия товаров, сочетание нескольких свойств, запросы с включением «купить/заказать в Москве», теги 2-3 уровня, в интернет-магазинах НЧ запросы присутствуют на страницах листингов: категории, подкатегории, категория+бренд, тэги.

ВНИМАНИЕ! Оптимизация под основные запросы по маскам может снижать релевантность по ключам, неучтенным в семантическом ядре. Такое происходит, если ранее на проекте была текстовая оптимизация по НЧ запросам, которых нет в новом семантическом ядре. И под них нет посадочной страницы или они не учтены в текстовой оптимизации. Складывается ситуация, что основные запросы на страницах растут, но в целом трафик снижается.

Порядок действий для поиска таких запросов и страниц:

1. Готовим список страниц, где ранее был трафик, в сравнении с текущим периодом, для этого используем Яндекс.Метрику.
Меню: Отчеты => Источники => Поисковые фразы.

На странице отчета: Визиты, в которых => Источники => Последний источник => Поисковая система => Яндекс.



Теперь группировка: Страница входа => Поисковые фразы. Используем сравнение, пример:


Данные наглядно можно анализировать в отчете Метрики. Пример-скриншот:



Совет: для дальнейшей работы сохраните данные в формате XLSX или CSV.

2. Делаем постраничный анализ запросов, которые давали трафик и сравниваем с текущей датой.Есть существенная разница?
Возможные варианты уменьшения трафика (нужно просмотреть индивидуально для каждого url):

  • Корректировки в текстовой оптимизации страницы;
  • Появление новой релевантной страницы;
  • Сезонность или снижение спроса (проверяем в wordstat => История запроса);
  • Санкции со стороны поисковой системы.
Обработанные данные:



Интерес представляют запросы, в которых сильно упало количество переходов, при этом не изменилась продвигаемая страница и частотность запросов.

3. Ищем «упавшие» запросы и корректируем оптимизацию.
Список запросов, где есть снижение количества переходов, можно проверить через текстовый анализатор (engine.seointellect.ru), или без использования платных сервисов, строим частотный словарь при помощи advego.ru/text/seo и получаем список слов, которые чаще всего используются в просевших запросах.


4. Проверяем, есть ли вхождения в Title, h1-h2.
В текстовых блоках на странице, с очень большой долей вероятности, нужных вхождений не будет. Корректируем оптимизацию, добавляя вхождения. И обязательно отправляем страницы на переобход робота в панели Вебмастер.Яндекс


В итоге на одном из сайтов оказалось порядка 3500 переходов в месяц по потерянным НЧ запросам.

6. Технические проблемы на сайте

Большое количество дублей страниц, редиректов, удаленных страниц, некачественных страниц – это некоторые из проблем, которые встречаются на всех сайтах. Проблемы могут возникать из-за перебоев в работе хостинга, взлома, некачественной работы программиста.

Как отследить изменения, которые постоянно происходят на сайте и вовремя выявить «поломки»? Один из вариантов:

  • Постоянно мониторить состояние всех страниц сайта. Но без автоматизации или сервисов это сделать проблематично, можно использовать внутренний инструмент в сервисе Яндекс.Вебмастер для ограниченного кол-ва страниц.
  • Просматривать панель для Вебмастеров Яндекс. Здесь минус в том, что мы увидим «косяки» уже после индексации.

Как использовать Яндекс.Вебмастер для мониторинга изменений

Нам нужны информация в отчетах в разделе Индексирование => Страницы в поиске.

Вебмастер: страницы в поиске

Теперь используем фильтрацию: Последние изменения => СТАТУС и URL => Статусы => Удалено: Дубль и Удалено: недостаточно качественная.


Второй способ:
Более быстрый и подробный анализ получится при помощи специальных сервисов или программ (Netpeak-spider, Page-weight, Screaming Frog). Если есть возможность, собираем Title при помощи них. Для проведения технического аудита, потребуется и другая информация, но наша задача найти ошибки, влияющие на сайт массово.
В полученных результатах смотрим дубли Title и проверяем страницы, на которых они появились. Поочередно проверяем другие статусы для URL.

Например, на всех страницах с брендом BRAND в одной из подкатегорий все Title оказались одинаковыми. Часть таких страниц оказалась с пометкой «некачественная страница» в списке панели для Вебмастеров. После проверки выяснилось, что из-за возникшей ошибки в модуле генератора заголовков, изменился шаблон именно для этих страниц. Странно, но так бывает.

Кстати, сайт может быть весь в «костылях» - результат работы программистов с CMS, когда работа проводилась с нарушением требований. Исправлять такие ошибки сложно, иногда невозможно. Из-за такой причины один сайт-пациент потерял около 500 переходов в месяц. Оказалось, что это не первый случай на сайте. Уже один раз полностью слетали Title и H1 на всех (!!!) страницах сайта, несколько раз была ситуация с изменением Title в некоторых категориях.


Эти статьи будут вам интересны

Подпишитесь на
полезный контент

И получайте свежие новости и актуальные статьи из сферы Digital от SEO Интеллект