Почему падает трафик: аудит онлайн-справочника
Старый, трастовый ресурс в какой-то момент начал стабильно снижаться в поисковой выдаче, теряя трафик как из Google, так и из Яндекс. Сайт не использовал никаких “чёрных” и сомнительных методов продвижения, а навредить ему возможные конкуренты не могли чисто технически.
Клиент обратился за аудитом, чтобы выяснить и устранить причины утраты позиций и трафика.
Выявленные проблемы
Проверка технического состояния сайта не выявила значительных недочётов, способных негативно повлиять на видимость сайта в поиске.
Основные недочёты касались отсутствия тегов canonical, что на больших объёмах может приводить к появлению проблемы с дублированием, техническим или семантическим. Карта сайта в формате sitemap.xml содержала менее 5% от всех реально доступных для индексирования URL. При проблемах с внутренней перелинковкой поисковым системам в таком случае сложно обнаруживать своевременно новые или обновленные страницы.
Выраженной проблемой оказалась структура каталога. 65% всего объёма сайта приходится на страницы с высокой вложенностью (более 4 кликов от главной). Поисковые системы систематически сокращают лимиты на сканирование и индексирование сайтов. Это одна из причин того, что большая вложенность и проблемы с перелинковкой становятся причиной снижения бюджетов, выделяемых поисковыми системами на обход сайта. Особенно эта проблема касается Google.
Общую структуру сайта можно оценить как плоскую, но поделенную на несколько плохо связанных между собой узлов, где крупнейший узел составлен из отдельных карточек лекарственных препаратов, а другие – домены, закрытые от сканирования и индексации и состоящие из страниц производителей, данных о торговых марках и т.п.
Анализ конкурентной среды показал, что среди сайтов конкурентов преобладают коммерческие ресурсы: сайты аптечных сетей. Основная конкуренция же в поиске ведется за запросы-однословники (униграммы) без выраженного коммерческого интента. Однако запросы такого рода нельзя считать исключиетльно коммерческими, поскольку в выдаче есть и сайты-справочники.
Текстовый анализ посадочных страниц выявил резкие аномалии в сравнении с аналогичными сайтами: количество и характер вхождений был характерен для коммерческих сайтов, предлагающих лекарства, а не информацию о них. Поисковый алгоритм в таком случае сбивается: инфо-ресурс оценивается как коммерческий, но не соответствует пользовательским сигналам.
Вариант решения здесь заключается в смене шаблона вёрстки посадочных страниц для перераспределения либо частотности в несоответствующих текстовых зонах, либо для устранения избытка несоответствующих ключевых слов.
Помимо этого, была выявлена проблема каннибализации ключевых слов и постоянная смена релевантных страниц под запрос. Речь идёт о множестве семантических дублей, одинаково хорошо оптимизированных под один и тот же запрос и отличающихся только незначительными деталями. Технически страницы не распознаются как копии, но с точки зрения текстовой релевантности одинаково высоко соответствуют одному запросу.
Выводы и точки роста
Основные проблемы были сформулированы следующим образом:
- Слабая структурированность сайта, наличие технических и семантических дублей;
- Недостаточная проработка семантической структуры, в результате чего неохваченными оказались многие группы запросов, способные привести целевой трафик и необходимые для ранжирования запросов верхнего уровня;
- Недочёты контентного характера, обусловленные недостаточной проработкой семантики и структуры на её основе.
Подготовлен ряд основных мер, направленных на максимально быстрое и эффективное исправление ситуации. Среди них:
- Схема изменения внутренней перелинковки;
- Оптимизация структуры страниц с удалением проблемных контентных блоков, заменой ссылок на псевдо-ссылки:
- Масштабирование раздела товарных категорий за счёт незадействованных семантических срезов.
Достигнутые результаты
На момент подготовки кейса заказчик внедрил только часть рекомендаций, однако и этого хватило для того, чтобы остановить падение сайта по наиболее частотным позициям и снижение трафика.
Основная динамика приходится на Яндекс, которому для выявления изменений и пересчёта факторов ранжирования нужно намного меньше времени, чем Google.