Кейс проектирования и запуска интернет-магазина упаковки
Можно ли «раскрутить» сайт в поиске, не используя ссылки, спамные тексты, накрутки поведенческих факторов? Да, и здесь – пример.
Ситуация
Ситуации бывают разные. В данном случае заказчик зашёл буквально перед самым запуском сайта: новый сайт на дроп-домене без особой истории был уже почти готов к индексированию. Моей задачей должна была стать проверка готовности, правка ошибок, подготовка к проекта к индексированию и все те первичные операции, что сопровождают запуск.
Нужно признать, что владелец сайтов провёл отличную предварительную работу: быстрый сайт на хорошем шаблоне, пара дополнительных модулей, с помощью которых можно реализовать функционал мультирегиональности и генерирование посадочных страниц на фильтраторе – здесь было почти всё, что нужно для успешного старта проекта.
Проблематика
Анализ технического состояния сайта выявил ряд незначительных недочётов настроек сканирования, связанных в первую очередь с доступностью для поисковых роботов файлов шаблона, отвечающих за рендеринг страниц, в том числе – мобильной версии.
Анализ семантики и построенной на ней структуры сайта и страниц выявил существенно большее количество недочётов: выборочная проверка посадочных страниц показала типовые ошибки, связанные с кластеризацией, количеством вхождений основных и связанных ключевых слов. Нужно понимать, что наибольший приоритет в оценке коммерческого сайта Яндекс уделяет объёму и характеру ассортимента. Ассортимент же оценивается алгоритмически, на базе текстовых метрик: для этого используются ключевые слова в ссылках на подкатегории, товарные карточки, теги и некоторые служебные элементы.
Например, недочёт вхождений каких-то весомых в рамках кластера ключевых слов на уровне tf-idf или bm25 может привести к фильтрации страницы для ранжирования по целевым запросам. Для примера: оценка посадочной страницы по кластеру “ПЭТ тара” по московскому региону выявила существенные расхождения страницы с эталонными данными. В качестве инструментария для оценки использовался только появившийся в тот период инструмент текстового анализа SEOLEMMA. Принцип его работы прост: вы задаёте на вход запросы одного кластера, сервис парсит выдачу. Вы отбираете сайты заданного типа, исключая несоответствующие. А после этого сервис парсит данные и сопоставляет с данными вашей страницы. Вы получаете сопоставление вхождений ключевых слов а уровне энграмм в заданных текстовых зонах и можете понять, чего не хватает вашей странице, а что, вероятно, лишнее.
Например, как видно из таблицы, на странице не хватает ассортимента по бутылкам большой емкости (или дублирования мл в литрах) и не представлен ключ «упаковка». Недочёты такого рода всегда негативно влияют на продвижение по коммерческим запросам, если у сайта пока не проработан запросный индекс и поисковая система не может оценить поведенческие метрики.
Что было сделано
- Подробно проработано семантическое ядро с использованием данных из систем статистики, сторонних сервисов мониторинга видимости сайтов в поиске. В отличие от стандартной схемы, была задействована актуальная схема проработки интентов (пользовательских намерений) в рамках кластера. Такие запросы сложно выявить через системы статистики, поскольку они не содержать маркеров и привычных “хвостов”.
- Внесены корректировки в изначальную структуру каталога. Посадочные страницы генерировались за счёт микрочастотных семантических срезов, но не были охвачены срезы по сфере применения (например).
- В структуре сайта отсутствовали важные веб-узлы, относящиеся к коммерческим метрикам оценки. Не была представлена информация юридического характера, не представлены сертификаты, лицензии, ссылки на вспомогательные данные о компании. Чем больше информации о компании получат поисковые системы и потенциальные клиенты, тем выше шансы на рост в ранжировании и лучше конверсии.
- На базовом уровне была проработана связка «Бренд – адрес – сайт» . Фактически, эту связку (NAP) надо начинать прорабатывать ещё до запуска сайта с использованием учётных записей в Яндекс-Бизнес, Яндекс-картах, сервисах типа ZOON, FLAMP, 2GIS, основных каталогах («желтые страницы и т.п.). Чем больше информации и чем лучше видимость бренда – тем выше доверие поисковых систем, тем проще пройти коммерческие фильтры поисковиков, которые не хотят показывать компании-однодневки, фейки и т.п.
Результаты
В настоящее время Яндекс не использует привычные раньше алгоритмы типа “Бандит”, позволявшие Яндексу оценить поведенческие метрики, показывая новые страницы в топе выдачи. Но без оценки поведенческих Яндекс не может оценить качество сайта и релевантность поисковым запросам.
Для устранения этой проблемы на прорабатываемые посадочные страницы в первый квартал закупалась контекстная реклама (Яндекс-Директ). Благодаря визитам реальных пользователей Яндекс мог оценить качество страницы, а сайт избежал попадания под фильтр МПК (малопопулярный контент).
По завершении первичных работ по оптимизации основных посадочных страниц работы по продвижению были завершены. Это не помешало сайту наращивать положительную динамику из поиска без постоянных вложений в контекстную рекламу.
Общие выводы
Несмотря на устоявшееся мнение о главенстве в Яндекс алгоритмов накрутки поведенческих факторов это вовсек не обязательное условие, по крайней мере – не для любой поисковой ниши. Хорошо спроектированный сайт, представляющий товары и услуги хорошего бизнеса способен продвигать себя сам, без постоянных вливаний в SEO и контекстную рекламу.