Обновлено: 26.02.2023
Пагинация – традиционный способ разбивки контента на многостраничный список с присвоением каждой странице условного номера. Таким образом традиционно структурируют листинги (списки) товаров, статей, ленты сообщений. Пользователь видит сортировку по заданному по умолчанию критерию (дата публикации, цена, популярность и т.п.) и вывод карточек товаров или ссылок на статьи в заданном количестве. Но как настроить пагинацию на пользу SEO?
Что такое пагинация
Пагинация – это метод структурирования объёмных листингов с помощью разбиения списков на отдельные динамические страницы. Используется на страницах категорий, если список представленных на них товаров, услуг или ссылок на информационные страницы достаточно большой.
Эта техника используется и на коммерческих сайтах, и на новостных, и в блогах. Традиционные форумы с большими топиками также используют пагинацию для управления страницами.
Пагинация – не единственный способ организации и представления контента. Она используется преимущественно для минимально структурированного контента, и в ряде случаев может быть заменена слайдерами, подборками, динамической подгрузкой контента и т.п.
Сам по себе листинг (список товаров, услуг или информационных материалов) уже нельзя считать полноценной структурой посадочной страницы: это только один из её структурных элементов. Поэтому если страница представляет собой только часть этого листинга, польза её для посетителя едва ли высока. Если посетитель вынужден просматривать страницы листинга, значит, вы просто не предусмотрели никаких вспомогательных средств для поиска и презентации интересующей людей информации.
Традиционная схема настройки пагинации
Изначально пагинация настраивалась с помощью тегов rel=prev и rel=next с указанием предыдущих и следующих URL в серии. Каждая страница ссылалась на себя как на каноническую. С помощью этих тегов Google мог объединять все страницы пагинации в одну серию, организовывать структуру и понимать, что речь не о страницах-дублях.
В 2019 году представители Google объявили, что теги rel=prev и rel=next больше не поддерживаются и признаны устаревшими. Так как же поступать с пагинацией в нынешних условиях? Каковы лучшие практики для многостраничного контента?
Давайте рассмотрим основные проблемы, связанные с разбиением категорий постранично и индексированием такого контента.
Основные проблемы, связанные с пагинацией
- Страницы пагинации чаще всего не несут никакой пользы для посетителя. Это всего лишь способ презентации контента какой-то категории. Едва ли кто-то будет прокликивать все эти страницы в поисках товара или статьи в блоге, чтобы найти нужное. Для этого есть более удобные способы: фильтрация, сортировки, коллекции, теги.
- Страницы пагинации ранжируются под одни и те же ключевые слова. А это значит, что при некоторых условиях они могут перебивать ранжирование у основной (целевой) страницы. Собственно, в некоторых случаях это может быть даже показательно: поисковой системе не нравится “сеошная портянка” на целевой странице – огромный бестолковый текст, напичканный ключевыми словами, и алгоритм начинает ранжировать случайную страницу пагинации. Это хороший сигнал, что текст на целевой странице нужно убирать или корректировать.
- Незакрытые от индексации страницы пагинации отнимают лимиты сканирования. И Google, и Яндекс начинают всё больше экономить свои ресурсы, затрачиваемые на сканирование интернета и оценку обнаруженных URL. Вебмастер должен прилагать все усилия, чтобы выделяемые для его сайта ресурсы поисковые системы не тратили понапрасну. Новые товарные карточки могут и должны попадать в индекс через карту сайта в формате XML – sitemap.xml, либо другими доступными способами (через обход сайта по счётчику метрики, API, внутреннюю перелинковку карточек и категорий). Пагинация для этого не нужна.
Лучшие практики для работы с многостраничными категориями
Важные условия
Выбирая способ организации многостраничного контента в рамках SEO, надо учитывать несколько условий.
- Основным типом устройств, с которых посетители заходят на сайты, становятся смартфоны. Уже сейчас, в 2022, смартфоны – это около 80% всего интернет-трафика. Пагинация на смартфонах – далеко не самый удобный способ организации многостраничных листингов. Даже сам Google с 2022 года начал использовать “бесконечную” подгрузку контента в поисковой выдаче на смартфонах.
- Даже сам Яндекс, использующий на поисковой выдаче пагинацию, на 3-5 странице начинает показывать капчу. Логично: нормальный человек едва ли станет перебирать страницы листинга, а вот поведенческий бот – вполне вероятно.
- Помимо добавления ссылок на страницы листинга, есть и другие способы организовать контент. Пример – подгрузка нового контента средствами AJAX, “бесконечная прокрутка”. URL не меняется, просто по запросу пользователя подгружаются новые пункты листинга.
- Google и Яндекс сканируют и индексируют сайты по-разному, и по-разному реагируют на настройки сканирования. Например, Яндекс до сих пор плохо работает с каноническим адресами и метатегами “robots”. Вернее, он их учитывает, но не сразу, и может и вовсе проигнорировать на какое-то время. А это – скачки позиций и проблемы с ранжированием целевых страниц.
А теперь рассмотрим основные способы настройки страниц пагинации в рамках SEO.
Стандартные методы настройки пагинации для SEO
Сохранение схемы rel=prev и rel=next + canonical
Это старая привычная схема организации разбивки контента по страницам. Подразумевается, что страницы пагинации открыты для сканирования в robots.txt. добавляется тег canonical, указывающий на основную страницу категории, метатег “robots” не запрещает индексировать страницы пагинации.
Страницы пагинации ссылаются на главную (целевую) страницу как на каноническую.
Если основная (каноническая) страница категории по каким-то причинам не нравится поисковикам, высок риск, что ранжироваться будут случайные страницы. Типичный пример: на целевой странице есть небольшой и ненужный текст, на страницах пагинации его нет. Этого достаточно, чтобы ПС сочли каноническую страницу спамной. Кроме того, этот способ подходит не для коммерческих категорий, а для сайтов информационного типа, структурировать которые средствами тегирования намного сложнее.
Простую схему с использованием канонического адреса предлагают и представители Яндекса:
Если на такие страницы нет трафика из поисковых систем и их контент во многом идентичен, то советую настраивать атрибут rel=”canonical” тега на подобных страницах и делать страницы второй, третьей и дальнейшей нумерации неканоническими, а в качестве канонического (главного) адреса указывать первую страницу каталога, только она будет участвовать в результатах поиска.
Однако надо учитывать, что для Яндекса одного лишь канонического URL может оказаться недостаточно, и без прямого запрета на сканирование и индексацию по продвигаемым ключам может начать ранжироваться нецелевая страница.
Резюме: если ваш сайт и так хорошо ранжируется, и нет проблем с постоянной переклейкой запросов по страницам – попробуйте этот метод. Кроме того, это почти единственный вариант для блогов, где вместо хаба (страницы портального типа) используется лента, простая последовательность постов.
Вывод страницы с полным листингом и присвоение canonical ему
Старая схема, разработанная под Google и плохо подходящая для Яндекса. Подразумевается, что вы выводите полный список URL категории на одну общую страницу, а страницам пагинации назначается канонический URL, ведущий на эту общую страницу.
Способ подходит для категорий достаточно небольшого объёма, поскольку действительно большой листинг скажется на производительности, особенно если это не просто список с ссылками, а полноценные карточки с изображениями-превью и т.п.
Большой минус – это продвижение таких страниц в Яндексе. Кроме того, ценность такого листинга как продающей страницы невысока, поскольку не предоставляет пользователю никаких преимуществ: это просто огромный ворох товаров, услуг или ссылок на статьи. Но самый большой недостаток – это проблемы текстового характера. Вы можете сильно переспамить, а возможностей проработать семантику «в ширину» не получить.
Пример похожей реализации на сайте Winestyle: ссылка на листинг со страницы-хаба. Нюанс: листинг закрыт для индексации тегом robots
Реализация листинга на AJAX с подгрузкой контента
Это одна из современных схем работы с большими листингами. Пользователь просто прокручивает страницу или нажимает на кнопку «Загрузить ещё» – и листинг дополняется.
Однако есть некоторые проблемы технического характера. AJAX до сих пор плохо обрабатывается в Google и никак – в Яндексе, так что при реализации «в лоб» такая техника равнозначна полному закрытию пагинации от сканирования на уровне robots.txt.
Оптимальный вариант – добавлять ссылки на подгружаемые страницы пагинации, объединяя таким образом подгрузку средствами AJAX с HTML-ссылками на новые URL. Таким образом пользователь получит лучшие впечатления от взаимодействия с сайтом, а поисковые роботы смогут получить доступ к страницам пагинации. Кроме того, не будет потери ссылочных весов в рамках алгоритма PageRank: передаваемый внутренними страницами ссылочный вес не потеряется.
Запрет на индексацию с помощью метатега robots со значением “noindex, follow” + canonical
В этом случае страницы пагинации запрещают вносить в индекс с помощью метатега robots со значениями “noindex, follow”: это значит, что страницы не рекомендовано вносить в индекс, но по ссылки на них поисковый робот должен учитывать.
Главный минус этого способа – поисковые системы часто пренебрегают этим метатегом, поскольку он носит чисто рекомендательный характер. Кроме того, поисковые роботы будут тратить лимиты на сканирование сайта на обход страниц, которые изначально подаются как мусорные и не предназначенные для внесения в поисковый индекс. Справка Google отмечает, что речь не о запрете на индексирование, но о запрете на отображение в поиске.
Используя эту схему, учитывайте, что вес со страниц, закрытых для индексирования, учтен не будет. Об этом говорил небезызвестный Джон Мюллер, и это логично: для поискового робота нет никакого смысла ходить по ссылкам на деиндексированных страницах.
Кардинальный запрет на сканирование пагинации в robots.txt
Чаще всего я рекомендую коммерческим сайтам использовать именно это: запрет страниц пагинации на уровне robots.txt.
Страницы пагинации имеют околонулевую ценность для пользователя. Они дублируют контент основной страницы и могут перебивать релевантность. Это очень плохой UX, когда посетитель вынужден листать товары вместо того, чтобы получать готовое коммерческое предложение.
В отличие от предыдущего варианта с запретом на индексацию, но без запрета на сканирование, этот способ позволяет лучше сэкономить лимиты на обход сайта поисковыми роботами: чтобы понять, что страница не должна попасть в индекс, робот в любом случае должен её сначала скачать. И в любом случае, тег вообще ничего не гарантирует, это всего лишь рекомендация с вашей стороны.
Естественно, использовать этот способ стоит только при соблюдении ряда условий:
- Ваша основная посадочная страница должна быть не листингом, а хабом, максимально полно отображающим ассортимент и упрощающим процесс выбора для посетителя.
- Вы должны убедиться, что все товарные карточки в рамках каталога хорошо перелинкованы и получают достаточное количество внутренних ссылок (с помощью подкатегорий, тегов, блоков “похожие товары” и “Товары этого производителя” в рамках шаблона товарной карточки и т.п). И разумеется, карта сайта в формате sitemap.xml должна регулярно обновляться, чтобы поисковые роботы вовремя находили новый контент и могли его проиндексировать.
Заключение
Пожалуй, общего решения по настройкам сканирования страниц пагинации нет. Всё решают нюансы: объём представленного ассортимента, тип сайта, особенности шаблона, настройки структуры как отдельных посадочных страниц, так и сайта целиком.
Основной смысл сохранять страницы пагинации в индексе – это вспомогательные страницы, передающие “вес” основной посадочной странице. Но чтобы использовать это преимущество, нужно, чтобы эта посадочная страница не имела проблем с ранжированием и основными характеристиками, и явно отличалась в лучшую сторону от любой страницы пагинации. Кроме того, посадочные страницы могут быть полезны, если по сайту отмечаются проблемы с внутренней перелинковкой. С помощью листинга карточки товаров могут получить внутренние ссылки, в противном случае доступ к ним может быть только из карты сайта в формате sitemap.xml (такие страницы принято называть “сиротками”).
Перед тем, как принимать решение и делать настройки структуры листингов, соберите важнейшую информацию по общей структуре сайта, распределению ссылок по страницам, оцените возможности сканирования сайта поисковыми роботами – и протестируйте принятую гипотезу.
А вот и не правильно. Закрывать пагинацию в robots.txt это последнее что можно сделать именно для больших проектов. И делать я так не рекомендую. А почему? Объяснять даже не буду, потому что ответ лежит на поверхности.
А единых рецептов и нет. Все причины так или иначе упираются в процессы индексации. Но даже на больших проектах некритично, чтобы новые карточки товаров мгновенно залетали в индекс.
Я такого бреда еде не читал, извените. Страницы пагинации не несут никакой ценности для пользователя – серьезно? Автор когда выбирает что-то в интернет магазине покупает первый же товар на первой странице листинга? У автора есть подробный анализ и статистика переходов пользователей по страницам пагинации во всем интернете?
Понятно, сколько людей столько и мнений. Но преподносить это как истину – бред.
Пагинация – максимально полезная вещь для поиска нужного товара, контента и тд. С точки зрения пользователя. Так как автор сам же пишет, что рекомендация Гугла не ок, когда у вас одна страница со всеми товарами. Автор сам себе противоречит.
Вывод такой: для пользователя пагинация – полезный вид контента. А вот для поискового бота – не факт. И поэтому, от поиска автор может рекомендовать закрывать пагинацию. Но точно не потому, что для пользователей это бесполезно.
Я не преподношу истины. Я перечисляю, что бывает, и говорю, как делаю сам.
Пагинация – это очень старая техника структурирования контента. Если вы преподносите потенциальному клиенту обычный список вместо внятной продающей структуры на базе товарной матрицы – это плохой UX, это снижение шансов получить конверсию.
Но речь в принципе не об этом, а об исключительно технических настройках. Под каждый запрос у вас есть единственный шанс получить одну строчку в выдаче (хотя бывают и редкие исключения). Пагинация в выдаче не нужна.
Виктор, спасибо за статью!
Подскажи, на каких сайтах можно увидеть реализацию пагинации AJAX + HTML?
Мария, спасибо за оценку.
AJAX + HTML в основном используется в новостниках, вот для примера из сегодняшней ленты новостей: https://iz.ru/1354888/2022-06-24/zakharova-nazvala-lozhiu-zaiavleniia-glavy-mid-germanii-o-golode
По мере прокрутки подгружается новый контент со своим статичным URL. В коммерции я такое не встречал, но там обычно и смысла подгружать то, что юзверь не просил, и нету.
Ну вот опять 25, вместо четкого ответа, 100500 домыслов и догадок. Можете делать так, а можете сяк. Громкое название про стандарты 2022, но по сути такие же стандарты были и два года назад. Короче статья ни о чем.
Если сайт огромный (десятки тысяч страниц), то пагинацию закрывать – себе же вредить.
Если сайт небольшой (до нескольки тысяч страниц) – можно закрывать.
В SEO давно нет кнопки “Кайф”, и в каждом случае всё решается с учётом конкретных условий.
Зачем вам на огромном сайте открытая для индекса пагинация? И Гугл, и Яндекс резко сократили лимиты на обходы и пересчёт метрик.
Роботс это рекомендация а не правило для ботов. В том же Гугл (Гугл Сирч Консоль) может быть полно просканированных и проиндексированных страниц с пометкой – проиндексировано не смотря на запрет в роботс. Если уже крыть то роботс+ мета-роботс.
Ну а в целом ничего нового.
Правда чет умолчали о уникализации пагинации. У них разный контент, разные карточки товаров. уже как минимум добавить “страница 1” и уже пагинашка становится уникальной)…но да ладно это реально холиварная тема
И robots.txt, и мета robots – всего лишь рекомендации. Но чтобы ПС ими пренебрегли, они должны получить серьёзные причины – пользовательские сигналы, ссылки или зафильтрованность основной страницы (скажем, из-за спамного текста, которого нет на страницах пагинации).
Смысл-то всего совсем прост: не дать переклеивать ключи на нецелевые страницы, и не позволять роботам тратить время на ненужное. Вот из этого и надо исходить.