Обновлено: 22.12.2025
Давайте попробуем оценить, что нам уже известно о продвижении в ИИ-обзорах и оптимизации под ИИ-агентов, как бы ни назывались соответствующие практики (GEO, AEO, AISEO и т.п.). Ниша уже успела набрать коммерческий вес и маркетинговое значение – и это при том, что SEO-специалисты чаще всего сводят всё ко вполне традиционным методам, не очень хорошо понимая – нужны ли там эти методы, а если нужны – то зачем.
Кратко: оптимизация по ключевым словам лишь косвенно способствует улучшению видимости бизнеса в ответах ИИ, тогда как сайты, находящиеся в широкой зоне видимости поисковых систем, могут стать более весомым источником данных для этих нейросетей. Тематическая авторитетность сайта в своей нише приобретает большее значение, чем достижение лидирующих позиций по отдельным ключевым словам.

Даже для ответа на самый простой вопрос пользователя ИИ-ассистент соберет большой объём связанной информации, и вы получите максимально полный и полезный ответ.
Что надо понимать об ИИ-агентах и языковых моделях
То, что население уже привыкло понимать под «ИИ» – это большие языковые модели, с которыми вы можете пообщаться с помощью чат-бота. Для обучения чат-бота использовался какой-то массив данных (корпус), благодаря чему модель смогла выявить устойчивые связи между словами, и с некоторой вариативностью может имитировать человеческую речь.
Это очень важный момент: речь идёт только о способности выявлять скрытые в «белом шуме» паттерны, суммировать и классифицировать. Модель ничего не может сгенерировать с нуля, у неё нет таких функций: она просто собирает какие-то объекты по заданному шаблону из огромного числа деталек «Лего».
- Это можно рассматривать как источник знаний, в случае, если для обучения использовался хорошо подобранный корпус.
- Это нельзя рассматривать как поисковик: там нет таких функций. Сама по себе LLM знает только связи между выявленными в корпусе словами. Чтобы получить правильный ответ на свой вопрос, вы должны каким-то образом попасть в соответствующий паттерн (упомянуть либо правильный термин, либо «зацепить» конкретный кластер, по смыслу совпадающий с вашим запросом). И информация там актуальна ровно настолько, насколько был актуален корпус.
Поэтому нет никакого смысла оптимизировать сайт под большие языковые модели: у вас практически нет шанса попасть в этот корпус, если интервью с вами не публикуются в «Форбс» и о вас нет статьи в «Википедии». Да, собственно, и незачем: эпоха ChatGPT как мы его знаем – это время демо-версии, когда бизнесу показали наглядно, на что способны LLM и нейросети. Пришло время интеграций их в реальную жизнь.
Рассмотрим, что такое ИИ-агенты и что нас ожидает в ближайшем уже будущем.
ИИ-агенты, SLM и RAG
В мире искусственного интеллекта происходит тихая, но значимая трансформация, связанная с тремя ключевыми понятиями: ИИ-агенты, малые языковые модели (SLM) и технология RAG. Если большие языковые модели можно сравнить с эрудитами широкого профиля, то эта новая связка представляет собой команду узкоспециализированных профессионалов. ИИ-агент выступает в роли исполнителя, способного не просто отвечать на вопросы, а выполнять многошаговые задачи. Его «мозгом» служит SLM — компактная и экономичная модель, обученная для конкретной сферы. А RAG (Retrieval-Augmented Generation, или генерация с дополненной выборкой) является его внешней памятью, подключая агента к актуальным и проверенным базам данных.

Запрос передаётся модели вложений и векторизуется (см. “эмбеддинги”), соответствия извлекаются из базы данных, дополняются контекстными данными и поступают на вход языковой модели. Языковая модель формирует ответ на естественном языке.
Практическое применение этой троицы наиболее наглядно в сфере клиентского сервиса. Представьте себе ИИ-агента, работающего в службе поддержки интернет-магазина. Когда клиент спрашивает о статусе своего заказа, агент, управляемый специализированной SLM, точно понимает суть запроса. Вместо того чтобы генерировать ответ на основе общих знаний, он с помощью технологии RAG обращается напрямую к базе данных заказов, находит конкретную информацию по номеру и сообщает клиенту точное местоположение посылки и дату доставки. Такой подход исключает ошибки, экономит время и предоставляет персонализированный сервис 24/7.
В корпоративной среде ИИ-агенты на базе SLM и RAG становятся незаменимыми внутренними помощниками. Сотрудник может просто спросить у такого агента: «Каков бюджет на командировки в третьем квартале согласно последнему приказу?». Агент мгновенно найдет нужный документ во внутренней базе знаний компании (благодаря RAG), извлечет оттуда конкретные цифры и предоставит четкий ответ со ссылкой на источник. Это избавляет от необходимости вручную перебирать десятки папок и документов, оптимизируя рабочие процессы и повышая производительность труда. Подобные агенты могут также анализировать отчеты, составлять сводки и автоматизировать рутинные задачи.
За пределами офиса эта технология обещает сделать нашу повседневную жизнь значительно проще. Персональный ИИ-агент на вашем смартфоне сможет стать идеальным планировщиком путешествий. Вы говорите ему: «Найди мне билеты и отель для поездки на выходные в Казань, я хочу посетить Кремль и поесть эчпочмак». Агент, используя RAG для доступа к актуальным данным авиакомпаний, сервисов бронирования и отзывам о ресторанах, не просто предложит варианты, а составит готовый маршрут, забронирует все необходимое и добавит события в ваш календарь. Он действует как личный ассистент, который понимает ваши предпочтения и выполняет конкретные действия.
Пора перейти к ключевому вопросу: а какова роль SEO в этих условиях? Нужны ли будут вообще сайты, и что делать, чтобы не оказаться у разбитого корыта? Внедрять микроразметку? Покупать больше ссылок? Давайте уточнять.
Почему методы SEO не годятся для GEO (AEO)
Основная причина – «сеошники» привыкли к эксплуатации «дырок» в алгоритмах и не слишком активно пытаются разобраться, как работает информационный поиск. Объективно: все наиболее эффективные методы SEO – это чуть завуалированные методы спама: хостового, ссылочного, текстового, поведенческого. Кто-то купил «жирный» домен, полил его ссылками и попал в топ по какому-то запросу – какое пользователю дело до возраста домена и количества ссылок, если он ищет конкретную информацию, а её сайт не содержит? Или поисковая система видит, что сайт популярен – но повод ли это, чтобы популярность была важнее фактической релевантности?

Классика SEO-спама: напичканные ключевиками комментарии, автоматически рассылаемые куда попало. Удивительно, что кто-то всё ещё продолжает платить за это деньги. Удивительно, что кто-то до сих пор пытается этим зарабатывать.
ИИ-агента обмануть таким образом не получится. Он не поисковая система, он понятия не имеет, какова история конкретного документа, размещенного на конкретном сайте. Важно лишь, чтобы документ содержал требуемую информацию, и эта информация не противоречила тому корпусу, на котором он обучен. Он не следует людским ритуалам поиска (если показали «Москва цена купить» – значит, там есть цена и можно купить), он намного чувствительнее к конкретике. Во всём остальном он действует как человек. Отсутствующую информацию ИИ-агент возьмёт из поисковой выдачи, но выберет там те источники, что действительно содержат запрашиваемую информацию.
А теперь давайте оценим типичные советы продавцов GEO из топа поисковой выдачи.
- Структурируйте контент (а раньше не структурировали?)
- Используйте микроразметку (а раньше не размечали?)
- Используйте естественный язык (вы про «Баден Баден» по возрасту не слышали или по возрасту забыли?)
- Подкрепляйте информацию фактами: ссылками на исследования и авторитетные источники (с какой целью? Информация либо уже есть в базе, или её нет – и по ссылкам агент не пойдёт)
- Увеличивайте скорость загрузки, бла-бла-бла
Примечательно, что эту же информацию тиражируют и современные LLM, использующие поисковую выдачу в качестве RAG. Однако попадает она туда не потому, что издатели использовали микроразметку и подтверждающие факты: речь идёт о повторении одной и той же информации. Вы не сможете использовать эту технику для продвижения собственного контента.
Во всех этих «советах» содержится только стремление продать услугу, но за ними нет никакой конкретики и понимания фактуры. Вы ровно то же слышали в контексте E-E-A-T, голосового поиска, юзабилити и т.п. И всё это действительно имеет какое-то значение, если говорить о поисковой оптимизации в свете традиционных алгоритмов. Поисковики это устраивает, а вслед за ними вам это воспроизведёт и ИИ-агент. Ему не с чем сравнивать, он не сравнивает с опытом, не обдумывает, он только суммирует найденное.
Кейс Дэна Петрович, доказывающий, что ChatGPT не учитывает данные из микроразметки Schema.
Что действительно важно, если вы оптимизируете свой сайт под ИИ
Сущность и цитирование
Первое и самое важное, на что необходимо обратить внимание: вы в принципе должны присутствовать в интернете – таким образом, чтобы вас можно было идентифицировать. Если вы слышали о «поисковых сущностях» (entity) и способах их прокачки – это оно и есть.
Хорошая новость: вам не надо обязательно попасть в Граф Знаний Google или «Википедию». Для начала – достаточно просто возможности связать воедино информацию о вас из разных авторитетных источников. Годится ваш собственный сайт, плюс учётки в соцсетях, упоминания в серьёзных масс-медиа, сторонних базах данных. Разумеется, все эти данные должны быть увязаны между собой: как на уровне информации, ссылками, так и упоминаниями без всяких ссылок.
Пример из практики: «Алиса, что ты знаешь о менеджере по продажам Елене Сидоровой?» – «Елена – эксперт в своей области, работала в ООО “Рога и копыта” 15 лет назад, 10 лет назад участвовала в городских соревнованиях по бегу, а в августе 2025 развелась». Опа, Лена развелась и промолчала? – «Алиса» вытянула всю доступную ей информацию из интернета, а поскольку информации там было совсем мало, в ответ включили и информацию с сайта городского суда (развод был через суд). Та ли это информация, которой стоит светить в паблике? – Конечно же, нет.
Применительно к бизнесу: проверьте, какую информацию о вас по брендовому запросу отдаёт поиск. В худшем случае это будут данные юридического характера (статус, реквизиты, арбитражные суды и т.п.). Намного лучше, если в выдаче вы найдёте свои пресс-релизы, интервью в профильных медиа, упоминания в интересующем вас контексте. ИИ-агент использует эту информацию, объединив все доступные данные в одном источнике.
Если традиционный поиск для оценки авторитетности всегда использовал ссылки, то в данном случае намного интереснее упоминания, цитирования – и контекст этого цитирования. О том, что когда-нибудь обратные ссылки будут заменены мета-ссылками, я писал ещё несколько лет назад. Похоже, это время уже на подходе.
Конкретика
Эпоха ИИ-агентов кардинально меняет подходы к созданию контента, заставляя пересмотреть устаревшие SEO-стратегии. Если раньше успех во многом определялся техническими параметрами, такими как количество ключевых слов и объем текста, то сегодня на первый план выходит семантический поиск. Это означает, что искусственный интеллект ищет не просто совпадения слов, а смысл, заложенный в тексте. Привычная ментальная установка, где контент создавался ради формального соответствия требованиям поисковиков, например, достижения минимального порога в 300 слов, становится бесполезной. ИИ-агентам не нужна «вода» или заданная частотность ключевиков; им нужна конкретика и ценная информация.
Основная задача современного контента — давать исчерпывающие и прямые ответы на вопросы пользователя. Прежде чем создавать любую страницу или статью, необходимо задуматься, какую проблему пользователя она решает и какую пользу приносит. Если материал не содержит в себе конкретного решения, экспертного мнения или уникальных данных, а лишь пересказывает общеизвестные факты ради наполнения сайта, ИИ-агенты с большой вероятностью классифицируют его как «мусорный». Ценность определяется не объемом, а концентрацией смысла: короткий, но предельно ясный ответ на сложный вопрос будет оценен гораздо выше, чем длинная статья без четкого вывода.
Показательным примером этой новой философии является страница «О компании». Зачастую она наполнена шаблонными фразами о «динамично развивающейся команде профессионалов» или нерелевантными деталями вроде количества выпитого кофе в процессе работы. Потенциальному клиенту или партнеру эта информация неинтересна. Вместо этого страница должна четко отвечать на вопросы: почему стоит доверять именно этой компании? В чем ее уникальное преимущество? Какие реальные проблемы клиентов она уже решила? Эффективная страница «О нас» — это не внутренняя летопись, а коммерческое предложение, демонстрирующее надежность, экспертизу и выгоды для клиента.
Источником информации для ИИ становится абсолютно весь цифровой след компании. Анализу подвергается всё: от заголовков (тайтлов) и метаданных на сайте до содержания PDF-документов, подписей к изображениям и даже контекста упоминаний вашего бренда на сторонних ресурсах. ИИ-агент способен извлечь важную деталь из цитаты на форуме или в научной статье, и эта деталь может оказаться весомее, чем десятки формальных ключевых слов на вашем сайте. Именно поэтому контекст и конкретика в любом упоминании становятся намного важнее, чем просто факт наличия купленной ссылки, которая сама по себе не несет для ИИ смысловой нагрузки.
Стратегия SEO и контент-маркетинга должна сместиться от технической оптимизации к созданию целостной и авторитетной базы знаний о вашем продукте или услуге. Каждый элемент контента, от статьи в блоге до ответа в разделе FAQ, должен быть частью единой системы, которая предвосхищает и полностью закрывает потребности пользователя. Цель — стать настолько исчерпывающим и полезным источником в своей нише, чтобы ИИ-агент при любом релевантном запросе обращался именно к вашему контенту как к первоисточнику истины, находя в нем самые точные и полезные ответы.
Релевантность на уровне фрагментов, а не всей страницы
Традиционно поиск рассматривал целые страницы как единое целое. Для хорошего ранжирования страницы должны были быть релевантными в целом. Поиск на основе искусственного интеллекта, с такими разработками, как индексация отрывков, анализирует контент гораздо более мелкими фрагментами. LLM объединяют релевантные отрывки из множества источников, а не из одного документа в индексе. Каждый раздел контента теперь должен отвечать конкретному вопросу или намерению пользователя. Оптимизация на уровне отрывков означает:
- Отдельные разделы должны быть самостоятельными
- Каждый абзац должен содержать четкую, целевую информацию
- Слабые разделы игнорируются даже на высокорейтинговых страницах
Возможность индексировать пассажи независимо друг от друга позволяет поисковым системам понимать контекст и релевантность конкретных отрывков на странице, вне связи со всем документом. Одна страница, охватывающая несколько тем, может ранжироваться по запросам из разных тематик. Соответственно, контент, оптимизированный для ИИ-агентов и ИИ-поиска, подразумевает создание и проработку хорошо продуманных разделов, каждый из которых посвящен отдельным подтемам или вопросам, а не оптимизации целых страниц вокруг одной темы. Если раньше большая статья раскрывала единственную тему, то теперь каждый отрывок должен отвечать на конкретные вопросы, составляющие общую тему. Эта технология называется “разветвлением запросов”. Рассмотрим её подробнее.
Использование семантического сжатия
ИИ-системы работают с фрагментами (шинглами, пассажами), а не с текстом целиком. По этой причине каждый значимый фрагмент должен быть самостоятельным и понятным изолированно от документа. Контекст должен передаваться вместе с фрагментом.
Как это выглядит на практике? Если модель извлечёт только фрагмент с фразой «Как это выглядит на практике?» изолированно, она не поймёт, о чем идёт речь в этом логическом фрагменте, что такое «это» и о практике чего сказано в тексте. Оптимизированный для ИИ-системы фрагмент должен быть сформулирован в виде «Как сохранить контекст фрагмента для ИИ-системы на практике?».
Результаты тестов Дэна Петрович на эту тему:
- Фиксированный бюджет на один запрос : около 2000 слов в общей сложности, распределенных между источниками.
- Рейтинг имеет наибольшее значение : источник под номером 1 получает 531 слово, источник под номером 5 — 266 слов.
- Эффект убывающей отдачи : страницы объемом более 1500 слов больше не отбираются.
- Побеждает краткость : страница объемом 800 слов получает более 50% охвата; страница объемом 4000 слов — 13%.
Веерные запросы и тематическая авторитетность
Разветвление запросов (Query Fan-Out) — это метод, используемый системами искусственного интеллекта для интерпретации, обработки и ответа на вопросы пользователей, когда запрос пользователя не рассматривается как отдельный запрос. Вместо этого система искусственного интеллекта «разворачивает» или «разветвляет» исходный запрос на множество связанных, более специфичных подзапросов.
Традиционная модель поиска сопоставляла один запрос с упорядоченным списком документов, признанных релевантными этому запросу. Сейчас система ИИ отправляет от имени пользователя многочисленные запросы одновременно, чтобы глубже изучить сеть и синтезировать более полный и гиперрелевантный контент, чем это когда-либо мог сделать один поиск. Основная цель — собрать максимально полный и гиперрелевантный ответ на вопрос, который может быть даже не сформулирован внятно, но подразумевается.
- Пользователь отправляет запрос. ИИ анализирует вводимые пользователем данные на естественном языке. Процесс выходит за рамки анализа ключевых слов и включает в себя анализ формулировок, выявление основных аспектов темы, возможных намерений пользователя (например, сравнить варианты, изучить концепции или принять решение), а также любых неявных потребностей. Генерируются подзапросы.
- Подзапросы система отправляет в обширную и разнообразную экосистему источников данных, выходящую далеко за рамки традиционного поискового индекса. Такой параллельный поиск позволяет системе очень быстро собирать широкий спектр информации.
- На заключительном этапе система объединяет огромный объем информации, полученной из всех параллельных подзапросов. Языковая модель оценивает полученный контент, анализирует разрозненные фрагменты информации, соединяя точки, сравнивая факты и выявляя закономерности для формирования единого, связного и всеобъемлющего ответа.
Конечный результат — это не просто набор цитат, а хорошо структурированное, информативное резюме. Синтезированный ответ полностью раскрывает исходный запрос и заранее отвечает на возможные вопросы, которые могли возникнуть у пользователя.
Веб-сайт может не занимать высокого места в результатах поиска по общему, первоначальному запросу, но может быть представлен в качестве ключевого источника, поскольку он предоставляет единственный наилучший ответ на конкретный, узкоспециализированный подзапрос, сгенерированный ИИ. Следовательно, цель теперь заключается не в том, чтобы присутствовать по ключевому слову, а в том, чтобы быть всеобъемлюще представленным по всему тематическому кластеру.
Как отследить сайт в ответах ИИ-систем
С появлением генеративных поисковых платформ (Google AI Overviews, Яндекс-Нейро, Perplexity и Bing CoPilot) оценка видимости сайта в поиске с помощью позиций по запросам, показов и кликов потеряла смысл. Теперь ключевой вопрос не «На каком месте мой сайт по конкретному запросу?», а «Цитируется ли мой ресурс в сгенерированном ответе?». Этот слой ответов представляет собой динамичную и непрозрачную среду, где ссылки могут появляться и исчезать в зависимости от малейших изменений в запросе, контекста пользователя или внутренних решений поисковой модели.
- Вместо того чтобы выполнять один поиск по веб-индексу, генеративная модель зачастую «раскладывает» исходный запрос на несколько логических подзапросов (см. “query fan-out”).
- Затем она одновременно обращается к множеству источников: традиционному поисковому индексу, внутренним базам знаний, графам данных и другим специализированным ресурсам.
- После сбора информации из всех этих векторов модель анализирует, синтезирует и формирует из них единый, целостный ответ для пользователя.
Именно этот многокомпонентный поиск объясняет, почему в итоговом ответе могут соседствовать ссылки на совершенно разные, порой неожиданные, ресурсы, и почему результат так изменчив.
Наиболее эффективный подход к отслеживанию упоминаний сочетает в себе методы активного обнаружения и пассивного анализа.
- Активное обнаружение подразумевает использование специализированных программ-агентов, которые по заданному расписанию направляют запросы к поисковым системам с ИИ, собирают их ответы и анализируют на предмет наличия ссылок на ваш домен. Программы для активного обнаружения могут варьироваться от простых скриптов на базе Selenium или Playwright, делающих скриншоты, до сложных конвейеров данных, которые собирают HTML/JSON ответы, извлекают из них структурированную информацию об упоминаниях и сохраняют в базу данных.
- Пассивный анализ заключается в изучении лог-файлов вашего сервера для выявления активности поисковых роботов, принадлежащих генеративным системам. Углубленный анализ логов позволяет даже группировать визиты ботов по целевым URL, демонстрируя, какие именно страницы вашего сайта ИИ-системы считают наиболее релевантными для ваших целевых запросов.
LLM используют настройки выборки и температуры, которые гарантируют, что если вы зададите один и тот же вопрос дважды, вы можете получить разные ответы. Вместо отслеживания рейтингов нам нужно измерять заметность бренда и первичное смещение .
Резюме
- Классические методы SEO способны лишь косвенно улучшить видимость вашего бизнеса в ИИ-системах благодаря тому, что сайт в зоне видимости (ориентировочно – топ-30) может стать источником данных для этих систем.
- Важнее общая видимость сайта в тематике, чем топовые позиции по отдельным ключевым словам.
- Бренд должен быть представлен не только на своём сайте, но и на сторонних авторитетных площадках и в профильных базах данных.
- Цитирования важнее ссылок. Контекст – весомее, чем ключевые слова. PR эффективнее SEO-спама.
- Без понимания принципов работы ИИ-систем, полноценного анализа целевой аудитории, паттернов разветвления запросов и добавления соответствующего контента все прочие средства оптимизации, считающиеся традиционными, не могут быть эффективны.


