Повышайте свои навыки с помощью еженедельной экспертной информации Growth Memo. Подпишитесь бесплатно!

Каждый год, после зимних каникул, я провожу несколько дней, собирая контекст прошлого года и напоминая себе о том, где находятся мои клиенты. Я хочу воспользоваться возможностью поделиться своим пониманием того, где мы находимся с AI Search, чтобы вы могли быстро вернуться в строй.

Напомним, что в конце 2025 года атмосфера вокруг ChatGPT немного ухудшилась:

  • Google выпустил улучшенную версию Gemini 3, в результате чего Сэм Альтман объявил о Code Red (по иронии судьбы, через три года после того, как Google сделал то же самое при запуске ChatGPT 3.5).
  • OpenAI осуществила серию циклических инвестиций, которые вызвали недоумение и вопросы о том, как их финансировать.
  • ChatGPT, который отправляет большую часть всех LLM, достигает не более 4% текущего органического реферального трафика (в основном Google).

Прежде всего, мы до сих пор не знаем ценность упоминания в ответе ИИ. Однако тема искусственного интеллекта и LLM не может быть более важной, поскольку пользовательский опыт Google превращается из списка результатов в окончательный ответ.

Большое «спасибо» Дэн Петрович и Андреа Вольпини за рассмотрение моего проекта и добавление содержательных концепций.

Изображение предоставлено: Кевин Индиг

Получено → Процитировано → Доверено

Оптимизация видимости в поиске с использованием ИИ осуществляется по конвейеру, аналогичному классическому алгоритму «сканирование, индексирование, ранжирование» для поисковых систем:

  1. Поисковые системы решают, какие страницы входят в набор кандидатов.
  2. Модель выбирает, какие источники цитировать.
  3. Пользователи решают, какой цитате доверять, и действовать в соответствии с ней.

Предостережения:

  1. Многие рекомендации сильно совпадают с общепринятыми передовыми практиками SEO. Та же тактика, новая игра.
  2. Я не претендую на то, что у меня есть исчерпывающий список всего, что работает.
  3. Спорные факторы, такие как схема или llms.txt, не включены.

Рассмотрение: попадание в пул кандидатов

Прежде чем какой-либо контент попадет в набор рассмотрения (обоснования) модели, он должен быть просканирован, проиндексирован и доступен для извлечения в течение миллисекунд во время поиска в реальном времени.

Факторами, которые способствуют рассмотрению, являются:

  • Скорость отбора и первичная предвзятость.
  • Время ответа сервера.
  • Актуальность метаданных.
  • Фиды товаров (в электронной торговле).

1. Скорость отбора и первичная ошибка

  • Определение: Первичная предвзятость измеряет ассоциации с атрибутами бренда, которые вызывает модель, прежде чем она будет основана на результатах живого поиска. Коэффициент выбора показывает, как часто модель выбирает ваш контент из пула кандидатов для поиска.
  • Почему это важно: На LLM влияют данные обучения. Модели рассчитывают показатели достоверности для отношений между атрибутами бренда (например, «дешево», «долговечно», «быстро») независимо от поиска в реальном времени. Эти уже существующие ассоциации влияют на вероятность цитирования, даже когда ваш контент попадает в пул кандидатов.
  • Цель: Поймите, какие атрибуты модели ассоциируются с вашим брендом и насколько она уверена в вашем бренде как в целом. Систематически укрепляйте эти ассоциации посредством целевых кампаний на странице и за ее пределами.
ЧИТАТЬ  Prime Big Deal Days Предложения Apple Watch в 2024 году: SE, Ultra и многое другое | Цифровые тенденции

2. Время ответа сервера

  • Определение: Время между запросом сканера и получением первого байта данных ответа сервера (TTFB = время до первого байта).
  • Почему это важно: Когда моделям нужны веб-результаты для обоснования ответов (RAG), им необходимо извлекать контент, как сканеру поисковой системы. Несмотря на то, что поиск в основном основан на индексах, более быстрые серверы помогают с рендерингом, агентскими рабочими процессами, актуальностью и разветвлением составных запросов. Поиск LLM работает в условиях ограниченной задержки во время поиска в реальном времени. Медленные ответы не позволяют страницам попасть в пул кандидатов, поскольку они пропускают окно поиска. Постоянно медленное время отклика вызывает ограничение скорости сканирования.
  • Цель: Поддерживать время ответа сервера <200 мс. Сайты со временем загрузки <1 с получают в 3 раза больше Робот Googlebot запрашивает сайты >3 с. Для сканеров LLM (GPTBot, Google-Extended) окна поиска даже более жесткие, чем при традиционном поиске.

3. Актуальность метаданных

  • Определение: Теги заголовков, метаописания и структура URL-адресов, которые LLM анализируют при оценке релевантности страницы во время поиска в реальном времени.
  • Почему это важно: Прежде чем выбирать контент для формирования ответов ИИ, LLM анализируют заголовки на предмет актуальности, описания как сводки документов, а URL-адреса как контекстные подсказки на предмет релевантности страницы и надежности.
  • Цель: Включите целевые концепции в заголовки и описания (!), соответствующие языку подсказок пользователя. Создавайте URL-адреса с описанием ключевых слов, возможно, даже включая текущий год, чтобы сигнализировать о свежести.

4. Доступность фида товаров (электронная торговля)

  • Определение: Структурированные каталоги продуктов, отправляемые непосредственно на платформы LLM, содержат данные о запасах, ценах и атрибутах в режиме реального времени.
  • Почему это важно: Прямые каналы обходят традиционные ограничения поиска и позволяют LLM отвечать на запросы о транзакционных покупках («где я могу купить», «лучшая цена»), предоставляя точную и актуальную информацию.
  • Цель: Отправляйте фиды товаров, контролируемые продавцом, в торговую программу ChatGPT (chatgpt.com/merchants) в формате JSON, CSV, TSV или XML с полными атрибутами (название, цена, изображения, обзоры, наличие, характеристики). Внедрите ACP (протокол агентской коммерции) для агентских покупок.
ЧИТАТЬ  Вебинар по семантическому ядру на примере 5 тем для крупных проектов, более 500 страниц - 8 февраля 2024 г. | Цифровые мероприятия

Актуальность: быть выбранным для цитирования

«Кризис атрибуции в результатах поиска LLM(Strauss et al., 2025) сообщает о низком уровне цитирования, даже когда модели получают доступ к соответствующим источникам.

  • 24% ответов ChatGPT (4o) генерируются без явного получения какого-либо онлайн-контента.
  • Gemini не дает кликабельной цитаты в 92% ответов.
  • Perplexity посещает около 10 релевантных страниц за один запрос, но цитирует только три-четыре.

Модели могут ссылаться только на источники, которые входят в контекстное окно. Упоминания перед тренировкой часто идут без указания авторства. При оперативном поиске добавляется URL-адрес, который позволяет атрибуцию.

5. Структура контента

  • Определение: Семантическая иерархия HTML, элементы форматирования (таблицы, списки, часто задаваемые вопросы) и плотность фактов, которые делают страницы машиночитаемыми.
  • Почему это важно: LLM извлекают и цитируют конкретные отрывки. Четкая структура облегчает анализ и выборку страниц. Поскольку подсказки средние В 5 раз длиннее ключевых словСтруктурированный контент, отвечающий на вопросы, состоящие из нескольких частей, превосходит по эффективности страницы с одним ключевым словом.
  • Цель: Используйте семантический HTML с четкой иерархией H-тегов, таблицами для сравнения и списками для перечисления. Увеличивать плотность фактов и понятий чтобы максимизировать вероятность вклада фрагмента.

6. Часто задаваемые вопросы

  • Определение: Разделы вопросов и ответов, которые отражают разговорные фразы, используемые пользователями в подсказках LLM.
  • Почему это важно: Форматы часто задаваемых вопросов соответствуют тому, как пользователи запрашивают LLM («Как мне…», «В чем разница между…»). Такое структурное и лингвистическое соответствие увеличивает вероятность цитирования и упоминания по сравнению с контентом, оптимизированным по ключевым словам.
  • Цель: Создавайте библиотеки часто задаваемых вопросов на основе реальных вопросов клиентов (заявки в службу поддержки, звонки по продажам, форумы сообщества), которые отражают возникающие шаблоны подсказок. Отслеживайте актуальность часто задаваемых вопросов с помощью схемы LastReviewed или DateModified.

7. Свежесть контента

  • Определение: Обновление контента измеряется временными метками «последнего обновления» и фактическими изменениями контента.
  • Почему это важно: LLM анализируют последние обновленные метаданные, чтобы оценить актуальность источника и определить приоритетность недавней информации как более точной и актуальной.
  • Цель: Обновляйте контент в течение последних трех месяцев для максимальной производительности. Над 70% страниц цитируемые ChatGPT, были обновлены в течение 12 месяцев, но содержимое обновлено в последние три месяца работает лучше всего во всех отношениях.

8. Упоминания третьих лиц («Вебютация»)

  • Определение: Упоминания бренда, обзоры и цитирование на внешних доменах (издателях, сайтах обзоров, новостных агентствах), а не на принадлежащих ему ресурсах.
  • Почему это важно: В рамках LLM внешняя проверка важнее, чем самореклама, чем ближе намерение пользователя к решению о покупке. Сторонний контент обеспечивает независимую проверку утверждений и устанавливает релевантность категории посредством совместного упоминания с признанными авторитетами. Они увеличивают сущность внутри больших контекстных графов.
  • Цель: 85% упоминаний бренда При поиске с помощью ИИ подсказки о высоком покупательском намерении поступают из сторонних источников. Зарабатывать контекстные обратные ссылки из авторитетных доменов и вести полные профили по категориям обзорные платформы.
ЧИТАТЬ  Как найти нужную машину на аукционе - J Car

9. Позиция в органическом поиске

  • Определение: Рейтинг страниц в традиционных страницах результатов поисковых систем (SERP) по релевантным запросам.
  • Почему это важно: Многие LLM используют поисковые системы в качестве источников поиска. Более высокие органические рейтинги увеличивают вероятность попадания в список кандидатов LLM и получения цитирований.
  • Цель: Входите в десятку лучших по версии Google по разнообразным запросам по вашим основным темам, а не только по основным терминам. Поскольку подсказки LLM носят диалоговый характер и разнообразны, рейтинг страниц для многих вариантов с длинным хвостом и вопросов, основанных на вопросах, имеет более высокую вероятность цитирования. Страницы из топ-10 показывают сильная корреляция (~0,65) с упоминаниями LLM и 76% цитирований Обзора ИИ выйти из этих позиций. Предостережение: корреляция зависит от LLM. Например, перекрытие высокий для обзоров ИИ но низкий для ChatGPT.

Выбор пользователя: завоевание доверия и действие

Доверие имеет решающее значение, поскольку в поиске ИИ мы имеем дело с одним ответом, а не со списком результатов поиска. Оптимизация доверия аналогична оптимизации рейтинга кликов в классическом поиске, только она занимает больше времени и ее труднее измерить.

10. Подтвержденный опыт

  • Определение: Видимые учетные данные, сертификаты, подписи и проверяемые доказательства, подтверждающие авторитет автора и бренда.
  • Почему это важно: Поиск с помощью ИИ выдает отдельные ответы, а не ранжированные списки. Пользователям, которые переходят по ссылке, требуются более сильные сигналы доверия прежде чем предпринимать действия, потому что они подтверждают окончательное утверждение.
  • Цель: Разместите на видном месте учетные данные автора, отраслевые сертификаты и проверяемые доказательства (логотипы клиентов, показатели тематического исследования, результаты сторонних испытаний, награды). Подкрепите маркетинговые заявления доказательствами.

11. Присутствие пользовательского контента

  • Определение: Представление бренда на платформах сообщества (Reddit, YouTube, форумы), где пользователи делятся опытом и мнениями.
  • Почему это важно: Пользователи проверяют синтетические ответы ИИ на основе человеческого опыта. Когда Обзоры ИИ Оказывается, клики на Reddit и YouTube вырастают с 18% до 30%, потому что пользователи ищут социальное доказательство.
  • Цель: Создайте положительное присутствие в соответствующих категориях субреддитах, на YouTube и на форумах. YouTube и Reddit последовательно в топ-3 самых цитируемых доменов по LLM.

От выбора к убеждению

Поиск движется от изобилия к синтезу. На протяжении двух десятилетий рейтинговый список Google давал пользователям выбор. Поиск с помощью ИИ дает единый ответ, который объединяет несколько источников в один окончательный ответ.

Механика отличается от SEO начала 2000-х:

  • Окна поиска заменяют краулинговые бюджеты.
  • Коэффициент отбора заменяет PageRank.
  • Сторонняя проверка заменяет текст привязки.

Стратегический императив тот же: обеспечить видимость в интерфейсе, в котором пользователи выполняют поиск. Традиционное SEO остается основополагающим, но видимость ИИ требует других стратегий контента:

  • Охват разговорных запросов имеет большее значение, чем рейтинг по ключевым словам.
  • Внешняя проверка имеет большее значение, чем собственный контент.
  • Структура имеет большее значение, чем плотность ключевых слов.

Бренды, которые сейчас создают систематические программы оптимизации, будут получать дополнительные преимущества по мере масштабирования трафика LLM. Переход от ранжированных списков к окончательным ответам необратим.


Федеративное изображение: Пауло Бобита/Search Engine Journal



Source link