Кто-то на Reddit задал вопрос о внесении общесайтовых изменений в код, относящийся к веб-сайту с десятью языками. Джон Мюллер из Google дал общие советы о подводных камнях изменений всего сайта и рассказал о сложности (подразумевая ценность простоты).

Вопрос был связан с hreflang, но ответ Мюллера, поскольку он носил общий характер, имел более широкое значение для SEO.

Вот вопрос, который был задан:

«Я работаю над веб-сайтом, который содержит 10 языков и 20 культурных кодов. Допустим, блог-азбука опубликована на всех языках. Теги hreflang на всех языках указывают на версию blog-abc, основанную на языке. Для en это может быть en/blog-abc.

Они обновили версию на английском языке, а URL-адрес был обновлен до blog-def. Тег hreflang на англоязычной странице блога для en будет обновлен до en/blog-def. Однако это не будет динамически обновляться в исходном коде других языков. Они по-прежнему будут указывать на en/blog-abc. Чтобы обновить теги hreflang на других языках, нам также придется опубликовать их повторно.

Поскольку мы пытаемся сделать страницы как можно более статичными, динамическое обновление тегов hreflang может оказаться невозможным. У нас есть варианты: либо периодически обновлять теги hreflang (скажем, раз в месяц), либо перемещать теги hreflang в карту сайта.

Если вы думаете, что есть другой вариант, это тоже будет полезно».

Обработка изменений на уровне сайта занимает много времени

Недавно я прочитал интересную вещь в исследовательской работе, которая напомнила мне слова Джона Мюллера о том, что Google требуется время, чтобы понять, что обновленные страницы связаны с остальной частью Интернета.

В исследовательском документе упоминается, что обновленные веб-страницы требуют пересчета семантического значения веб-страниц (вложений), а затем проделывают то же самое для остальных документов.

ЧИТАТЬ  Самый простой способ настроить API-шлюз

Вот что говорится в исследовательской работе (PDF) вскользь говорит о добавлении новых страниц в поисковый индекс:

«Рассмотрим реалистичный сценарий, при котором новые документы постоянно добавляются в индексированный корпус. Обновление индекса в методах на основе двойного кодирования требует вычисления вложений для новых документов с последующей повторной индексацией всех вложений документов.

Напротив, построение индекса с использованием DSI предполагает обучение модели Transformer. Следовательно, модель необходимо переобучать с нуля каждый раз, когда обновляется базовый корпус, что приводит к непомерно высоким вычислительным затратам по сравнению с двойными кодировщиками».

Я упоминаю этот отрывок, потому что в 2021 году Джон Мюллер сказал, что Google могут потребоваться месяцы, чтобы оценить качество и релевантность сайта, и упомянул, как Google пытается понять, как веб-сайт вписывается в остальную часть сети.

Вот что он сказал в 2021 году:

«Я думаю, что все гораздо сложнее, когда дело касается качества в целом, когда оценить общее качество и релевантность веб-сайта не так-то просто.

Нам требуется много времени, чтобы понять, как веб-сайт соотносится с остальным Интернетом.

И это может легко занять, я не знаю, пару месяцев, полгода, а иногда даже больше полугода, чтобы мы распознали значительные изменения в общем качестве сайта.

Потому что мы, по сути, следим за тем, как этот веб-сайт вписывается в контекст Интернета в целом, а это занимает много времени.

Я бы сказал, что по сравнению с техническими проблемами обновление информации в этом отношении занимает гораздо больше времени».

Эта часть об оценке того, как веб-сайт вписывается в контекст всей сети, является любопытным и необычным утверждением.

То, что он сказал о вписывании в контекст Интернета в целом, прозвучало на удивление похоже на то, что говорилось в исследовательской работе о том, как работает поисковый индекс.требует вычисления вложений для новых документов с последующей переиндексацией всех вложений документов».

ЧИТАТЬ  «Раздвигая границы цифрового выражения»: на рынке появляется новаторский 32-дюймовый голограммный дисплей XR, но, учитывая высокую цену, он не для всех

Вот Ответ Джона Мюллера на Reddit о проблеме с обновлением большого количества URL-адресов:

«В общем, обработка изменения URL-адресов на более крупном сайте потребует времени (именно поэтому я рекомендую стабильные URL-адреса… кто-то однажды сказал, что крутые URL-адреса не меняются; я не думаю, что они имели в виду SEO, но также и для SEO). Я не думаю, что какой-либо из этих подходов существенно изменит ситуацию».

Что имеет в виду Мюллер, когда говорит, что большие изменения требуют времени? Это может быть похоже на то, что он сказал в 2021 году о новой оценке сайта на предмет качества и релевантности. Эта часть релевантности также может быть похожа на то, что говорится в исследовательской работе о вычислительных встраиваниях, которые относятся к созданию векторных представлений слов на веб-странице как части понимания семантического значения.

Смотрите также: Векторный поиск: оптимизация человеческого разума с помощью машинного обучения

Сложность имеет долгосрочные издержки

Джон Мюллер продолжил свой ответ:

«Более мета-вопрос может заключаться в том, видите ли вы достаточно результатов от этой довольно сложной настройки, чтобы вообще тратить время на ее поддержание, можете ли вы отказаться от настройки hreflang или вообще отказаться от версий для стран и упростить хотя бы более.

Сложность не всегда увеличивает ценность и влечет за собой долгосрочные издержки».

Создание максимально простых сайтов — это то, чем я занимаюсь уже более двадцати лет. Мюллер прав. Это значительно упрощает обновление и модернизацию.

Рекомендованное изображение: Shutterstock/hvostik



Source link