Мартин Сплитт из Google затронул вопрос о надежности веб-сайта и о том, могут ли конкуренты негативно повлиять на него. Он объяснил, как Google оценивает надежность сайта, и пояснил, почему такие факторы, как ссылки и трафик сайта, не оказывают негативного влияния на восприятие надежности Google.

Надежность

Гуглеры, исследовательские работы и патенты упоминают о надежности веб-сайтов, но в Google нет фактической метрики доверия, используемой. Было подтверждено когда-то давно, что есть несколько сигналов, которые вместе указывают, можно ли доверять сайту, но это не алгоритм доверия, это просто сигналы.

Когда сотрудники Google говорят о том, заслуживает ли сайт доверия, лучше не переусердствовать, они просто говорят о том, заслуживает ли сайт доверия.

Может ли конкурент создавать негативные сигналы надежности?

Человек, задавший вопрос, был обеспокоен тем, что конкурент отправлял бот-трафик на его сайт, что, по его мнению, было попыткой представить его сайт ненадежным в глазах алгоритма Google.

Это может быть отсылкой к идее SEO о том, что Google использует показатели кликов для ранжирования веб-страниц, но большинство исследовательских работ о кликах используют клики для проверки результатов поиска, а не для ранжирования веб-страниц, это, как правило, вопрос обеспечения качества.

Вот какой вопрос был задан:

«Должен ли я беспокоиться о том, что недобросовестные люди попытаются сделать наш сайт ненадежным, отправляя спам или фальшивый трафик на мой сайт? Поскольку надежность сайта является бинарным показателем».

Двоичный означает, что это либо то, либо это. В этом случае человек, задающий вопрос, вероятно, имеет в виду, что сайт либо заслуживает доверия, либо не заслуживает доверия, без серых зон между ними.

ЧИТАТЬ  Google: вы можете захотеть объединить страницы, которые отображаются с отступом в поиске Google

Мартин Сплитт принизил значение идеи бинарного качества до уровня надежности и открыто отрицал, что трафик может влиять на то, как Google видит сайт.

Он ответил:

«Это не совсем двоичный код, и просто отправка трафика из сомнительных источников на сайт не будет «испорчена»».

«Спам или фейковый трафик» — это не то, что может негативно повлиять на доверие.

Мартин объяснил, что если сам сайт спамный, то он будет рассматриваться как спам. Затем он подтвердил, что то, что делают другие сайты в плане ссылок или трафика, не влияет на то, выглядит ли сайт спамным или нет.

Он ответил:

«Если сайт сам занимается сомнительными делами, например, спамом или вредоносным ПО, то это, конечно, проблема, но никто не может выбирать или контролировать, откуда поступает трафик или ссылки, поэтому Google Search не будет обращать на это внимание, чтобы оценить надежность сайта».

Трафик ботов не влияет на то, как Google видит сайт

Почти каждый веб-сайт сталкивается с высоким уровнем хакерских ботов, зондирующих сайт в поисках уязвимостей. Некоторые боты неоднократно атакуют сайт в поисках несуществующих страниц. Это просто состояние сети, каждый сайт сталкивается с этим.

Поэтому слова Мартина о том, что третьи стороны не способны заставить другой сайт казаться ненадежным, имеют смысл, особенно если учесть, что все сайты имеют некачественные входящие ссылки и некачественный бот-трафик.

Посмотрите подкаст SEO Office Hours на отметке 18:48:

Главное изображение от Shutterstock/Krakenimages.com



Source link