В недавнем видео на YouTube Мартин Сплитт из Google объяснил разницу между тегом «noindex» в метатегах роботов и командой «disallow» в файлах robots.txt.

Сплитт, адвокат разработчиков Google, отметил, что оба метода помогают управлять работой сканеров поисковых систем с веб-сайтом.

Однако они имеют разные цели и не должны использоваться вместо друг друга.

Когда использовать Noindex

Директива noindex сообщает поисковым системам не включать определенную страницу в результаты поиска. Вы можете добавить эту инструкцию в раздел заголовка HTML, используя метатег robots или HTTP-заголовок X-Robots.

Используйте «noindex», если вы хотите, чтобы страница не отображалась в результатах поиска, но при этом разрешила поисковым системам читать ее содержимое. Это полезно для страниц, которые могут видеть пользователи, но вы не хотите, чтобы их отображали поисковые системы, например страницы благодарности или страницы результатов внутреннего поиска.

Когда использовать Disallow

Директива «disallow» в файле robots.txt веб-сайта не позволяет сканерам поисковых систем получать доступ к определенным URL-адресам или шаблонам. Если страница запрещена, поисковые системы не будут сканировать или индексировать ее содержимое.

Splitt советует использовать «запретить», если вы хотите полностью заблокировать поисковые системы при получении или обработке страницы. Это подходит для конфиденциальной информации, такой как личные данные пользователя, или для страниц, которые не имеют отношения к поисковым системам.

Распространенные ошибки, которых следует избегать

Одна из распространенных ошибок владельцев веб-сайтов — использование «noindex» и «disallow» для одной и той же страницы. Сплитт не советует этого делать, поскольку это может вызвать проблемы.

Если страница запрещена в файле robots.txt, поисковые системы не смогут увидеть команду «noindex» в метатеге страницы или заголовке X-Robots. В результате страница все равно может быть проиндексирована, но с ограниченной информацией.

ЧИТАТЬ  Оповещения Google об экологическом кризисе: в центре внимания День Земли

Чтобы страница не появлялась в результатах поиска, Splitt рекомендует использовать команду «noindex», не запрещая страницу в файле robots.txt.

Google предоставляет отчет robots.txt в консоли поиска Google, чтобы проверить и отслеживать, как файлы robots.txt влияют на индексацию поисковых систем.

Почему это важно

Понимание правильного использования директив «noindex» и «disallow» имеет важное значение для профессионалов в области SEO.

Следование советам Google и использование доступных инструментов тестирования помогут обеспечить правильное отображение вашего контента в результатах поиска.

Полное видео смотрите ниже:


Рекомендуемое изображение: Асьер Ромеро/Шаттерсток



Source link