Члены команды по поиску Google недавно поделились информацией о веб -стандартах в подкасте Search Off The Record.
Мартин Сплитт и Гари Иллиес объяснили, как создаются эти стандарты и почему они имеют значение для SEO. Их разговор раскрывает подробности о решениях Google, которые влияют на то, как мы оптимизируем веб -сайты.
Содержание
Почему некоторые веб -протоколы становятся стандартами, а другие — нет
Google формально стандартизировал robots.txt через целевую группу по инженерному интернет -инженерии (IETF). Тем не менее, они покинули протокол Sitemap в качестве неформального стандарта.
Это различие показывает, как Google определяет, какие протоколы требуют официальных стандартов.
Иллиес объяснил во время подкаст:
«С помощью robots.txt была выгода, потому что мы знали, что разные анализаторы, как правило, анализируют файлы robots.txt по -разному… с Sitemap, это похоже на« эх »… это простой XML -файл, и не так много, что с ним может пойти не так».
Это утверждение от Illyes раскрывает приоритеты Google. Протоколы, которые путают платформы, получают больше внимания, чем те, которые работают хорошо без официальных стандартов.
Преимущества стандартизации протокола для SEO
Стандартизация robots.txt создала несколько четких преимуществ для SEO:
- Последовательная реализация: Файлы robots.txt теперь интерпретируются более последовательно для поисковых систем и сканеров.
- Ресурсы с открытым исходным кодом: «Это позволило нам открыть исходный коэффициент нашего анализатора.
- Проще в использовании: Согласно Иллиесу, стандартизация означает, что «владельцев сайтов меньше напряжения, пытающихся выяснить, как написать проклятые файлы».
Эти преимущества делают технический SEO работать более простым и эффективным, особенно для команд, управляющих большими веб -сайтами.
Внутри процесса веб -стандартов
Подкаст также показал, как создаются веб -стандарты.
Стандартные группы, такие как IETF, W3C и WhatWG, работают через открытые процессы, которые часто занимают годы. Этот медленный темп обеспечивает безопасность, четкий язык и широкую совместимость.
Иллиес объяснил:
«Вы должны показать, что то, над чем вы работаете, на самом деле работает. Есть тонны итерации, и это делает процесс очень медленным — но по уважительной причине».
Оба инженера Google подчеркнули, что любой может участвовать в этих процессах стандартов. Это создает возможности для профессионалов SEO, чтобы помочь формировать протоколы, которые они используют ежедневно.
Соображения безопасности в веб -стандартах
Стандарты также решают важные проблемы безопасности. При разработке стандарта robots.txt Google включил ограничение на 500 килобитов специально для предотвращения потенциальных атак.
Иллиес объяснил:
«Когда я читаю черновик, я смотрел на то, как бы я использовал вещи, которые описывает стандарт».
Это демонстрирует, как стандарты устанавливают границы безопасности, которые защищают как веб -сайты, так и инструменты, которые взаимодействуют с ними.
Почему это важно
Для профессионалов SEO эти идеи указывают на несколько практических стратегий, которые следует рассмотреть:
- Будьте точными при создании директив robots.txt, поскольку Google вложил значительные средства в этот протокол.
- Используйте диапазон Google Robots.txt Robots.txt, чтобы проверить вашу работу.
- Знайте, что карты сайтов предлагают большую гибкость с меньшими затратами.
- Рассмотрите возможность присоединения к группам веб -стандартов, если вы хотите помочь сформировать будущие протоколы.
Поскольку поисковые системы продолжают расставлять приоритеты в техническом качеством, понимание основных принципов, лежащих в основе веб -протоколов, становится все более ценным для достижения успеха SEO.
Этот разговор показывает, что даже простые технические характеристики включают сложные соображения относительно безопасности, последовательности и простоты использования, все факторы, которые непосредственно влияют на производительность SEO.
Слушайте полное обсуждение в видео ниже: