На конференции Google I/O мы объявили о новых продуктах и опыте на базе ИИ, которые основаны на наших многолетних исследованиях в этой области. Мы также говорили о приверженности Google ответственной разработке ИИ таким образом, чтобы максимизировать положительные преимущества для общества при решении проблем, руководствуясь нашими Принципы ИИ и в соответствии с нашими обязательство о конфиденциальности клиента.
Мы считаем, что каждый получает выгоду от динамичной экосистемы контента. Ключом к этому является то, что веб-издатели имеют выбор и контроль над своим контентом, а также возможности извлекать выгоду из своего участия в веб-экосистеме. Однако мы понимаем, что существующие элементы управления для веб-редакторов были разработаны до появления новых вариантов использования ИИ и поиска.
По мере появления новых технологий они открывают перед веб-сообществом возможности для разработки стандартов и протоколов, поддерживающих будущее развитие Интернета. Такой разработанный сообществом веб-стандарт, robots.txt, был создан почти 30 лет назад и зарекомендовал себя как простой и прозрачный способ для веб-издателей контролировать, как поисковые системы сканируют их контент. Мы считаем, что настало время для веб-сообществ и сообществ ИИ изучить другие машиночитаемые средства для выбора и контроля веб-издателей для новых вариантов использования ИИ и ИИ.
Сегодня мы начинаем публичные дебаты, приглашая членов веб-сообщества и сообществ ИИ высказать свое мнение о подходах к взаимодополняющим протоколам. Мы хотели бы, чтобы к обсуждению присоединился широкий спектр мнений от веб-издателей, гражданского общества, научных кругов и других сфер со всего мира, и мы будем созванивать тех, кто желает принять участие в ближайшие месяцы.
Вы можете присоединиться к обсуждению в Интернете и сообществах ИИ, зарегистрировавшись на нашем сайте и мы скоро поделимся дополнительной информацией об этом процессе.