Google хочет, чтобы ИИ мог добывать весь цифровой контент, если только издатели не откажутся от этого.
Поисковик выдвинул это предложение в правительстве Австралии, призывая политиков изменить действующие законы об авторском праве.
Почему мы заботимся. Если законы об авторском праве действительно изменятся, ответственность за то, чтобы ИИ не добывал их контент, ляжет на бренды и издателей. Если они этого не сделают, они рискуют, что конкуренты потенциально будут создавать очень похожий контент и не смогут ничего с этим поделать, что может нанести значительный ущерб кампании с точки зрения бренда и идентичности.
Что происходит? Google написал правительству Австралии, заявив:
- «Системы авторского права, которые обеспечивают надлежащее и добросовестное использование контента, защищенного авторским правом, для обучения моделей ИИ в Австралии на широком и разнообразном наборе данных, поддерживая при этом действенные возможности отказа для организаций, которые предпочитают, чтобы их данные не обучались использованию систем ИИ. ».
Поисковая система, конечно же, ранее выдвигала аналогичные дела правительству Австралии, утверждая, что ИИ должен иметь право на добросовестное использование онлайн-контента в учебных целях. Тем не менее, это первый раз, когда Google предлагает пункт об отказе в качестве решения для решения прошлых проблем.
Как это будет работать? У Google пока нет конкретного плана, однако поисковая система предположила, что хочет обсудить создание веб-стандарта, разработанного сообществом, который работает аналогично системе robots.txt, которая позволяет издателям чтобы запретить поисковым системам сканировать их контент.
Получайте ежедневный информационный бюллетень, на который полагаются поисковые маркетологи.
Что сказал Гугл? Даниэль Ромейн, вице-президент по доверию в поиске Google, затронула эту тему в пресс-релизе в прошлом месяце. Она сказала:
- «Мы считаем, что от динамичной экосистемы контента выигрывают все. Ключом к этому является то, что веб-издатели имеют возможность выбора и контроля над своим контентом, а также возможности извлекать выгоду из участия в веб-экосистеме. Однако мы понимаем, что существующие средства управления веб-издателями были разработаны до появления новых. Варианты использования ИИ и исследований.
- «По мере появления новых технологий они открывают перед веб-сообществом возможности для разработки стандартов и протоколов, поддерживающих будущее развитие Интернета. Один из таких веб-стандартов, разработанный сообществом, robots.txt, был создан почти 30 лет назад и зарекомендовал себя как простой и прозрачный способ для веб-издателей контролировать, как поисковые системы сканируют их контент. Мы считаем, что настало время для веб-сообществ и сообществ ИИ изучить дополнительные машиночитаемые средства для выбора и контроля веб-издателей для новых вариантов использования ИИ и исследований».
Глубокое погружение. Прочитайте Google ‘Развитие возможностей выбора и управления веб-контентом‘ объявление в полном объеме для получения дополнительной информации.