Meta объявила об обновлении своей политики маркировки ИИ, расширив определение «манипулируемых медиа» и выйдя за рамки видео, созданных ИИ, и теперь включая обманчивые аудио и изображения в Facebook, Instagram и Threads.
Важной особенностью новой политики является то, что она может восприниматься как ограничивающая свободу выражения мнений. Вместо того, чтобы применять подход к удалению проблемного контента, Мета просто маркирует его. Meta ввела два ярлыка: «Сделано с помощью ИИ» и «Создано с помощью ИИ», чтобы было понятно, какой контент был создан или изменен с помощью ИИ.
Содержание
Новые предупреждающие этикетки
Контент, создаваемый ИИ, будет основан на выявлении сигналов авторства ИИ и самоотчетности:
«Наши ярлыки «Сделано с помощью ИИ» на видео, аудио и изображениях, созданных ИИ, будут основаны на обнаружении общеотраслевых сигналов изображений ИИ или людей, которые сами раскрывают, что они загружают контент, созданный ИИ»
Содержимому, которое существенно вводит в заблуждение, могут быть присвоены более заметные ярлыки, чтобы пользователи могли лучше его понять.
Вредный контент, нарушающий Нормы сообщества, например контент, провоцирующий насилие, вмешательство в выборы, запугивание или преследование, подлежит удалению независимо от того, создан ли он людьми или искусственным интеллектом.
Причина обновления политики Meta
Первоначальная политика маркировки ИИ была создана в 2020 году, и из-за состояния технологии она была узко определена и ограничивалась видео, вводящими в заблуждение (такими, на которых общественные деятели говорят то, чего они никогда не делали). Наблюдательный совет Meta признал, что технологии продвинулись до такой степени, что возникла необходимость в новой политике. Соответственно, новая политика расширяется и теперь касается не только видео, но и аудио и изображений, генерируемых ИИ.
На основе отзывов пользователей
Процесс обновления правил Meta, похоже, ожидал сопротивления со всех сторон. Их новая политика основана на обширной обратной связи со стороны широкого круга заинтересованных сторон и вкладе широкой общественности. Новая политика также имеет возможность гибкого изменения в случае необходимости.
Мета объясняет:
«Весной 2023 года мы начали пересматривать нашу политику, чтобы понять, нужен ли нам новый подход, чтобы идти в ногу с быстрым прогрессом… Мы завершили консультации с более чем 120 заинтересованными сторонами в 34 странах во всех основных регионах мира. В целом мы услышали широкую поддержку маркировки контента, созданного искусственным интеллектом, а также решительную поддержку более заметной маркировки в сценариях высокого риска. Многие заинтересованные стороны были восприимчивы к идее, согласно которой люди самостоятельно раскрывают контент как созданный искусственным интеллектом.
…Мы также провели исследование общественного мнения среди более чем 23 000 респондентов в 13 странах и спросили людей, как компаниям социальных сетей, таким как Meta, следует подходить к контенту, созданному искусственным интеллектом, на своих платформах. Подавляющее большинство (82%) предпочитают предупреждающие надписи для контента, созданного искусственным интеллектом, на котором изображены люди, говорящие то, чего они не говорили.
…И Наблюдательный совет отметил, что их рекомендации были основаны на консультациях с организациями гражданского общества, учеными, межправительственными организациями и другими экспертами».
Сотрудничество и консенсус
В заявлении Meta объясняется, что они планируют, чтобы политика не отставала от темпов развития технологий, пересматривая ее вместе с такими организациями, как Партнерство по искусственному интеллекту, правительствами и неправительственными организациями.
В пересмотренной политике Meta подчеркивается необходимость прозрачности и контекста для контента, созданного ИИ, что удаление контента будет основано на нарушениях стандартов сообщества и что предпочтительным ответом будет маркировка потенциально проблемного контента.
Прочтите объявление Меты
Наш подход к маркировке контента, созданного искусственным интеллектом, и манипулируемых медиа
Рекомендованное изображение: Shutterstock/Boumen Japet