Google объявил что они начнут внедрять новую функцию, призванную помочь пользователям «лучше понять, как был создан и изменен конкретный фрагмент контента».
Это произошло после того, как компания присоединилась к Коалиция за происхождение и подлинность контента (C2PA) – группа крупных брендов, целью которой является борьба с распространением вводящей в заблуждение информации в Интернете – и работающая над разработкой новейших Оглавление Стандарт. Amazon, Adobe и Microsoft также являются членами комитета.
В ближайшие месяцы Google планирует использовать текущие правила содержания, то есть метаданные изображения, в своих параметрах поиска, чтобы добавлять метки к изображениям, созданным или отредактированным ИИ, тем самым обеспечивая большую прозрачность для пользователей. Эти метаданные содержат такую информацию, как происхождение изображения, а также когда, где и как оно было создано.
Однако против стандарта C2PA, который позволяет пользователям отслеживать происхождение различных типов медиа, выступили против многих разработчиков искусственного интеллекта, таких как Black Forrest Labs — компания, стоящая за моделью Flux, которая использует Grok от X (ранее Twitter) для генерации изображений.
Эта маркировка ИИ осуществляется с помощью текущей версии Google. Об этой картинке Window, то есть оно также будет доступно пользователям через Google Lens и функцию Android Circle to Search. Когда оно будет опубликовано, пользователи смогут щелкнуть три точки над изображением и выбрать «Об этом изображении», чтобы проверить, создано ли оно искусственным интеллектом — так что это будет не так очевидно, как мы надеялись.
Этого достаточно?
В то время как Google что-нибудь Что касается изображений ИИ в результатах поиска, остается вопрос, достаточно ли скрытой метки. Если функция работает так, как рекламируется, пользователям необходимо будет предпринять дополнительные шаги, чтобы убедиться, что изображение было создано с использованием искусственного интеллекта, прежде чем Google подтвердит это. Те, кто еще не знает о существовании функции «Об этом изображении», возможно, даже не знают, что им доступен новый инструмент.
Хотя с видеодипфейками уже сталкивались случаи, подобные ранее в этом году, Финансового сотрудника обманули и заставили заплатить 25 миллионов долларов для группы, выдающей себя за ее финансового директора, изображения, созданные ИИ, почти столь же проблематичны. Дональд Трамп недавно выпустила цифровые изображения Тейлор Свифт и ее поклонников ложно поддержал его президентскую кампанию, а сама Свифт стала жертвой сексуального насилия на основе имиджа, когда Сгенерированные искусственным интеллектом ее обнаженные фотографии стали вирусными.
Хотя легко жаловаться на то, что Google делает недостаточно, даже Meta не слишком хочет выпускать кота из мешка. Гигант социальных сетей недавно обновлено его политика заключается в том, чтобы сделать подписи менее заметными и переместить соответствующую информацию в меню публикации.
Хотя обновление инструмента «Об этом изображении» является положительным первым шагом, необходимы дальнейшие решительные меры для информирования и защиты пользователей. Все больше компаний, таких как производители камер и разработчики инструментов искусственного интеллекта, должны будут принять и использовать водяные знаки C2PA, чтобы обеспечить максимальную эффективность этой системы, поскольку Google будет полагаться на эти данные. Только несколько моделей камер, таких как Leica M-11P и Nikon Z9, имеют встроенные функции Content Credentials, в то время как Adobe реализовала бета-версию как в Photoshop, так и в Lightroom. Но опять же, пользователь должен использовать функции и предоставлять точную информацию.
В одном Исследование Университета ВатерлооТолько 61% людей смогли отличить реальные изображения от ИИ. Если эти цифры верны, система маркировки Google не обеспечивает дополнительной прозрачности более чем трети людей. Тем не менее, это позитивный шаг со стороны Google в борьбе с дезинформацией в Интернете, но было бы хорошо, если бы технологические гиганты сделали эти ярлыки намного более доступными.