Компания OpenAI решила не внедрять текстовые водяные знаки для контента, генерируемого ChatGPT, несмотря на то, что технология была готова почти год назад.
Это решение, как сообщает The Уолл Стрит Джорнал и подтверждено в недавнем сообщении в блоге OpenAI обновлятьвозникает из-за беспокойства пользователей и технических проблем.
Содержание
Водяной знак, которого не было
Система водяных знаков OpenAI, разработанная для тонкого изменения шаблонов предсказания слов в тексте, сгенерированном ИИ, обещает почти идеальную точность.
Внутренние документы, на которые ссылается Wall Street Journal, утверждают, что он был «эффективен на 99,9%» и не поддавался простому перефразированию.
Однако OpenAI выявила, что более сложные методы фальсификации, такие как использование другой модели ИИ для перефразирования, позволяют легко обойти эту защиту.
Сопротивление пользователя: ключевой фактор
Возможно, более важным фактором, повлиявшим на решение OpenAI, стала потенциальная негативная реакция пользователей.
Опрос компании показал, что, несмотря на сильную глобальную поддержку инструментов обнаружения ИИ, почти 30% пользователей ChatGPT заявили, что будут реже пользоваться сервисом, если будет реализована маркировка водяными знаками.
Это представляет значительный риск для компании, быстро расширяющей свою пользовательскую базу и коммерческие предложения.
OpenAI также выразила обеспокоенность по поводу непреднамеренных последствий, в частности, потенциальной стигматизации инструментов ИИ для лиц, для которых английский язык не является родным.
Поиск альтернатив
Вместо того чтобы полностью отказаться от этой концепции, OpenAI теперь изучает потенциально «менее спорные» методы.
В своем блоге он упоминает ранние исследования по внедрению метаданных, которые могли бы обеспечить криптографическую достоверность без ложных срабатываний. Однако эффективность этого подхода еще предстоит выяснить.
Последствия для маркетологов и создателей контента
Эта новость может стать облегчением для многих маркетологов и создателей контента, которые интегрировали ChatGPT в свои рабочие процессы.
Отсутствие водяных знаков означает большую гибкость в использовании и изменении контента, созданного с помощью ИИ.
Однако это также означает, что этические аспекты создания контента с помощью ИИ в основном остаются на усмотрение пользователей.
Заглядывая вперед
Действия OpenAI показывают, насколько сложно найти баланс между прозрачностью и ростом числа пользователей в сфере ИИ.
Индустрии нужны новые способы решения проблем подлинности, поскольку контент ИИ стремительно растёт. На данный момент этичное использование ИИ является ответственностью пользователей и компаний.
Ожидайте больше инноваций здесь, от OpenAI или других. Поиск золотой середины между этикой и удобством использования остается ключевой проблемой в игре с контентом ИИ.
Популярное изображение: Асканний/Шаттерсток