Компания OpenAI решила не внедрять текстовые водяные знаки для контента, генерируемого ChatGPT, несмотря на то, что технология была готова почти год назад.

Это решение, как сообщает The Уолл Стрит Джорнал и подтверждено в недавнем сообщении в блоге OpenAI обновлятьвозникает из-за беспокойства пользователей и технических проблем.

Водяной знак, которого не было

Система водяных знаков OpenAI, разработанная для тонкого изменения шаблонов предсказания слов в тексте, сгенерированном ИИ, обещает почти идеальную точность.

Внутренние документы, на которые ссылается Wall Street Journal, утверждают, что он был «эффективен на 99,9%» и не поддавался простому перефразированию.

Однако OpenAI выявила, что более сложные методы фальсификации, такие как использование другой модели ИИ для перефразирования, позволяют легко обойти эту защиту.

Сопротивление пользователя: ключевой фактор

Возможно, более важным фактором, повлиявшим на решение OpenAI, стала потенциальная негативная реакция пользователей.

Опрос компании показал, что, несмотря на сильную глобальную поддержку инструментов обнаружения ИИ, почти 30% пользователей ChatGPT заявили, что будут реже пользоваться сервисом, если будет реализована маркировка водяными знаками.

Это представляет значительный риск для компании, быстро расширяющей свою пользовательскую базу и коммерческие предложения.

OpenAI также выразила обеспокоенность по поводу непреднамеренных последствий, в частности, потенциальной стигматизации инструментов ИИ для лиц, для которых английский язык не является родным.

Поиск альтернатив

Вместо того чтобы полностью отказаться от этой концепции, OpenAI теперь изучает потенциально «менее спорные» методы.

В своем блоге он упоминает ранние исследования по внедрению метаданных, которые могли бы обеспечить криптографическую достоверность без ложных срабатываний. Однако эффективность этого подхода еще предстоит выяснить.

ЧИТАТЬ  Google пересмотрел документацию по фавиконкам

Последствия для маркетологов и создателей контента

Эта новость может стать облегчением для многих маркетологов и создателей контента, которые интегрировали ChatGPT в свои рабочие процессы.

Отсутствие водяных знаков означает большую гибкость в использовании и изменении контента, созданного с помощью ИИ.

Однако это также означает, что этические аспекты создания контента с помощью ИИ в основном остаются на усмотрение пользователей.

Заглядывая вперед

Действия OpenAI показывают, насколько сложно найти баланс между прозрачностью и ростом числа пользователей в сфере ИИ.

Индустрии нужны новые способы решения проблем подлинности, поскольку контент ИИ стремительно растёт. На данный момент этичное использование ИИ является ответственностью пользователей и компаний.

Ожидайте больше инноваций здесь, от OpenAI или других. Поиск золотой середины между этикой и удобством использования остается ключевой проблемой в игре с контентом ИИ.


Популярное изображение: Асканний/Шаттерсток



Source link