Профессиональные художники и фотографы расстроены тем, что компании, использующие генеративный искусственный интеллект, используют их работу для обучения своих технологий, возможно, вскоре у них появится эффективный способ реагировать без обращения в суд.

С запуском чат-бота OpenAI ChatGPT почти год назад на сцену вышел генеративный ИИ. Этот инструмент чрезвычайно хорош в общении в очень естественной, человеческой манере, но для достижения этого навыка его пришлось тренировать, используя массу данных из Интернета.

Подобные инструменты генеративного искусственного интеллекта также способны генерировать изображения из текстовых подсказок, но, как и ChatGPT, они обучаются путем извлечения изображений, размещенных в сети.

Это означает, что работы художников и фотографов используются – без согласия и компенсации – технологическими компаниями для разработки своих генеративных инструментов искусственного интеллекта.

Чтобы бороться с этим, группа исследователей разработала инструмент под названием Nightshade, который может сбить с толку обучающую модель и заставить ее выдавать ошибочные изображения в ответ на подсказки.

Недавно описанный в статье Обзор технологий Массачусетского технологического институтаNightshade «отравляет» обучающие данные, добавляя невидимые пиксели в изображение перед его загрузкой в ​​Интернет.

«Использование этих обучающих данных для «отравления» может нанести вред будущим итерациям моделей искусственного интеллекта, генерирующих изображения, таких как DALL-E, Midjourney и Stable Diffusion, поскольку некоторые из их результатов станут бесполезными: собаки станут кошками, автомобили станут коровами и т. д. и т. д. », — говорится в отчете MIT, добавляя, что исследование Nightshade было представлено на экспертную оценку.

Хотя инструменты создания изображений уже впечатляют и постоянно совершенствуются, способы их обучения оказались спорными: многие разработчики инструментов в настоящее время сталкиваются с судебными исками со стороны художников, которые утверждают, что их работы используются без разрешения или оплаты.

ЧИТАТЬ  Яндекс выпустил бесплатный курс по использованию пользовательских запросов в поиске

Бен Чжао, профессор Чикагского университета, который возглавлял исследовательскую группу Nightshade, сказал, что такой инструмент может помочь вернуть баланс сил в пользу художников, сделав предупредительный выстрел технологическим компаниям, которые игнорируют авторские права и интеллектуальную собственность.

«Наборы данных для крупных моделей ИИ могут состоять из миллиардов изображений. Чем больше токсичных изображений можно нанести на модель, тем больший ущерб нанесет этот метод», — говорится в отчете MIT Technology Review.

Когда Nightshade будет выпущен, команда планирует открыть исходный код, чтобы другие могли усовершенствовать его и сделать более эффективным.

Команда Nightshade осознавала его разрушительный потенциал и заявила, что его следует использовать в качестве «последней защиты создателей контента от парсеров», игнорирующих их права.

Чтобы решить эту проблему, разработчик DALL-E OpenAI недавно начал это делать. Дайте художникам возможность удалить свои работы на основе данных его обучения, но этот процесс был описан как чрезвычайно трудоемкий, поскольку он требует от художника отправить копию каждого изображения, которое он хочет удалить, вместе с описанием этого изображения, причем каждый запрос требует отдельного запроса.

Значительное упрощение процесса удаления может удержать художников от использования такого инструмента, как Nightshade, что в долгосрочной перспективе может привести к еще большему количеству проблем для OpenAI и других компаний.

Редакционные рекомендации




Source