Эра генеративного искусственного интеллекта находится в полном развитии благодаря таким инструментам, как ChatGPT, но его рост также привел к увеличению противоречий. Многочисленные артисты, исполнители и даже звукозаписывающие компании подали иски против компаний, занимающихся искусственным интеллектом, в том числе ОпенАИсоздатель ЧатGPT. Основой этих разногласий являются данные обучения, используемые для обучения этих моделей ИИ.
Действительно, эти модели не могли бы функционировать без доступа к большому количеству мультимедийного контента, на котором можно учиться. Включая письменные материалы и изображения, созданные художниками, которые часто о них не подозревали и они не дали своего согласия коммерческому использованию своей работы для обучения новым продуктам искусственного интеллекта.
К счастью, у художников теперь есть возможность защитить себя от ИИ, используя эту технологию в своих интересах. Новый инструмент с открытым исходным кодом под названием Паслен был разработан исследователями изЧикагский университетпод руководством профессора Бен Чжао. Инструмент, созданный, чтобы позволить художникам защитить свои цифровые работы от искусственного интеллекта. Nightshade можно использовать для изменения пикселей изображения невидимыми для человеческого глаза способами. «отравляет» изображения для моделей ИИ которые стремятся использовать его для обучения. Давайте посмотрим подробно, как работает этот инновационный инструмент.
Рождение Паслена
Паслен – результат работы исследователей изЧикагский университетпод руководством профессора Бен Чжао. Этот инструмент был разработан как расширение другого продукта под названием Glaze, который позволяет маскировать цифровые произведения искусства и изменять их пиксели, чтобы сбить с толку модели ИИ относительно их стиля. Паслен идет еще дальше, поскольку заставляет модели ИИ запоминать неверные названия объектов и ландшафтов на изображениях.
Например, исследователи изменили изображения собак так, чтобы они содержали в пикселях информацию, которая делала их похожими на кошек для моделей ИИ. Проанализировав и изучив всего лишь 50 изображений»отравленный«Искусственный интеллект начал генерировать изображения собак со странными лапами и тревожной внешностью.
Потом 100 «отравленных» изображений. ИИ регулярно генерировал изображения кошек, когда его просили показать собаку. После 300 изображений любой запрос на кошку возвращал почти идеально выглядящую собаку.
Как действует яд паслена
Исследователи использовали Стабильная диффузия, модель с открытым исходным кодом для генерации изображений из текста, чтобы протестировать Nightshade и получить описанные выше результаты. Благодаря природе генеративных моделей искусственного интеллекта, которые группируют концептуально схожие слова и понятия в пространственные кластеры, известные как «вложения«Nightshade удалось заставить Stable Diffusion генерировать изображения кошек, когда использовались такие слова, как «хаски», «щенок» и «волк».
Кроме того, Техника отравления данных Nightshade с ним трудно бороться, поскольку разработчикам моделей искусственного интеллекта приходится выявлять и удалять изображения, содержащие «отравленные» пиксели, которые специально разработаны так, чтобы быть неузнаваемыми для человеческого глаза, и могут быть трудными даже для инструментов обнаружения программного обеспечения для очистки данных.
Любые «отравленные» изображения, уже использованные для обучения модели ИИ, должны быть идентифицированы и удалены. Если модель ИИ уже обучалась на таких изображениях, ее, скорее всего, потребуется обучить еще раз.
Намерения исследователей
Исследователи Чикагского университета признают, что их работа может быть использована в злонамеренных целях. Но они надеются, что это поможет восстановить баланс сил между компаниями, занимающимися искусственным интеллектом, и художниками. Возможно, создание эффективного сдерживающего фактора против нарушения авторских прав и прав интеллектуальной собственности художников.
После публикации статьи на сайте Технический обзор Массачусетского технологического институтаКоманда Glaze из Чикагского университета поделилась более подробной информацией о проекте Nightshade через социальную сеть X (ранее Twitter). Они подчеркнули асимметрию власти, существующую между компаниями, занимающимися искусственным интеллектом, и владельцами контента, и объявили, что оценивают, как разработать и выпустить Nightshade в качестве инструмента. Его можно было бы интегрировать в Глазурь/Webglaze в качестве дополнительной функции или может быть выпущен как эталонная реализация с открытым исходным кодом.
Как отмечается в отчете, исследователи также представили документ о Nightshade на экспертную оценку на конференции по кибербезопасности Usinex.
Выводы
Nightshade представляет собой важный шаг вперед в защите художников от несанкционированного использования их работ при обучении моделей ИИ. Этот инструмент позволяет художникам защищать свои цифровые работы, изменяя пиксели невидимым для человеческого глаза способом, но сбивающим с толку модели искусственного интеллекта.
Работа исследователей из Чикагского университета может помочь восстановить баланс сил между художниками и компаниями, занимающимися искусственным интеллектом. Предлагая инновационное решение для защиты авторских прав и интеллектуальной собственности художников.