В последние годы технология дипфейков быстро развивалась, что затрудняло различие между фактом и вымыслом. Становится все труднее определить, какие из этих видеороликов, созданных искусственным интеллектом (ИИ), настоящие, а какие нет. В этом эссе будет рассмотрена идея дипфейков, их развитие и моральные дилеммы, связанные с их применением.

Содержание

Что такое дипфейк?

По сути, дипфейк — это видео, в котором изображение одного человека заменяется другим с помощью технологий искусственного интеллекта. Слово ««дипфейк» возник в результате объединения терминов «глубокое обучение» и «фейк».». Первоначально Deepfakes создавали атмосферу «зловещей долины», что указывало на то, что контент не был реальным. Но по мере развития технологий искусственного интеллекта и дипфейков появляются все более убедительные примеры дипфейков. В наши дни становится все труднее обнаружить дефекты в этих творениях.

Развитие технологии Deepfake

Дипфейки значительно продвинулись вперед с момента своего первого появления. В прошлом Голливуд использовал сложные и дорогостоящие конвейеры для наложения черт актеров, реальных или воображаемых. Однако технология дипфейков стала более доступной благодаря удобным программным инструментам, таким как Поддельное приложение и DeepFaceLab. Применение генеративно-состязательные сети (GAN), В которой два алгоритма искусственного интеллекта сражаются друг с другом, это привело к прорыву в области дипфейкинга. Фейковый контент создается одним алгоритмом, а его попытки модернизируются другим. В результате этого процесса механизм синтеза получает знания для создания более реалистичных дипфейков.

ЧИТАТЬ  Самые богатые политики Южной Африки и их состояние в 2023 году: 12 лучших политиков

Правдоподобные визуальные изменения Deepfakes привели в восторг аудиторию. Помимо того, что эти примеры дипфейков нас поражают и забавляют, они также вызывают вопросы относительно целостности цифрового материала.

1. Ники Минаж и Том Холланд

Сцена из сериала Deep Fake Neighbor Wars от ITVX. среди самых странных примеров дипфейков. В одном из видеороликов Том Холланд, актер и художница Ники Минаж, играет несчастную пару, рассказывающую историю Марка Цукерберга, ворвавшегося в их дом.

2. Дипфейк Моргана Фримена

В видео, опубликованном на голландском дипфейковом канале YouTube Diep Nep, покойный актер Морган Фримен изображен в поразительно реалистичном дипфейке. Когда отснятый материал снова появился в социальных сетях, разгорелись дебаты по поводу целостности материала.

3. Израильтянка и солдат

На снимке изображена молодая израильтянка. один из самых потрясающих дипфейков с искусственным интеллектом, страдающий от ран и отчаянно цепляющийся за руки солдата. Эта поразительная фотография может сойти за классическую фотографию, прекрасно передающую атмосферу раздираемой войной местности. Но это полностью созданный искусственным интеллектом (ИИ), а не основанный на каком-либо реальном инциденте.

Израильская женщина и солдат
Израильская женщина и солдат

4. Джим Керри в «Сиянии»

Создатели Deepfake объединили актера Джима Керри с культовым классическим фильмом ужасов «Сияние» в странном кроссовере. В этих дипфейках подчеркивается преувеличенная мимика Керри, что еще больше укрепляет его роль Джека Торренса.

5. Украинская девушка

Еще один ИИ-дипфейк, привлекший внимание, представляет собой фотографию девушки и подростка из Украины, держащихся за руки среди обломков разрушенного города. Этот движущийся образ вызывает устойчивость и безнадежность. Но, как и предыдущий дипфейк, этот полностью выдуман и не представляет реального происшествия.

Украинская девушкаУкраинская девушка
Украинская девушка

6. Тоби Магуайр в «Человеке-пауке: Нет пути домой»

По словам изобретателя Deepfake Шамука, оригинальный актер «Человека-паука» Тоби Магуайр украл трейлер фильма «Человек-паук: Нет пути домой» и заменил лицо Тома Холланда своим собственным.

ЧИТАТЬ  Отчет: GPT App Store от OpenAI не будет доступен в этом году

7. Фальшивый арест Дональда Трампа

Фальшивый арест Дональда ТрампаФальшивый арест Дональда Трампа
Фальшивый арест Дональда Трампа

8. Джерри Сайнфелд в «Криминальном чтиве»

Вот забавный дипфейк от производителя дипфейков DesiFakes, который переносит Джерри Сайнфелда в один из самых известных моментов из «Криминального чтива». Замечательная синхронизация звука и монтаж передают дух эпизода «Сейнфелда».

9. Пламя поднимается над Гавайями

Изображение огня, возникающего из тропических океанских вод посреди лесных пожаров на острове Мауи, появилось в результате невероятной демонстрации фотографии, созданной искусственным интеллектом. Реализм этого глубокого фейка демонстрирует удивительную способность технологии искусственного интеллекта создавать визуально привлекательный и захватывающий материал.

Огонь и пламя Гавайских острововОгонь и пламя Гавайских островов
Огонь и пламя Гавайских островов

10. Том Круз в TikTok

Прогресс технологии дипфейков настолько велик, что дипфейки знаменитостей заводят собственный аккаунт в TikTok. Известный аккаунт демонстрирует дипфейки Тома Круза, имитирующие его голос и манеры.

@deeptomcruise

Не буду врать… я люблю ботаников ?‍?@harvard

♬ оригинальный звук – Metaphysical.ai

11. Взрыв в Газе

Один из самых спорных Глубокие фейки, созданные искусственным интеллектом, использовали изображение о взрыве в секторе Газа. Несмотря на то, что эта стандартная фотография с веб-сайта была идентифицирована как созданная искусственным интеллектом (ИИ), она была опубликована на других веб-сайтах без какого-либо уведомления о том, что она ненастоящая. Веб-сайт стоковых фотографий ужесточил свою политику в ответ на инцидент, чтобы остановить распространение вводящего в заблуждение контента.

Взрыв в ГазеВзрыв в Газе
Взрыв в Газе

12. Пуховик Папы Франциска Deepfake

Пуховик Папы ФранцискаПуховик Папы Франциска
Пуховик Папы Франциска

13. Люк Скайуокер в «Мандалорце»

Когда Люк Скайуокер появился в финале второго сезона «Мандалорца», поклонники франшизы «Звездные войны» были в восторге. Однако некоторые зрители указали на ошибки в компьютерном изображении юного Марка Хэмилла. Позже выяснилось, что ютубер Shamook создал дипфейк Люка Скайуокера из «Возвращение джедая».

14. Гарри Поттер в Balenciaga

Источник

15. Изображение конфликта между Израилем и сектором Газа, созданное искусственным интеллектом

Фотографии зон боевых действий, созданные с помощью искусственного интеллекта, в том числе войн на Украине и в Израиле и секторе Газа, все чаще встречаются на фотостоках. Несмотря на то, что они помечены как фотографии искусственного интеллекта (ИИ), некоторым удается уклониться от идентификации, что затрудняет различие между подлинной и мошеннической информацией.

ЧИТАТЬ  Как художник Йинка Ириреори использует ИИ, чтобы дать жизнь своему видению
Девушка Конфликт между Израилем и сектором ГазаДевушка Конфликт между Израилем и сектором Газа
Девушка Конфликт между Израилем и сектором Газа

16. Ведущий Deepfake News в Корее

Использование технологии дипфейков достигло даже основных средств массовой информации. Зрителям был показан дипфейк корейского телеканала MBN, в котором Ким Джу Ха была ведущей новостей.

17. Дипфейк Чудо-женщины с Галь Гадот

Более того, дипфейки использовались для переизобретения культовых персонажей телевидения и кино. Актриса Линда Картер из сериала «Чудо-женщина» 1970-х годов является примером дипфейка, появляющегося в эпизодах с современным изображением персонажа Галь Гадот.

18. Изображения протестов Black Lives Matter, созданные искусственным интеллектом

Изображения протестов, особенно тех, которые связаны с движением Black Lives Matter, также были созданы с использованием ИИ. Несмотря на поразительные визуальные эффекты, эти фотографии полностью созданы искусственным интеллектом (ИИ) и не отражают реальных протестов. Сложность проверки подлинности визуального контента подчеркивается распространенностью таких дипфейков в социальных сетях и на сайтах с фотографиями.

Протесты Black Lives MatterПротесты Black Lives Matter
Протесты Black Lives Matter

19. Дипфейк о взрыве Пентагона

Дипфейк о взрыве в ПентагонеДипфейк о взрыве в Пентагоне
Дипфейк о взрыве в Пентагоне

Дипфейки – угроза журналистской этике

Поскольку количество изображений, созданных с помощью ИИ, продолжает расти, растет обеспокоенность по поводу их влияния на журналистскую этику. В условиях сокращения штата визуальных специалистов в медиаорганизациях заманчиво полагаться на изображения, созданные с помощью искусственного интеллекта, как на экономически эффективную альтернативу. Однако вместо подлинных фотографий, сделанных журналистами на местах, используются дипфейки. подрывает целостность журналистики и может создавать ложные повествования.

Рост количества изображений, созданных с помощью искусственного интеллекта, в 2023 году

Искусственно сгенерированные фотографии, созданные с помощью алгоритмов искусственного интеллекта становятся все более распространенными на фотостоках. Один из крупнейших производителей стоковых фотографий, Adobe Stock, подвергся критике, когда фотография взрыва в секторе Газа, созданная искусственным интеллектом, стала вирусной, и, похоже, никто не смог проверить ее подлинность.

Когда кто-то ищет в Adobe Stock ключевые слова, связанные с текущими событиями, такие как «Газа» или «Война в Украине», появляется множество фотографий, созданных искусственным интеллектом. Например, при поиске по запросу «Газа» всплыло более 3000 фотографий, классифицированных как фотографии искусственного интеллекта (ИИ). Аналогичная картина наблюдается и в отношении других тем, таких как демонстрации Black Lives Matter и стихийные бедствия.

Заключение

Распространение фотографий, созданных искусственным интеллектом, на сайтах стоковых изображений затрудняет различие между настоящими и поддельными. Обеспокоенность по поводу достоверности новостных репортажей, распространения ложной информации и доверия общественности к визуальному контенту вызвана возможным неправомерным использованием этих фотографий. Ужесточение правилотраслевое сотрудничество и технологические разработки необходимы для решения этих проблем и обеспечения легитимности изображений в цифровой среде.

Отрасль может значительно сохранить точность и надежность визуального контента, используя технологии водяных знаков, обеспечивая соблюдение стандартов маркировки и обеспечивая прозрачность. Совместная работа может только уменьшить опасность смешения реальности и вымысла в визуальных эффектах, генерируемых искусственным интеллектом.

Рекомендованное изображение: Фото Андреа Пьякуадио; Пексели

Изображения, созданные искусственным интеллектом, стали вирусными в 2023 году.Изображения, созданные искусственным интеллектом, стали вирусными в 2023 году.

Дина Ричи

Главный редактор ReadWrite

Дина — управляющий редактор ReadWrite. Ранее она работала главным редактором Startup Grind и имеет более чем 20-летний опыт работы в области управления контентом и его разработки.





Source link