Возможности генеративного ИИ быстро развиваются, но поддельные видео и изображения уже наносят реальный вред, пишет Дэн Перселл, основатель Ceartas io.
Это недавнее объявление общественной службы ФБР предупредило об опасностях, которые дипфейки ИИ представляют для конфиденциальности и безопасности в Интернете. Известно, что киберпреступники эксплуатируют и шантажируют людей, превращая изображения в явные подделки в цифровом виде и угрожая опубликовать их в Интернете, если не будет выплачена денежная сумма.
Этот и другие предпринимаемые шаги в конечном итоге являются благом. Тем не менее, я считаю, что проблема уже более широко распространена, чем кто-либо думает, и срочно требуются новые усилия для борьбы с ней.
Содержание
- 1 Почему Deepfakes так легко обнаружить?
- 2 Законопроект о криминализации тех, кто делится дипфейковыми сексуальными изображениями других людей
- 3 Сенат Миннесоты и предупреждения ФБР
- 4 НЕТ защиты для пострадавшего — пока
- 5 Дипфейковые изображения, вызвавшие интерес во всем мире
- 6 Президент Байден обратился к этому вопросу
- 7 Изображения-манипуляторы потенциально могут быть очень опасными
- 8 Научитесь отличать настоящее видео от поддельного
- 9 Генеративный ИИ
- 10 ИИ может принести пользу нам как людям.
- 11 У нас должны быть более сильные правила и законодательство.
- 12 Вот реальный случай, о котором сегодня сообщили в новостях KSL.
- 13 В тройку лидеров вошли мошенничество с личными данными и мошенничество с самозванцами.
- 14 Я сам был жертвой!
Почему Deepfakes так легко обнаружить?
Что меня беспокоит во вредоносных дипфейках, так это легкость, с которой их можно обнаружить. Их можно найти не в темных, темных уголках Интернета, а в основных приложениях для социальных сетей, которые у большинства из нас уже есть на наших смартфонах.
Законопроект о криминализации тех, кто делится дипфейковыми сексуальными изображениями других людей
В среду, 10 мая, законодатели Сената штата Миннесота приняли законопроект, который после его ратификации будет предусматривать уголовную ответственность за распространение дипфейковых сексуальных изображений других без их предварительного согласия. Законопроект был принят почти единогласно и теперь включает тех, кто распространяет дипфейки с целью неправомерного влияния на выборы или нанесения ущерба политическому кандидату.
Другие штаты, принявшие аналогичные законы, включают Калифорнию, Вирджинию и Техас.
Я рад принятию этого законопроекта и надеюсь, что скоро он будет полностью принят в качестве закона. Однако я считаю, что во всех штатах Америки и во всем мире требуется более строгое законодательство. ЕС лидирует в этом.
Сенат Миннесоты и предупреждения ФБР
Я очень оптимистичен, что решительные действия Сената Миннесоты и предупреждения ФБР вызовут общенациональные дебаты по этому важному вопросу. Мои причины профессиональные, но также и глубоко личные. Несколько лет назад мой бывший партнер загрузил мои интимные сексуальные изображения без моего предварительного согласия.
НЕТ защиты для пострадавшего — пока
Фотографии были в сети около двух лет, прежде чем я узнал об этом, и когда я узнал об этом, это было одновременно смущающим и травмирующим. Меня совершенно обеспокоил тот факт, что такое деяние может быть совершено без обращения за помощью к правонарушителю или без защиты лица, затронутого таким деянием. Однако это стало катализатором для моего будущего бизнеса, поскольку я поклялся разработать решение, которое будет отслеживать, находить, проверять и, в конечном итоге, удалять контент неконсенсуального характера.
Дипфейковые изображения, вызвавшие интерес во всем мире
Среди дипфейковых изображений, недавно привлекших интерес и внимание всего мира, — арест бывшего Дональда Трампа, стильный белый пуховик Папы Франциска и президент Франции Эммануэль Макрон, работающий сборщиком мусора. Последнее произошло в разгар забастовки пенсионной реформы во Франции. Непосредственной реакцией на эти фотографии был их реализм, хотя очень немногие зрители были обмануты. Памятный? Да. Повреждение? Не совсем, но потенциал есть.
Президент Байден обратился к этому вопросу
Президент Байден, который недавно говорил об опасностях ИИ с технологическими лидерами в Белом доме, в апреле этого года оказался в центре полемики о дипфейках. После объявления о своем намерении баллотироваться на переизбрание в 2024 г.
Президентские выборы, RNC (Национальный республиканский комитет) ответил рекламой на YouTube с нападками на президента с использованием изображений, полностью сгенерированных ИИ. Небольшой отказ от ответственности в левом верхнем углу видео свидетельствует об этом, хотя отказ от ответственности был настолько мал, что существует явная вероятность того, что некоторые зрители могут принять изображения за настоящие.
Если бы СРН выбрал другой путь и сосредоточился на преклонном возрасте или мобильности Байдена, ИИ-изображения его в доме престарелых или в инвалидном кресле потенциально могли бы повлиять на избирателей относительно его пригодности для должности еще на четыре года.
Изображения-манипуляторы потенциально могут быть очень опасными
Нет никаких сомнений в том, что манипулирование такими изображениями потенциально может быть очень опасным. Первая поправка призвана защитить свободу слова. С технологией дипфейков рациональные, вдумчивые политические дебаты теперь находятся под угрозой. Я вижу, как политические атаки становятся все более и более хаотичными по мере приближения 2024 года.
Если президент США может оказаться в таком уязвимом положении с точки зрения защиты своей целостности, ценностей и репутации. На что надеются остальные граждане мира?
Некоторые дипфейковые видео более убедительны, чем другие, но в своей профессиональной жизни я обнаружил, что в их создании участвуют не только высококвалифицированные компьютерные инженеры. Ноутбук и некоторые базовые компьютерные ноу-хау могут быть практически всем, что нужно, а также есть множество онлайн-источников информации.
Научитесь отличать настоящее видео от поддельного
Для тех из нас, кто работает непосредственно в сфере технологий, сравнительно легко отличить настоящее видео от поддельного. Но способность более широкого сообщества обнаружить дипфейк может быть не такой простой. А всемирное исследование в 2022 г. показали, что 57% потребителей заявили, что могут обнаружить дипфейк-видео, а 43% заявили, что не могут отличить дипфейк-видео от настоящего.
В эту когорту, несомненно, войдут лица избирательного возраста. Это означает, что дипфейки убедительно могут определить исход выборов, если рассматриваемое видео касается политического кандидата.
Генеративный ИИ
Музыкант и автор песен Стинг недавно опубликовал заявление, в котором предупреждает, что авторы песен не должны успокаиваться, поскольку теперь они конкурируют с генеративными системами искусственного интеллекта. Я вижу его точку зрения. Группа под названием Human Artistry Campaign в настоящее время запускает онлайн-петицию, чтобы сохранить человеческое самовыражение «в центре творческого процесса и защитить средства к существованию и работу создателей».
В петиции утверждается, что ИИ никогда не сможет заменить человеческие достижения и творчество. TDM (интеллектуальный анализ текста и данных) — это один из нескольких способов, с помощью которых ИИ может копировать голос музыканта или стиль композиции, и включает в себя обучение больших объемов данных.
ИИ может принести пользу нам как людям.
Хотя я вижу, как ИИ может принести пользу нам как людям, меня беспокоят проблемы, связанные с надлежащим управлением генеративным ИИ в организациях. К ним относятся отсутствие прозрачности, утечка данных, предвзятость, ненормативная лексика и авторское право.
У нас должны быть более сильные правила и законодательство.
Без более жесткого регулирования генеративный ИИ угрожает эксплуатировать людей, независимо от того, являются ли они публичными фигурами или нет. На мой взгляд, быстрое развитие таких технологий заметно усугубит ситуацию, и недавнее предупреждение ФБР отражает это.
В то время как эта угроза продолжает расти, время и деньги, вкладываемые в исследования и разработки ИИ, растут. глобальная рыночная стоимость ИИ в настоящее время оценивается почти в 100 миллиардов долларов США и, как ожидается, вырастет почти до двух триллионов долларов США к 2030 году.
Вот реальный случай, о котором сегодня сообщили в новостях KSL.
— Пожалуйста, прочтите, чтобы защитить своих детей, особенно подростков.
Родители недавно выпустили эту информацию, чтобы помочь всем нам.
В тройку лидеров вошли мошенничество с личными данными и мошенничество с самозванцами.
Технология уже достаточно развита, чтобы дипфейковое видео можно было сгенерировать всего из одного изображения, в то время как сносная рекреационная версия человеческого голоса требует всего несколько секунд звука. Напротив, среди миллионов отчетов потребителей, поданных в прошлом году, три основные категории были связаны с кражей личных данных и мошенничеством с самозванцами. 8,8 миллиарда долларов было потеряно в 2022 году в результате.
Возвращаясь к закону Миннесоты, записи показывают, что один единственный представитель проголосовал против законопроекта, предусматривающего уголовную ответственность за распространение дипфейковых изображений сексуального характера. Интересно, какая у них была мотивация сделать это.
Я сам был жертвой!
Как сама жертва, я довольно активно высказывался по этой теме, поэтому я бы рассматривал ее как довольно «вырезанную и высушенную» проблему. Когда это случилось со мной, я чувствовал себя очень одиноким и не знал, к кому обратиться за помощью. К счастью, с тех пор дела пошли семимильными шагами. Я надеюсь, что этот положительный импульс сохранится, чтобы другие не испытали ту же травму, что и я.
Дэн Перселл является основателем и генеральным директором Ceartas DMCA, ведущей компании по защите авторских прав и брендов на основе искусственного интеллекта, которая работает с ведущими мировыми создателями, агентствами и брендами, чтобы предотвратить несанкционированное использование и распространение их контента. Пожалуйста, посетите www.ceartas.io для получения дополнительной информации.
Авторы избранных изображений: Рахул Пандит; Пекселс; Спасибо!