По данным Всемирного экономического форума, дезинформация и дезинформация, создаваемые ИИ, как ожидается, станут крупнейшими краткосрочными глобальными рисками года. Поскольку в этом году на выборах голосует половина населения мира, дезинформация в виде дипфейков представляет особую угрозу демократии. В преддверии всеобщих выборов в Великобритании кандидаты были предупреждены о том, что с помощью дипфейковых видео распространяется дезинформация, генерируемая искусственным интеллектом. , аудио и изображения будут использоваться для троллинга оппонентов и предоставления ложных рекомендаций.
В последние годы недорогая технология аудиодипфейков получила широкое распространение и стала гораздо более привлекательной. Некоторые инструменты искусственного интеллекта могут создавать реалистичные имитации голоса человека с помощью всего лишь нескольких минут аудиозаписи, которую можно легко получить от общественных деятелей, что позволяет мошенникам создавать подделанные записи практически любого человека.
Но насколько реальна эта угроза? Оказалась ли угроза дипфейков преувеличенной или она остается вне поля зрения?
Руководитель отдела цифровой идентификации в Jumio.
Дипфейки и дезинформация
Дипфейки уже давно являются источником беспокойства в социальных сетях, политиках и государственном секторе. Но теперь, когда технологические достижения делают голоса и изображения с помощью искусственного интеллекта более реалистичными, чем когда-либо прежде, преступники, вооруженные инструментами искусственного интеллекта для создания дипфейков, приближаются к компаниям.
В недавнем примере с рекламной группой WPP хакеры использовали комбинацию дипфейковых видео и клонирования голоса, чтобы заставить руководителей компании думать, что они обсуждают деловое предприятие с коллегами, с конечной целью украсть деньги и конфиденциальную информацию. Хотя изощренная кибератака оказалась безуспешной, она показывает уязвимость высокопоставленных лиц, чьи данные легко доступны в Интернете.
Это отражает опасения, что огромный объем контента, генерируемого искусственным интеллектом, может затруднить потребителям различие между подлинной и подтасованной информацией: 60% признаются, что сталкивались с дипфейком в прошлом году, а 72% ежедневно беспокоятся о том, что их обманут дипфейком. согласно исследованию Jumio, в передаче конфиденциальной информации или денег. Это требует прозрачного обсуждения для решения этой проблемы и предоставления компаниям и их конечным пользователям инструментов для обнаружения и сообщения о дипфейках.
Сражайтесь с ИИ с помощью ИИ
Одного обучения тому, как обнаруживать дипфейки, недостаточно, и ИТ-отделы работают над внедрением более эффективных политик и систем для предотвращения дипфейков. Это связано с тем, что мошенники теперь используют множество сложных методов, таких как дипфейковые лица, морфинг лиц и замена лиц, чтобы выдать себя за сотрудников и клиентов, что очень затрудняет определение того, что человек не тот, кем он себя считает.
Хотя киберпреступники теперь обнаруживают, что мошенничество более успешно, продвинутый искусственный интеллект также может быть ключом не только к защите, но и к активной защите от дипфейковых киберугроз. Для бизнеса обеспечение подлинности людей, получающих доступ к учетным записям, имеет решающее значение для предотвращения мошеннической деятельности, такой как захват учетных записей и несанкционированные транзакции. Системы проверки на основе биометрии являются решающим фактором в пресечении попыток дипфейков. Использование уникальных биологических характеристик, таких как отпечатки пальцев и распознавание лиц, для проверки личности потребителя во время входа в систему значительно усложняет мошенникам успешный доступ к учетным записям. Сочетание этих систем проверки с несколькими биометрическими маркерами создает систему безопасности учетной записи, которую чрезвычайно сложно обойти.
Но это еще не все. ИИ может пойти дальше, используя прогнозную аналитику для обнаружения мошеннической деятельности в режиме реального времени. Представьте себе алгоритмы машинного обучения, анализирующие горы данных и выявляющие необычные закономерности, которые могут указывать на мошенничество. Эти системы искусственного интеллекта действуют как сторожевые псы и способны постоянно изучать поведение мошенников по сравнению с поведением типичных законных пользователей. Например, ИИ может анализировать типичные модели использования миллиардов устройств и телефонных номеров, используемых для входа в важные учетные записи, в которых хранится личная информация, например электронная почта или банковские счета, чтобы обнаружить необычное поведение.
Например, когда новый пользователь создает учетную запись в вашей компании, уже недостаточно подтвердить его личность и загрузить фотографию своего селфи. Они должны иметь возможность обнаруживать подделки как удостоверения личности, так и селфи с помощью мер проверки личности в режиме реального времени. Это включает в себя использование расширенной проверки селфи, а также пассивное и активное обнаружение активности, что может предотвратить атаки спуфинга.
Чтобы действительно предотвратить дипфейки, решение должно контролировать процесс селфи и захватывать серию изображений, чтобы определить, присутствует ли человек физически и бодрствует ли он. Затем биометрическая технология может сравнить определенные черты лица селфи, такие как расстояние между глазами, носом и ушами, с фотографиями на удостоверении личности, гарантируя, что это тот же человек. Этап проверки селфи также должен позволить использовать другие биометрические проверки, такие как оценка возраста, чтобы отмечать селфи, которые не соответствуют данным в удостоверении личности.
Будущее дипфейков
В течение оставшейся части 2024 года и далее нельзя недооценивать потенциал контента, созданного ИИ, для распространения дезинформации, подрыва демократических процессов, нанесения ущерба репутации и усиления общественной неуверенности.
В конечном счете, не существует четкого подхода к эффективному сдерживанию угрозы дипфейков. Ключевой урок, который компании должны извлечь из роста мошенничества с использованием ИИ, заключается в том, что нельзя пренебрегать собственным использованием ИИ для усиления защиты.
Борьба с ИИ с помощью ИИ дает организациям наилучшие шансы справиться с постоянно растущими объемами и сложностью угроз.
Мы перечислили лучшее программное обеспечение для управления идентификацией.
Эта статья была создана в рамках канала Expert Insights от TechRadarPro, где мы демонстрируем лучшие и самые яркие умы в области технологий сегодня. Мнения, выраженные здесь, принадлежат автору и не обязательно принадлежат TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: