- KI идентификационная мошенничество Используйте языковые клоны и глубокое папское видео, чтобы убедительно подражать заслуживающим доверия людям
- Киберпреступники Цели людей и компаний посредством звонков, видео консультаций, новостей и электронных партий
- Эксперты говорят, что независимый обзор идентичности и использование многофакторной аутентификации имеют решающее значение для защиты себя
Представьте, что вы получите беспокойный звонок от вашего лучшего друга. Ее голос шаткий, когда вы говорите вам, что вы попали в аварию и срочно нужны деньги. Вы немедленно узнаете голос; В конце концов, вы знали их годами. Но что, если этот голос не совсем настоящий?
В 2025 году мошенники все чаще используют ИИ для клонирования голосов, подмиряя лицам и тратят людей, которые доверяют больше всего.
Увеличение такого типа мошенничества было захватывающим. Соответственно Лунный залМошенничество с ИИ выросло на 148% в этом году, при этом используются криминальные передовые инструменты, которые практически невозможно невозможно их обмана.
Итак, как вы можете остаться в безопасности до этой растущей научной фантастической угрозы? Здесь вы найдете все, что вам нужно знать, включая рекомендуемых экспертов по кибербезопасности.
Содержание
Что такое мошенничество с ИИ?
Мошенничество имитация ИИ — это быстро растущая форма мошенничества, в которой используется преступный искусственный интеллект, чтобы подражать голосу, лицу или стилю письма человека с тревожной точностью.
Эти мошенничества часто зависят от клона языковых клонов, технологии, которая может создать языковые шаблоны человека всего за несколько секунд звука.
Репетиции не сложно найти; Вы часто можете распознать их в голосовой почте, интервью или видео в социальных сетях. Соответственно Монтклер Государственный университетДаже коротких клипов из подкаста или онлайн -курса может быть достаточно, чтобы построить убедительную имитацию ИИ голоса человека.
Некоторые мошенничества делают это дальше и используют видео Deepfak для имитации живых звонков. Например, Форбс Отчеты о том, что мошенники побудили ведущих сотрудников компании на видео встречи и убеждают их сотрудников Разрешить большие проволочные переводыПолем
Эксперты говорят, что быстрый рост изменений имитации ИИ в 2025 году обусловлен тремя факторами: лучшими технологиями, более низкими затратами и более широкой доступностью.
Ввиду этих цифровых подделок на вашей стороне, злоумышленники принимают личность того, кто доверяет, такому как: B. Член семьи, начальник или даже правительственный чиновник. Затем запросите ценную, конфиденциальную информацию или пропустите дополнительный шаг и запросите срочные платежи.
Эти сокращенные голоса могут быть очень убедительными, и это делает их особенно постыдными. Как это Комитет по правосудию Сената США Недавно предупреждая, даже обученные профессионалы могут быть обмануты.
На кого влияет мошенничество имитации ИИ?
Мошенничество с идентификацией искусственного интеллекта может произойти по телефонным звонкам, видеозвонкам, приложениям для обмена сообщениями и электронными веществами и часто придерживаются жертв в середине их повседневных рутин. Преступники используют языковые клоны, чтобы сделать так называемые «виринги», которые являются телефонным мошенничеством, которые звучат как надежный человек.
ФБР Недавно предупреждал О призывах к ИИ, которые притворяются политиками США, в том числе Сенатор Марко Рубиораспространять дезинформацию и попросить общественную реакцию.

Киберриминальный Deepfak -Video организовал как менеджеры компаний на «вирингах» стороне «Vishing». В 2024 случай Игроки угрозы оборудовали себя финансовым директором Великобритании инженерной компании Arup и заставили своих сотрудников разрешить переводы колоссальных 25 миллионов долларов.
Эти атаки, как правило, царапают изображения и видео от LinkedIn, корпоративных веб -сайтов и социальных сетей, чтобы создать убедительную личность.
Имитация ИИ также становится более требовательной — и быстрее. Поставщик e -mail Паубукс обнаружил, что почти 48% АИ-сгенерированные попытки фишингаВключая языковые и видео клоны, успешно о обнаружении обнаружения Sidestep с помощью текущих систем безопасности E -MAIL и вызовов.
Как защитить от мошенничества с ИИ
Эксперты говорят, что мошенничество с ИИ -Имитацией успешное, потому что они создают ложное чувство срочности со своими жертвами. Преступники используют свой инстинкт, чтобы доверять знакомым голосам или лицам.
Самая важная защита — просто замедлить. Не торопитесь, чтобы подтвердить свою личность, прежде чем действовать. А TAK9 Инициатива Говорит, что перерыв может быть приведен только в течение девяти секунд, может внести большой вклад в безопасность.
Если вы получаете подозрительный звонок или видео о ком -то, кого вы знаете, включите его и перезвоните к тому, что у вас уже есть номер. Как сказал аналитик по кибербезопасности Эшвин Рагху Бизнес -инсайдерМошенники учитываются людям, которые в настоящее время отвечают, и отзыв устраняет эту срочность.

Также важно обратить внимание на тонкие красные флаги. В видео с глубоким фарцовым видео могут быть некоторые истории, такие как: B. Неестественные движения рта, мерцающий фон или зрительный контакт, которые чувствуют себя немного «вне». Точно так же голоса, сгенерированные AI, могут иметь необычные перерывы или противоречивые фоновые звуки, даже если они изначально звучат убедительно.
Добавление дополнительных уровней безопасности также может помочь. Многофакторная аутентификация (MFA) усложняет мошенников, чтобы ввести свои учетные записи, даже если они успешно крадут информацию о входе в систему.
Эксперт по кибербезопасности Жаклин Джейн сказала Австралийский Лучше всего объединить прямой обзор с любой формой MFA — особенно во времена мошенничества, например, во время налогового сезона.
ИИ предлагает много потрясающих навыков, но также предлагает мошенникам новые возможности для обмана. Сохраняя бдительность, проверяя подозреваемых и открыто рассказывая об этих угрозах, вы можете снизить риск стать неподготовленным — независимо от того, насколько реальным кажется глубоким папским.