Благодаря широкому использованию генеративного искусственного интеллекта фишинг стал еще большей угрозой для бизнеса. Гиперреалистичные электронные письма, текстовые сообщения и фальшивые голосовые заметки можно создавать с помощью инструментов искусственного интеллекта, а поскольку угрозы кажутся более достоверными благодаря лучшей грамматике и орфографии, серьезной проблемой становится фишинг с использованием искусственного интеллекта.
В этом году мы стали свидетелями роста сложности и разнообразия методов фишинга: люди стали жертвами атак на новых платформах, которым они доверяют, помимо стандартной электронной почты, телефонных звонков или SMS. Обеспокоенность достигла вершин экономики. Исследование Accenture Pulse of Change показало, что почти половина (47%) высшего руководства обеспокоена возросшими рисками кибератак и утечки данных. Угрозы кибербезопасности, исходящие от вводящего в заблуждение контента, такого как реалистичные фишинговые электронные письма/сообщения, рассматривались как самый большой риск.
Атаки могут быть непростыми, но мотивация часто бывает следующей: финансовая выгода. Злоумышленники используют сообщения с запросом личной информации с мошеннических веб-сайтов, чтобы обманом заставить своих жертв отправить деньги или получить доступ к их сетям. Они также знают, что, подражая высокопоставленным лидерам, они смогут убедить людей передать данные, деньги или учетные данные.
К сожалению, чем более реалистичными становятся попытки фишинга, тем больше вероятность того, что жертвами станут сотрудники, что может привести к серьезным сбоям, финансовым потерям и потенциально долгосрочному репутационному ущербу их компании.
Руководитель компании Accenture по киберустойчивости в Великобритании.
Образование – это ключ
Поэтому крайне важно, чтобы работодатели обеспечивали необходимое обучение, включая обучение и моделирование, чтобы предотвратить атаки, которые заставляют сотрудников нажимать на то, чего им не следует делать.
Имитировать настоящую фишинговую атаку — непростая задача. Фактически, компании пытались обучать своих сотрудников, имитируя общедоступные бренды с типичными коммуникациями с потребителями и сотрудниками (например, имитируя компании по доставке) для создания контента в образовательных целях. Это связано с тем, что эти компании, как правило, обладают многими характеристиками, которые делают их идеальными целями для социальной инженерии из-за узнаваемости их бренда, регулярных запросов личной информации и обмена рутинными ссылками для отслеживания. Компании по доставке регулярно обмениваются обновлениями по электронной почте и SMS, а это означает, что ритм общения и связанные с ним характеристики часто остаются незамеченными, и людей легко обмануть.
Однако когда компании имитируют бренды в симуляциях, это может привести к юридическим проблемам, связанным с кражей интеллектуальной собственности, если они не запросили разрешения на использование своего бренда и информации о компании. Это также может привести к репутационному ущербу самих брендов, если они будут связаны с кибератаками (даже фейковыми).
Если компания решает повторить такое упражнение, но хочет избежать использования третьей стороны в рамках моделирования, она может вместо этого внедрить внутреннюю электронную почту от доверенных отделов, таких как финансовый, юридический или кадровый. Это означает, что они по-прежнему кажутся сотрудникам заслуживающими доверия, поскольку они похожи на электронные письма, которые обычно отправляются непосредственно внутренними командами, но они не рискуют столкнуться с юридическими проблемами со стороны внешних компаний.
Как защитить свой бизнес?
Помимо обучения сотрудников, компании также могут принимать превентивные меры, чтобы оставаться защищенными, и дать отпор злоумышленникам, самостоятельно внедрив генетический ИИ.
Поскольку искусственный интеллект увеличивает риск быть обманутым реалистичным контентом, он также является важной частью технологического арсенала компании. Например, многие компании-разработчики платформ и гипермасштабирующие компании выпускают функции безопасности ИИ в своих собственных средах. Кроме того, «красная команда» на базе искусственного интеллекта (техника кибербезопасности) имитирует атаку, чтобы увидеть, как на нее отреагируют отдельные лица. Другие примеры, включая тестирование на проникновение, станут обязательными для компаний по мере развития правил. Ключом к победе в эпоху генетического искусственного интеллекта будет включение безопасности в процесс разработки.
Индивидуальный подход
В конечном счете, хотя инструменты безопасности имеют решающее значение, люди являются важной линией защиты. Программы обучения играют центральную роль, помогая сотрудникам распознавать подозрительные сообщения и сообщать о них. Однако их также следует поощрять доверять своим инстинктам. Сотрудники всегда должны спрашивать себя: «Это типичное поведение для отправителя?» Это платформа, которую они обычно используют, чтобы связаться со мной? Буду ли я обычно проверять свои данные таким образом?»
Существуют также культурные факторы, которые поддерживают защиту организации, и это начинается с обеспечения того, чтобы компании уделяли приоритетное внимание тому, как работают их сотрудники, и их благополучию. Сотрудники, которые постоянно доступны и устали, с большей вероятностью в спешке нажмут на подозрительные ссылки. Таким образом, снижение усталости и выгорания сотрудников также имеет преимущества в области кибербезопасности.
Точно так же, как за первоначальной инициацией фишинговой атаки стоит человек, всегда есть человек-получатель мошенничества. Лучшая защита всегда опирается на знания компетентного сотрудника, который понимает риски и действует осознанно. Здоровый уровень человеческой подозрительности в сочетании с мощной линией защиты, основанной на технологиях, поставит компании на правильный путь защиты от фишинговых атак, не нанеся непреднамеренного ущерба репутации других брендов.
Мы представили лучший облачный антивирус.
Эта статья была создана в рамках канала Expert Insights от TechRadarPro, где мы рассказываем о лучших и ярких умах в области технологий сегодня. Мнения, выраженные здесь, принадлежат автору и не обязательно принадлежат TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: