Искусственный интеллект стал одновременно оружием и щитом на современном киберполе битвы. От самообучающихся вредоносных программ до адаптивных межсетевых экранов — ИИ меняет баланс сил между злоумышленниками и защитниками. То, что когда-то было конкуренцией кодов, превратилось в невидимую гонку вооружений алгоритмов, в которой миллисекунды могут решить судьбу целых систем.

Недавнее исследование в Премьер-журнал наукиЖурнал, входящий в индекс Scopus, написанный Сунишем Венгататтилом, старшим директором по разработке программного обеспечения в Clarivate Analytics, и Шамнадом Шаффи, архитектором данных в Amazon Web Services, описывает эту трансформацию. твоя бумага, «Усовершенствованная сетевая безопасность посредством прогнозного интеллекта: подходы машинного обучения для превентивного обнаружения угроз» (DOI: 10.70389/PJS.100155) показывает, как прогнозирующий интеллект заменяет старую модель «обнаружения и реагирования» на ожидание, управляемое ИИ.

Используя большие наборы данных, такие как CICIDS2017 и UNSW-NB15, исследователи обучили модели машинного обучения обнаруживать ранние признаки кибератак. Результаты были поразительными. Модели Random Forest и SVM улучшили обнаружение атак нулевого дня с 55% до 85%, снизили количество ложных срабатываний на 40% и достигли скорости реагирования в реальном времени менее 10 миллисекунд. Эти модели анализировали поведение, а не только сигнатуры, и выявляли необычную сетевую активность или инсайдерские злоупотребления до того, как инцидент мог перерасти в эскалацию.

Суниш Венгататтил — признанный лидер в области инноваций в области искусственного интеллекта, облачных технологий и кибербезопасности. Имея почти двадцатилетний опыт управления цифровой трансформацией и исследованиями искусственного интеллекта и машинного обучения, он является автором нескольких рецензируемых исследований по этике искусственного интеллекта, прогнозному интеллекту и цифровым инновациям. В 2025 году он был назван «Руководителем года по цифровой трансформации» (платиновым) по версии Titan Business Awards за лидерство в развитии интеллектуальных систем и этических практик искусственного интеллекта.

ЧИТАТЬ  Рынок LendTech увеличивается до 145,1 млрд долларов к 2034 году

«Традиционный подход к кибербезопасности подобен попытке поймать молнию сетью», — говорит Суниш Венгататтил. «Благодаря прогнозирующему интеллекту мы можем предсказать, куда ударит молния в следующий раз. Это не реакция, это предвидение».

Исследование также показывает, как машинное обучение могло бы смягчить последствия реальных катастроф. В каждом из этих случаев злоумышленники воспользовались задержкой обнаружения. Прогнозирующий интеллект, сопоставляя аномалии с миллионами сигналов, мог бы выявить эти индикаторы до того, как произойдет ущерб.

Однако растущая зависимость от искусственного интеллекта в обороне также несет с собой новые уязвимости. Та же технология, которая обеспечивает превентивную защиту, может быть использована без этического надзора. Этот интерфейс между киберзащитой и моральным управлением был исследован теми же авторами в их статье IEEE: «Этические последствия систем поддержки принятия решений на базе искусственного интеллекта в организациях».(DOI: 10.1109/ICAIDE65466.2025.11189693)

В этой статье подчеркивается новая угроза: системы принятия решений, управляемые искусственным интеллектом, сами могут стать мишенью. Поскольку организации автоматизируют решения, связанные с обнаружением мошенничества, контролем доступа и оценкой рисков, возрастает риск предвзятости или манипулирования алгоритмами. «ИИ, который решает, кому доверять, кого блокировать или что отмечать, сам может использоваться в качестве оружия.«Венгататтил объясняет».Скомпрометированная модель — это не просто сбой системы; это этический вопрос».

Исследование предупреждает о таких проблемах, как алгоритмическая предвзятость, отсутствие прозрачности в принятии решений и неправильное использование данных, которые могут подорвать доверие к системам защиты, управляемым ИИ. Хакер может испортить данные обучения, чтобы исказить оценку модели ИИ, фактически превратив инструмент защиты в уязвимость. Чрезмерный сбор персональных данных для обучения также вызывает проблемы конфиденциальности и регулирования, а также создает новые уязвимости в этом процессе.

ЧИТАТЬ  Камала Харрис хочет, чтобы США «выиграли гонку ИИ и квантовых компьютеров», но Трамп не так уверен

Для устранения этих рисков авторы призывают к созданию систем управления, основанных на справедливости, подотчетности, прозрачности и конфиденциальности (FATP). Они рекомендуют такие инструменты, как объяснимый ИИ (XAI), алгоритмический аудит и человеческий надзор, чтобы гарантировать, что безопасность, основанная на ИИ, остается этичной и эффективной.

В совокупности эти исследования демонстрируют двойную природу ИИ в сфере кибербезопасности. Прогнозирующий интеллект позволяет защитникам думать раньше, чем хакеры, но также требует нового вида бдительности, сочетающего технологическое мастерство с этической ответственностью. Гонка вооружений в области искусственного интеллекта — это не только вопрос скорости или инноваций. Речь также идет о честности. «Будущее кибербезопасности, — говорит Венгататтил, — будет зависеть не только от того, насколько интеллектуальны наши системы, но и от того, насколько ответственно мы их создаем. Мы должны разработать ИИ, который защищает, не обманывая».

Digital Trends работает с внешними участниками. Весь контент авторов проверяется редакционной командой Digital Trends.

Source