Теневой искусственный интеллект находится на подъеме и создает проблемы для компаний.
Недавнее исследование Массачусетского технологического института показало, что более 90% сотрудников используют персональные инструменты искусственного интеллекта, и только 40% компаний используют их официально.
Кроме того, недавний отчет IBM показал, что 97% компаний столкнулись с инцидентами кибербезопасности, связанными с ИИ, но в большинстве из них по-прежнему отсутствует управление.
Старший директор по исследованиям безопасности и конкурентной разведке Exabeam.
В сфере кибербезопасности разразилось серьезное перетягивание каната: должны ли компании ограничить использование теневого ИИ, потенциально подавляя творческий потенциал и возможности, которые он приносит, или они должны позволить ему разгуляться и принять связанный с этим риск эксплуатации?
Может ли существовать золотая середина, которая обеспечивает баланс между инновациями, наглядностью, соблюдением требований и обеспечением соблюдения требований?
Теневой ИИ: что это такое и в чем проблема?
Большой проблемой является неопределенность, присущая теневому ИИ в целом. Не существует универсального определения «теневого ИИ», но он часто возникает, когда для выполнения бизнес-функций используются ресурсы, о которых организация не подозревает.
Одна из причин, по которой теневой ИИ так сложно ограничить, заключается в том, что его легко внедрить не только в различных отраслях, но и в повседневной жизни.
Люди всегда найдут самый простой способ выполнить задачу. Если есть способ использовать технологии для более эффективного выполнения своей работы, они сделают это, даже если это не одобрено их организацией.
Проблема в том, что творческий характер ИИ затрудняет контроль. Между человеком и запросом существует много серых зон, где могут возникнуть риски.
У организаций нет возможности узнать, есть ли секрет Информация берется за пределами того, чем делится пользователь, и они также не могут подтвердить, является ли информация, сгенерированная ИИ, точной или даже реальной.
Опасности поспешного усыновления
Способность внедрять новые интересные технологии всегда будет важнее способности понимать и контролировать их, и ИИ демонстрирует это в беспрецедентных масштабах.
Экспоненциальный рост и распространение ИИ в современном киберпространстве означает, что люди в любой момент истории получили наибольший контроль над своим творческим самовыражением, и вместе с этим появляются неоспоримые возможности.
Однако, с другой стороны, компании внедрили и внедрили ИИ, не понимая его по-настоящему. В результате вероятность организационных нарушений резко возросла, а объем связанной с этим работы и анализа увеличился. Меры, которые команды безопасности должны принять для сдерживания этих нарушений, стали настолько огромными, что реагирование на угрозы больше не может идти в ногу с темпами роста ИИ.
Нам необходимо быть осторожными в том, как мы управляем рисками третьих лиц, возмещениями и контрактами. Это связано с тем, что зачастую ИИ-агент принадлежит организации, но был разработан с использованием программного обеспечения другой компании.
Вопрос в том, насколько организации готовы помочь в случае возникновения проблемы, исходя из их причастности к патогену или потенциальных последствий.
Агенты искусственного интеллекта: ключ к творческой свободе
Кроме того, нам нужен способ сделать действия агентов ИИ более заметными. Раньше это достигалось с помощью таких мер, как сетевые протоколы, протоколы конечных точек и т. д. Стратегии предотвращения потери данных. Нам необходимо понять входные и выходные данные системы, какие личности были задействованы и каков был контекст ситуации, когда возникли проблемы.
Что касается реагирования, нам необходимо определить, как быстро выявить наличие проблемы. Однако меры реагирования необходимо обновить, чтобы решить проблемы, создаваемые современными агентами ИИ. Необходимо создать группу управления ИИ, которая будет отвечать за обеспечение того, чтобы агенты ИИ выполняли свои запрограммированные задачи, не создавая рисков.
Это позволит людям воспользоваться творческой свободой и удобством ИИ, одновременно защищая бизнес от риска атак и позволяя службам безопасности полагаться на агентов для выполнения своих задач без необходимости постоянного надзора. Доверенные и уполномоченные агенты искусственного интеллекта обеспечивают более эффективную систему защиты.
Должна быть принята дополнительная мера реагирования, позволяющая переобучать, отключать или принудительно переобучать агентов ИИ, чего сегодня не существует. В SOC должно быть контактное лицо, которое сможет немедленно отреагировать, а также будут владельцы бизнеса, ответственные за построение этой структуры. На данный момент мы находимся на первом, а возможно, и на нулевом уровне CMMI для этого процесса.
Аналитики инсайдерских угроз будут в значительной степени полагаться на эти корректировки. Если мы сможем построить структуру и разработать процесс борьбы с информационной перегрузкой, вызванной теневым искусственным интеллектом, аналитики внутренних угроз будут иметь больше возможностей для устранения угроз до того, как они нанесут ущерб организациям.
Единственный способ достичь адекватного уровня снижения рисков — это иметь четкую и легко реализуемую политику использования ИИ с известными и проверенными инструментами, а также процесс проверки, тестирования и внедрения новых агентов или инструментов ИИ с техническими проверками и проверками безопасности. Важно, чтобы этот процесс был простым и прозрачным. В противном случае сотрудники всегда будут искать способы обойти эту проблему.
Дальнейший путь использования ИИ требует понимания. Организации не могут контролировать то, чего они не понимают, и слишком многие отдают предпочтение быстрой доставке, а не прозрачности и управлению. Если мы сможем найти баланс между инновациями и безопасностью, компании смогут максимально повысить свою безопасность от внешних угроз, предоставив своим сотрудникам свободу внедрять инновации и менять мир.
Перечисляем лучшие антивирусные программы: обзоры экспертов, тесты и рейтинги.

