- Почти половина ИТ -команд не совсем знает, к чему получаются их агенты по искусственному искусству каждый день
- Компании любят агентов ИИ, но также боятся того, что они делают за закрытыми цифровыми дверями
- Инструменты искусственного интеллекта теперь нуждаются в управлении, путях экзаменов и контроле, как и человеческие работники
Несмотря на растущий энтузиазм по отношению к агентам -KI в компаниях, новые исследования показывают, что быстрое расширение этих инструментов превысило усилия по его обеспечению.
Опрос Sailpoint в рамках 353 ИТ -специалистов с обязанностью корпоративной безопасности привел к сложному сочетанию оптимизма и страха перед агентами искусственного интеллекта.
В опросе сообщается, что 98% организаций намерены расширить их использование агентов искусственного интеллекта в течение следующего года.
Усыновление агента искусственного интеллекта обгоняет готовность безопасности
Агенты ИИ интегрируются в операции, которые обрабатывают конфиденциальные данные компании, от документов клиентов и финансовых данных до юридических документов и транзакций цепочки поставок. Тем не менее, 96% респондентов заявили, что эти агенты считались растущей угрозой безопасности.
Центральной проблемой является видимость: только 54% экспертов утверждают, что имеют данные, к которым могут получить доступ их агенты, что приводит к почти половине корпоративной среды в темноте из -за взаимодействия агентов ИИ с критической информацией.
92% опрошенных согласились с тем, что администрирование агентов ИИ имеет решающее значение для безопасности, но только 44% имеют фактическую директиву.
Кроме того, восемь из десяти компаний говорят, что их агенты ИИ приняли меры, которые они не могли — это включает доступ к несанкционированным системам (39%), разделение надлежащих данных (33%) и загрузку конфиденциального контента (32%).
Даже беспокоились, что 23% респондентов признали, что их агенты по ИИ были созданы для обнародования доступа к доступу, потенциальному золотую руднику для вредоносных актеров.
Замечательным пониманием является то, что 72% мнения состоит в том, что агенты ИИ обучают более высокий риск, чем обычные идентичности машины.
Одна из причин этого заключается в том, что агенты искусственного интеллекта часто требуют эффективной работы, особенно если они интегрированы в высокопроизводительные инструменты ИИ или системы, которые используются для разработки и письма.
Требование об изменении модели, первой личности, становится все громче, но Sailpoint и другие утверждают, что организации должны относиться к агентам искусственного интеллекта, такими как пользователи людей, которые имеют контроль доступа, подотчетность и полные аудиты.
Агенты ИИ являются относительно новым дополнением к бизнес -области, и компаниям потребуется время, чтобы полностью интегрировать их в свою компанию.
«Многие организации все еще рано в этой поездке, и растущая обеспокоенность по поводу контроля данных подчеркивает необходимость более сильных и более обширных стратегий безопасности идентичности», — заключил Sailpoint.