- Фалес опросил более 3000 ИТ -экспертов о генеративном ИИ
- Исследователи обнаружили много беспокойства по поводу безопасности
- Несмотря на проблемы ускоренных компаний, усыновление
Хотя компании считают это важными инновационными факторами, компании в основном обеспокоены угрозами безопасности искусственного интеллекта (ИИ). Это согласно 2025 Thales Data TankГодовой отчет компании о последних угрозах, тенденциях и возникающих вопросах безопасности данных.
Основываясь на опросе более 3100 ИТ и специалистов по безопасности в 20 странах и в 15 отраслях, в сообщении Thales показано, что почти 70% организаций считали быстрый прогресс ИИ как наибольший риск безопасности. Генеративный ИИ, с помощью которого текст и изображения могут быть созданы из простых текстовых проблем, является особой проблемой.
Глубь в эти идеи, честность и надежность являются основными проблемами. Почти две трети (64%) респондентов обеспокоены отсутствием честности ИИ, в то время как 57% «надежность» оказывается большой проблемой. Поскольку различные функции Genai, такие как обучение, вывод или генерация контента, зависят от данных, предоставленных пользователями, респонденты выразили свои опасения по поводу увеличения риска безопасности данных.
CISA добавил кв.
Независимо от этих забот, организации все еще ускоряют их принятие ИИ, отчет продолжается, что указывает на то, что это ненужный риск. Фактически, треть компании Gena активно интегрируется в компанию, хотя они не гарантируют всю безопасность своих систем. Расходы на Genai стали одним из наиболее важных приоритетов для организаций, на втором месте облачная безопасность.
«Быстро развивающийся ландшафт Genai призывает компании быстро двигаться, иногда за счет предупреждения, поскольку они опережают кривую усыновления», — сказал Эрик Хансельман, главный аналитик S & P Global Market Intelligence 451. «Многие компании используют Genai быстрее, чем они могут полностью понять свои архитектуры применения, которые встроены в быстрое распространение инструментов SaaS, навыки Genai и добавляют слои сложности и риска».
Почти три четверти (73%) экспертов заявили, что они инвестировали в специфические для искусственного интеллекта инструменты безопасности с новыми или существующими бюджетами, завершили отчет Фалеса.