Способ, которым специалисты безопасности и их компании подходят к искусственному интеллекту, является контрастностью и инвалидностью. Мы все еще находимся в состоянии реки, приведет ли ИИ реальную кибербезопасность или более восприимчиво для нас для все более сложных атак.
Оптимисты рассматривают ИИ как блестящую возможность улучшить инструменты кибербезопасности с скоростью, которая помогает нам опередить злоумышленников. ИИ может укрепить защиту на беспрецедентных скоростях и предоставить автоматизированную информацию об угрозе, которая приводит к немедленному и долгосрочному принятию решений.
Однако более пессимистическое мнение показано в качестве оружия для противников, чтобы начать неподготовленных людей и организаций, все более требовательных новых и опасных угроз.
На мой взгляд, наша реальность где -то посередине.
Главный исполнительный директор Performanta.
Содержание
Что значит быть безопасностью ИИ
У монеты всегда есть две стороны. Если рассматривается ИИ, риски могут возникнуть как внутри, так и снаружи. Например, хакеры используют скорость и масштабируемость ИИ, чтобы начать широко распространенные кибер -атаки извне бизнеса, в то время как все злоупотребления технологией ИИ могут дать вам ценные активы непосредственно вам.
Твердая стратегия безопасности ИИ учитывает обе стороны.
Эффективность ИИ в вспомогательных компаниях, которые автоматизируют процесс сбора данных, является известным преимуществом. Тем не менее, компании не должны забывать, что скорость и эффективность не превышают безопасность в качестве приоритета. Например, автоматизация записи данных с помощью ИИ продолжает требовать анонимизации, если есть конфиденциальная информация и должна контролироваться таким образом, чтобы только одобренные люди могли получить к ней доступ.
Здесь аутентификация нулевого доста и многофактор может помочь обеспечить доступ только правильные люди в организации. Эта практика является результатом наводнения злоупотреблений, неправильной памяти и утечек данных — целевых или другими способами.
Как и в случае любого нового программного обеспечения, компании также должны учитывать безопасность сторонних услуг от сторонних поставщиков. Вы уверены, что модель ИИ, которую вы используете, действительно безопасна? Здесь усердие должна быть до инвестиций — организации могут иметь самую сильную внутреннюю иммунную систему, которая будет разочарована плохой безопасностью третьих сторонных поставщиков.
Недавно мы увидели пример отказа от безопасности третьих сторонних поставщиков UnitedHealth, когда злоумышленник по поводу изменений Healthcare, партнера третьего партийного поставщика, получил доступ к серверу. Из -за нарушения этой боковой двери, высоко охраняемые данные о клиентах от UnitedHealth можно получить в течение нескольких дней.
Существует также необходимость непрерывно обучать ИИ модели с последней информацией. Принятие решений о устаревших данных открывает дверь для ошибочных стратегий обороны. До того, как компании принимают решения на основе ИИ, они должны помнить, что учитывают актуальность и актуальность данных, которые они обрабатывают.
Какие функции в платформах безопасности безопасности искусственного интеллекта должны искать
В то время как глобальная борьба за превосходство искусственного интеллекта, компании должны тщательно проверить, какие инструменты искусственного интеллекта обеспечат им наибольшую безопасность. Лучшие поставщики инструментов и служб безопасности, которые предоставили AI-поддержку, дали озабоченность, обсуждаемые выше, и внедрили свои услуги, чтобы ограничить ошибки в администрировании мира, способствующего AI. Microsoft Security Copilot является отличным образцом подхода для безопасности искусственного интеллекта и кибербезопасных перспектив.
Вот четыре функции, на которые вы должны обратить внимание:
1. Мониторинг в режиме реального времени
Когда дело доходит до выявления слабостей, мониторинга угроз и оттеснения атак, кибер -команды полагаются на мощные платформы, чтобы провести тяжелую работу. Просто не хватает времени или ресурсов, чтобы сделать это от дела к делу. По проприетарным ИИ компании получают прозрачные, всесторонние взгляды на внутренние и внешние действия, сетевой трафик, поездки пользователей и доступ к данным.
Отсюда интуитивно понятное машинное обучение может распознавать аномалии изнутри и за пределами организации и использовать исторические данные для анализа крошечных среде для угроз и прогнозирования, когда могут произойти атаки и в какой форме.
Даже самый рабочий специалист по безопасности не может быть в двух местах одновременно. Среди прочего, Microsoft Security Copilot учитывает это и использует KI для мониторинга постоянного потока бизнеса и в то же время разумно отмечать реальные угрозы.
Если реакция инцидентов становится более автоматизированной — хотя человеческий надзор все еще является решающим, команды безопасности могут почти сразу же получить угрозы с менее интенсивными вручную требований и освобождения ресурсов, чтобы немедленно отреагировать.
За последние два десятилетия мы стали шагом позади кибер -нападающих. Мы делаем поле с реакцией в реальном времени.
3. Автоматизация, чтобы сократить время и ошибки
Есть что сказать для автоматизированных процессов, которые уменьшают человеческую ошибку, особенно из-за низкопользования и ресурсов кибер-специалистов, но я считаю, что этот риск всегда выживет. По крайней мере, с таким образом мышления мы не попадаем в старую поговорку «не планируйте, планируйте потерпеть неудачу». Microsoft Security Copilot и другие системы для всех их преимуществ являются только надежными и надежными, как и специалист по безопасности.
Уменьшает ли автоматизация вероятность человеческой ошибки? Определенно. Это заживает в целом? Ни при каких обстоятельствах. Мы должны позволить новым мощным системам удалять ручные задачи, но должны оставаться особенными от ботинок на земле.
4. Системная кокозия
Компании используют много разных систем для важных ежедневных рабочих процессов. Миграция данных между отдельными системами, нетронутым и обучением сотрудников и плохая целостность безопасности во всем технологическом стеке увеличивает область атаки и, следовательно, восприимчивость компании к безопасности.
Технические гиганты имеют значительное преимущество здесь. Возьмите Microsoft Security Copilot, который был разработан, чтобы быть интегрированным в существующий набор инструментов от Microsoft, таких как Azure Cloud, Defender и Office Products. Этот уровень «запеченной» безопасности снижает целевую область. Это стратегическое преимущество, которое не может быть недооценено и обеспечивает больший уровень наблюдения, контроля и прозрачности.
AI-Secure-первый шаг
Лучший совет, который я и многие из моих коллег могут дать, — это организовать постоянный, преднамеренный и тщательный анализ вариантов и проблем ИИ.
Есть ли новая способность от выбранного вами провайдера, который может помочь в большей степени закрыть долгосрочную восприимчивость к безопасности? Инвестировать и двигаться быстро.
Назналители запустили новую угрозу на основе искусственного интеллекта, которая ставит под сомнение существующую защиту? Пришло время быстро проанализировать текущие стратегии и найти способы полагаться на свою сеть, чтобы сформулировать лучший подход в отрасли.
Безопасная организация ИИ — это та, которая привержена упреждающей кибербезопасности. ИИ может быть нашим самым большим инструментом в предстоящем бою, но мы не должны забывать, что злоумышленники думают так же.
Мы собрали список лучшего программного обеспечения для защиты конечных точекПолем
Эта статья была произведена в рамках канала Expert Insights Techradarpro, в котором мы сегодня предлагаем лучшие и умные руководители в технологической индустрии. Взгляды, выраженные здесь, относятся к авторскому и не обязательно мнениям Techradarpro или Future PLC. Если вы заинтересованы в том, чтобы определить больше здесь: