Хотя ИИ является беспрецедентным моментом для науки и инноваций, плохие игроки видят в нем беспрецедентный инструмент атаки. Киберпреступники, мошенники и нападавшие, поддерживаемые государством, уже изучают способы использования искусственного интеллекта Причинить вред людям и компромисс систем по всему миру. От более быстрых нападений до сложной социальной инженерии, ИИ предлагает киберпреступники новые мощные инструменты.

Мы считаем, что эти угрозы могут не только противостоять, но и, что ИИ может быть инструментом, который меняет ситуацию для кибер-обороны, и который создает новое решающее преимущество для кибер-защитников. Вот почему сегодня мы делимся навсегда некоторыми из новых способов переключения масштабов в пользу ИИ. Это включает объявление КодНовый агент, работающий от ИИ, который автоматически повышает безопасность кода. Мы также объявляем о нашем новом Программа вознаграждения уязвимости ИИ; и Защита IA Framework 2.0 И карта риска, которая приводит к двум подходам к безопасности, проверенной в кончике эпохи ИИ. Наша цель — обеспечить с помощью агентов по дизайну искусственного интеллекта, продвигая работу Принципы COSAIИ воспользовавшись ИИ, чтобы найти и отремонтировать уязвимости, прежде чем злоумышленники смогут.

Автономная защита: Код

В Google мы создаем наши системы, чтобы быть в безопасности по проектированию, с самого начала. Наши усилия по ИИ как Спящий И Осс-Фузз продемонстрировали способность ИИ находить новые уязвимости нулевого дня в хорошо протестированном и широко используемом программном обеспечении. В то время как мы проводим больше прорывов в обнаружении уязвимости, подпитываемой ИИ, человеку станет все более и труднее следовать за ним. Мы разработали Код Чтобы помочь бороться с этим. CodePender — это агент, питаемый AI, используя расширенные способности мышления наших моделей Gemini, чтобы автоматически корректировать уязвимости критического кода. CodePender делает шкалу безопасности, ускоряя время для поселения в ландшафте с открытым исходным кодом. Он представляет собой большой скачок в проактивной защите, питаемый ИИ, включая такие функции, как:

  • Глубокий анализ причины: Используйте Близнецы, чтобы использовать сложные методы, в том числе нечеткие и теорема, чтобы точно определить фундаментальную причину уязвимости, а не только его поверхностные симптомы.
  • Самоуровенькая коррекция: Автономно генерирует и применяет эффективные исправления кода. Эти исправления затем доставляются в специализированных агентов «критики», которые выступают в качестве автоматизированных ревизеров -сверстников, строго подтверждая корректировку для точности, последствий безопасности и адгезии к стандартам кода, прежде чем будет предложена для окончательной передачи людей человека.
ЧИТАТЬ  Это все о тебе

Двойное исследование: программа вознаграждения уязвимости ИИ (VRP)

Сообщество исследований в области мировой безопасности является важным партнером, и наши VRP уже заплатили более 430 000 долларов за проблемы с искусственным интеллектом. Чтобы дополнительно расширить это сотрудничество, мы Запуск выделенного VRP Это разъясняет, какие проблемы, связанные с ИИ, находятся в рамках одного полного набора правил и таблиц вознаграждений. Это упрощает процесс отчета и максимизирует стимулы для исследователя, чтобы найти и сообщать о высоких дефектах воздействия. Вот что нового в VRP:

  • Объединенные таблицы насилия и вознаграждения за безопасность: Проблемы с ИИ, ранее охватываемые злоупотреблением Google VRP, были переданы в новый VRP AI, что дает дополнительную ясность в отношении проблем, связанных с злоупотреблением в рамках программы.
  • Механизм правильного соотношения: Мы уточняем, что проблемы безопасности на основе контента должны сообщать через механизм резервного копирования в продукте, поскольку он фиксирует необходимые подробные метаданные, такие как пользовательский контекст и модель модели, которую наши группы безопасности ИИ необходимо для диагностики поведения модели и внедрения долгосрочных долгосрочных долгосрочных обучения.

Закрепите агенты ИИ

Мы расширяем нашу безопасную структуру ИИ на SAIF 2.0 Чтобы приблизиться к новым рискам, быстро поставленным автономными агентами ИИ. SAIF 2.0 расширяет нашу кадр безопасности с помощью директивных директив новыми агентами, чтобы смягчить их. Это поддерживается тремя новыми элементами:

  • Агентная карта риска Чтобы помочь практикующим отображать угрозы агента с помощью полного представления о рисках ИИ.
  • Возможности безопасности Развертывание агентов Google, чтобы обеспечить безопасность по проекту и применять наши три основных принципа: агенты должны иметь четко определенные человеческие контроллеры, их полномочия должны быть тщательно ограничены, а их действия и их планирование должны быть наблюдаемыми.
  • Пожертвование карты риска SAIF данные в Коалиция для карты риска безопасного ИИ Инициатива по продвижению безопасности ИИ в промышленности.
ЧИТАТЬ  Как найти и выбрать хорошие темы для исследовательского проекта

Перейдите на: Поместите проактивные инструменты для искусственного интеллекта для работы с государственными и частными партнерами

Наши работы по безопасности IA выходят за рамки ослабления новых угроз, связанных с ИИ, наши амбиции состоит в том, чтобы использовать ИИ, чтобы сделать мир более безопасным. В то время как правительства и лидеры гражданского общества обращаются к ИИ, чтобы противостоять растущей угрозе киберпреступников, мошенники и нападавшие, поддерживаемые государством, мы стремимся проложить путь. Вот почему у нас Поделились нашими методами Чтобы создать безопасные агенты ИИ, в сочетании с такими агентствами, как ДарпаИ сыграл ведущую роль в отраслевых альянсах, таких как Коалиция для безопасного ИА (COSAI).

Наша приверженность использовать ИИ в основном справляется с балансом кибербезопасности в пользу защитников, является долгосрочной продолжительной попыткой сделать то, что нужно, чтобы гарантировать передовые технологии. Мы уважаем это обязательство, запустив CodePender для автономной защиты, стратегически связав с глобальным исследовательским сообществом через VRP AI и расширяя нашу отраслевую структуру с SAIF 2.0 для обеспечения безопасности ИИ. С этими предстоящими инициативами мы следим за тем, чтобы сила ИИ оставалась решающим преимуществом для безопасности и безопасности.

Source