Потенциал ИИ, особенно генеративного ИИ, огромен. Однако для достижения прогресса в этих новых границах инноваций должны существовать четкие отраслевые стандарты безопасности для ответственного создания и развертывания этой технологии. Вот почему мы рады представить вам сегодня Secure AI Framework (SAIF), концептуальную основу для безопасных систем искусственного интеллекта.

  • Чтобы просмотреть сводку SAIF, нажмите здесь.
  • Чтобы ознакомиться с примерами того, как специалисты-практики могут внедрить SAIF, нажмите здесь.

Почему мы представляем SAIF сейчас

SAIF вдохновляется передовыми методами обеспечения безопасности, такими как проверка цепочки поставок, тестирование и контроль, которые мы применяли при разработке программного обеспечения, при этом включая наше понимание мегатенденции безопасности и риски, характерные для систем ИИ.

Структура в государственном и частном секторах необходима для обеспечения того, чтобы ответственные участники защищали технологии, поддерживающие достижения в области ИИ, чтобы при внедрении моделей ИИ они были безопасны по умолчанию. Сегодняшний день знаменует собой важный первый шаг.

На протяжении многих лет мы в Google брали открытый и совместный подход к кибербезопасности. Это включает в себя объединение оперативных данных, опыта и инноваций с обязательством делиться информацией об угрозах с другими, чтобы помочь реагировать на кибератаки и предотвращать их. Основываясь на этом подходе, SAIF разработан, чтобы помочь снизить риски, характерные для систем ИИ, таких как украсть модель, отравление данных обучающих данныхпутем внедрения вредоносных записей через быстрая инъекцияИ извлекать конфиденциальную информацию в обучающих данных. Поскольку возможности искусственного интеллекта все больше интегрируются в продукты по всему миру, смелый и ответственный framework будет еще более важным.

И на этом давайте взглянем на SAIF и его шесть строительных блоков:

Source