ИИ нуждается в системе безопасности и строгих стандартах, которые смогут идти в ногу с его быстрым ростом. Именно поэтому в прошлом году мы представили Secure AI Framework (SAIF), зная, что это только первый шаг. Конечно, чтобы сделать отраслевую структуру работоспособной, необходимо тесное сотрудничество с другими участниками и, прежде всего, форум для достижения этой цели.
Сегодня на форуме безопасности в Аспене вместе с нашими коллегами по отрасли мы представляем Коалиция за безопасный искусственный интеллект (CoSAI)В течение прошлого года мы работали над созданием этой коалиции для продвижения комплексных мер безопасности для устранения уникальных рисков, связанных с ИИ, как в отношении проблем, которые возникают в реальном времени, так и в отношении тех, которые маячат на горизонте.
В состав CoSAI входят члены-учредители Amazon, Anthropic, Защита цепи, ЦискоКогер, ГенЛаб, IBM, ИнтелMicrosoft, NVIDIA, OpenAI, Paypal и Wiz — и он будет размещен на ОАЗИС Открытыймеждународные стандарты и консорциум открытого исходного кода.
Презентация первых направлений работы CoSAI
Поскольку отдельные лица, разработчики и предприятия продолжают прилагать усилия по внедрению общих стандартов безопасности и лучших практик, CoSAI будет поддерживать эти коллективные инвестиции в безопасность ИИ. Сегодня мы также разделяем первые три направления, которыми коалиция будет заниматься в сотрудничестве с промышленностью и научными кругами:
- Безопасность цепочки поставок программного обеспечения для систем искусственного интеллекта: Google продолжает работать над расширением Происхождение SLSA к моделям ИИ, чтобы помочь определить, когда программное обеспечение ИИ безопасно, путем понимания того, как оно создавалось и обрабатывалось на протяжении всей цепочки поставок программного обеспечения. Эта рабочая группа будет стремиться улучшить безопасность ИИ, предоставляя рекомендации по оценке происхождения, управлению рисками сторонних моделей и полной оценке происхождения приложений ИИ путем расширения существующих усилий. SSDF И SLSA принципы безопасности для искусственного интеллекта и традиционного программного обеспечения.
- Подготовка защитников к постоянно меняющемуся ландшафту кибербезопасности: При ежедневном управлении управлением ИИ специалисты по безопасности не имеют простого пути решения сложных проблем безопасности. Эта рабочая группа разработает основу для правозащитников, которая поможет им определить инвестиции и методы смягчения последствий использования ИИ на безопасность. Эта структура поможет адаптировать стратегии смягчения последствий по мере появления наступательных достижений в области кибербезопасности в моделях искусственного интеллекта.
- Управление безопасностью ИИ: Управление вопросами безопасности ИИ требует нового набора ресурсов и понимания уникальных аспектов безопасности ИИ. Для достижения этой цели CoSAI разработает таксономию рисков и средств контроля, контрольный список и систему показателей, которые помогут специалистам-практикам проводить оценку готовности, управление, мониторинг и отчетность по безопасности своей продукции.
Кроме того, CoSAI будет сотрудничать с такими организациями, как Frontier Model Forum, Partnership on AI, Open Source Security Foundation и ML Commons, для продвижения ответственного ИИ.
И после
По мере развития ИИ мы стремимся обеспечить соответствующее развитие стратегий управления рисками. Нас воодушевляет отраслевая поддержка безопасного и надежного ИИ, которую мы наблюдали в прошлом году. Нас еще больше воодушевляют шаги, которые мы видим со стороны разработчиков, экспертов и компаний, больших и малых, которые помогают организациям безопасно внедрять, обучать и использовать ИИ.
Разработчикам ИИ нужна — и конечные пользователи заслуживают — система безопасности ИИ, которая реагирует на текущий момент и ответственно использует открывающиеся возможности. CoSAI — это следующий шаг на этом пути, и мы можем ожидать дальнейших обновлений в ближайшие месяцы. Чтобы узнать, как вы можете поддержать CoSAI, посетите сайт Coalitionforsecureai.orgТем временем вы можете посетите нашу страницу Secure AI Framework чтобы узнать больше о работе Google в области безопасности искусственного интеллекта.