В прошлом году мы анонсировали нашу платформу Secure AI Framework (САИФ), чтобы помочь другим безопасно и ответственно развертывать модели ИИ. Он не только делится нашими лучшими практиками, но и предоставляет основу для промышленности, передовых разработчиков и специалистов по безопасности, позволяющую гарантировать, что при реализации моделей ИИ они безопасны по своей конструкции. Чтобы стимулировать принятие критически важных мер безопасности ИИ, мы использовали принципы SAIF и помогли сформировать Коалицию за безопасный ИИ (CoSAI) с партнерами по отрасли. Сегодня мы представляем новый инструмент, который может помочь другим оценить уровень своей безопасности, применить эти лучшие практики и реализовать принципы SAIF.

ТО Оценка рисков SAIFдоступно сегодня на нашем новом сайте САИФ.Google— это инструмент на основе анкет, который мгновенно создаст персонализированный контрольный список, который поможет специалистам-практикам обеспечить безопасность своих систем искусственного интеллекта. Мы считаем, что этот легко доступный инструмент заполняет критический пробел в развитии экосистемы ИИ в направлении более безопасного будущего.

Новая оценка рисков SAIF

ТО Оценка рисков SAIF помогает превратить SAIF из концептуальной основы в практический контрольный список для практиков, ответственных за безопасность своих систем искусственного интеллекта. Практикующие специалисты могут найти этот инструмент в строке меню новой домашней страницы SAIF.Google.

Source

ЧИТАТЬ  Как найти праздничные торговые предложения в Google