OpenAI объявила о создании новой группы по обеспечению готовности, которой будет поручено оценить передовые базовые модели на предмет катастрофических рисков и разработать политику безопасной разработки этих моделей.

Также был объявлен конкурс на готовность: участникам предлагается заполнить анкету, и десять лучших заявок получат 25 000 долларов США в виде кредитов API.

Пограничный ИИ

Фраза, о которой говорят в правительстве и за его пределами в отношении будущего вреда, известна как Frontier AI.

Frontier AI — это передовой искусственный интеллект, который предлагает возможность решения величайших проблем человечества, но также несет в себе потенциальный вред.

OpenAI определяет Frontier AI как:

«…модели фундаментов с высокими эксплуатационными характеристиками, которые могут обладать опасными возможностями, достаточными для того, чтобы представлять серьезную угрозу общественной безопасности.

Передовые модели искусственного интеллекта представляют собой особую регулятивную проблему: опасные возможности могут возникнуть неожиданно; трудно надежно предотвратить неправильное использование развернутой модели; и трудно остановить широкое распространение возможностей модели».

Группа готовности

OpenAI описал проблемы в управлении пограничными моделями как возможность количественно оценить степень вреда в случае неправильного использования ИИ, сформировать представление о том, как будет выглядеть структура управления рисками, и понять, какой вред может пройти, если злонамеренные намерения возобладают. технологии.

Перед командой готовности поставлена ​​задача минимизировать риски Frontier Models и подготовить отчет под названием «Политика разработки с учетом рисков», в котором будет изложен подход OpenAI к оценке, мониторингу и надзору за процессом разработки.

OpenAI описывает обязанности команды:

«Команда по обеспечению готовности будет тесно связывать оценку возможностей, оценку и внутреннюю красную команду для передовых моделей, от моделей, которые мы разрабатываем в ближайшем будущем, до моделей с возможностями уровня AGI.

Команда поможет отслеживать, оценивать, прогнозировать и защищать от катастрофических рисков, охватывающих несколько категорий…»

Команда готовности OpenAI

Правительства по всему миру оценивают, какой текущий потенциальный вред и какой будущий вред может быть возможен от Frontier AI, а также как лучше всего регулировать ИИ для управления развитием.

ЧИТАТЬ  Выходит основное обновление Google за ноябрь 2024 года

Группа готовности OpenAI — это шаг к тому, чтобы опередить эту дискуссию и найти ответы прямо сейчас.

В рамках этой инициативы OpenAI объявила задача готовностипредлагая кредиты API на сумму 25 000 долларов США десяти лучшим предложениям по предотвращению катастрофических злоупотреблений.

Прочтите объявление OpenAI:

Пограничный риск и готовность



Source link