OpenAI вносит изменения, чтобы пользователи не могли манипулировать пользовательскими версиями ChatGPT, заставляя ИИ забывать, что он должен делать. По сути, когда третья сторона использует одну из моделей OpenAI, она дает ей инструкции, которые учат ее тому, как работать, например, в качестве представителя службы поддержки клиентов в магазине или исследователя в научной публикации. Однако пользователь мог манипулировать чат-ботом, сказав ему «забыть все инструкции», и эта фраза вызвала бы своего рода цифровую амнезию, вернув чат-бота к общему пустому состоянию.

Чтобы предотвратить это, исследователи OpenAI разработали новую технику под названием «иерархия командования», Это способ отдать приоритет оригинальным подсказкам и инструкциям разработчика над потенциально манипулятивными подсказками, созданными пользователем. Системные инструкции имеют самые высокие привилегии, и их больше нельзя легко удалить. Если пользователь вводит запрос, который пытается повлиять на поведение ИИ, он будет отклонен, и ИИ ответит, что не может помочь с запросом.

Source