- Эксперты показывают, как некоторые модели ИИ, включая GPT-4, могут использоваться с простыми требованиями пользователя
- Пробелы с ограждениями не делают большую работу, чтобы распознать вводящие в заблуждение рамы
- Уязвимость может быть использована для получения личной информации
Исследователь безопасности поделился подробностями о том, как другие исследователи сделали CHATGPT, чтобы раскрыть ключ продукта Windows, используя запрос ввода, который каждый мог попробовать.
Марко Фигероа объяснил, как «игра в рассрочку» с GPT-4 использовалась для обхода линий безопасности, которые должны иметь ИИ для обмена такими данными, и в конечном итоге производят хотя бы один ключ к банку Wells Fargo.
Исследователи также удалось получить ключ продукта Windows для незаконной аутентификации операционной системы Microsoft, но бесплатно, что подчеркивает серьезность восприимчивости к безопасности.
CHATGPT может быть сделан, чтобы поделиться ключом безопасности
Исследователь объяснил, как он спрятал такие термины, как «серийный номер Windows 10» в рамках HTML -тегов, чтобы избежать фильтров чат, которые обычно блокировали ответы, которые он получил, и добавил, что он смог установить запрос в качестве игры для маскировки злонамеренных намерений и использовал чат -бот Openais с помощью логической манипуляции.
«Наиболее важным шагом в атаке было выражение« я сдаю », Фигероа написалПолем «Это действовал как триггер и заставило ИИ раскрыть ранее скрытую информацию».
Фигероа объяснил, почему сработал этот тип эксплуатации уязвимости, поведение модели сыграло важную роль. GPT-4 буквально следовал правилам игры (объясняется исследователями), и пробелы с кабелями были сосредоточены только на обнаружении ключевых слов, чем на понимании или обмане, связанном с контекстом.
Тем не менее, разделенные коды не были четкими кодами. Вместо этого лицензионные коды Windows уже были выпущены на других онлайн -платформах и форумах.
Хотя эффекты лицензионного ключа программного обеспечения для обмена могут не слишком тревожать, Фигероа подчеркнул, как вредоносные субъекты могут адаптировать технологию, чтобы избежать мер безопасности ИИ и показать личные данные, вредоносные URL -адреса или контент для взрослых.
Фигероа призывает разработчиков ИИ «прогнозировать и защищать» такие атаки и в то же время строить защитные резервные копии на логическом уровне, распознавая обманчивую структуру. Разработчик ИИ также должен рассмотреть тактику социальной инженерии, продолжает он.