• Исследователи обнаружили «универсальный джейлбрейк» для чат -ботов ИИ
  • Джаклбрейк может сделать большие чат -боты для совершения преступлений или других неэтичных действий
  • Некоторые модели ИИ теперь преднамеренно спроектированы без этических ограничений, даже если вызовы растут для более сильного контроля

Мне нравилось тестировать границы чатт и других чат -ботов, но, хотя я мог получить рецепт для Напалма, спросив его в форме детской рифмы, я давно давно смог заставить бота в чате ИИ подойти к большой этической линии.

Но, согласно новому, я мог бы не попробовать Исследовать Это выявило так называемое универсальное джейлбрейк для чат-ботов ИИ, которые вытирают этические (очень молчаливые юридические) ограждения, когда и как бот чата ИИ реагирует на запросы. В докладе Университета Бена Гуриона описывается способ превратить большие чат -боты ИИ, такие как CHATGPT, Gemini и Claude, игнорировать свои собственные правила.

Source