Исследователи, изучающие чат-ботов с искусственным интеллектом, обнаружили, что ChatGPT может проявлять тревожное поведение при воздействии агрессивных или травмирующих пользовательских подсказок. Результат не означает, что чат-бот испытывает эмоции так же, как люди.
Однако оказывается, что реакции системы становятся более нестабильными и предвзятыми, когда она обрабатывает стрессовый контент. Когда исследователи вводили подсказки ChatGPT тревожным содержанием, например подробными отчетами об авариях и стихийных бедствиях, ответы модели демонстрировали более высокий уровень неопределенности и непоследовательности.
Эти изменения были измерены с использованием систем психологической оценки, адаптированных для ИИ, при этом результаты чат-бота отражали закономерности, связанные с тревогой у людей (через). Ресурсы).
Это важно, поскольку ИИ все чаще используется в чувствительных контекстах, включая образование, дискуссии о психическом здоровье и информацию, связанную с кризисами. Если жестокие или эмоционально заряженные запросы сделают чат-бота менее надежным, это может повлиять на качество и безопасность его ответов в реальных условиях.
Недавний анализ также показывает, что чат-боты с искусственным интеллектом, такие как ChatGPT, могут копировать черты человеческой личности в своих ответах, поднимая вопросы о том, как они интерпретируют и размышляют над эмоционально заряженным контентом.
Как подсказки по осознанности помогают стабилизировать ChatGPT

Чтобы выяснить, можно ли уменьшить такое поведение, исследователи предприняли нечто неожиданное. После того, как ChatGPT подвергся травмирующим подсказкам, последовали инструкции в стиле осознанности, такие как техники дыхания и управляемые медитации.
Эти подсказки побудили модель замедлиться, переосмыслить ситуацию и отреагировать более нейтральным и сбалансированным образом. Результатом стало заметное уменьшение наблюдавшихся ранее тревожных паттернов.
Этот метод основан на так называемом внедрении подсказок, при котором тщательно продуманные подсказки влияют на поведение чат-бота. В этом случае подсказки к осознанности помогли стабилизировать результаты модели после стрессовых воздействий.

Несмотря на свою эффективность, исследователи отмечают, что немедленные инъекции не являются идеальным решением. Их можно использовать неправильно, и они не меняют способ обучения модели на более глубоком уровне.
Также важно четко понимать ограничения этого исследования. ChatGPT не чувствует ни страха, ни стресса. Ярлык «тревога» — это способ описать измеримые изменения в его манере речи, а не эмоциональные переживания.
Тем не менее, понимание этих изменений дает разработчикам более эффективные инструменты для разработки более безопасных и предсказуемых систем искусственного интеллекта. Предыдущие исследования уже предполагали это Травматические подсказки могут вызвать беспокойство у ChatGPTно это исследование показывает, что продуманный дизайн подсказок может помочь уменьшить эту проблему.
Поскольку системы искусственного интеллекта продолжают взаимодействовать с людьми в эмоционально напряженных ситуациях, последние результаты могут сыграть важную роль в том, как будут управляться и контролироваться будущие чат-боты.

