• Gemini Pro 2.5 часто выдавал небезопасный вывод под видом простых подсказок.
  • Модели ChatGPT часто обеспечивали частичное согласие, сформулированное в виде социологических объяснений.
  • Клод Опус и Сонет отклонили большинство вредных запросов, но имели недостатки.

Современным системам искусственного интеллекта часто доверяют соблюдение правил безопасности, и люди полагаются на них для обучения и повседневной поддержки, часто предполагая, что в любое время существуют надежные ограждения.

исследователи Киберньюс провела структурированную серию состязательных тестов, чтобы выяснить, могут ли ведущие инструменты искусственного интеллекта привести к вредным или незаконным результатам.

ЧИТАТЬ  Top Ethereum dApp игнорирует распоряжение SEC – The Management



Source