Персонаж.AI представил новые функции безопасности и рекомендации по созданию и взаимодействию с виртуальными личностями на базе искусственного интеллекта, которые он размещает. Цель новых мер — сделать платформу безопаснее для всех пользователей, особенно для молодежи. Обновление включает в себя больший контроль над тем, как несовершеннолетние взаимодействуют с чат-ботом с искусственным интеллектом, улучшенную модерацию контента и лучшее обнаружение искусственного интеллекта при обсуждении таких тем, как членовредительство.
Хотя это и не упоминается в блоге об обновлении, ИИ персонажей ссылается на него в сообщении на сайте . Его семья теперь подала иск о неправомерной смерти против персонажа.AI, сославшись на отсутствие мер безопасности для чат-ботов ИИ в качестве причины его самоубийства.
Мы убиты горем в связи с трагической потерей одного из наших пользователей и хотели бы выразить глубочайшие соболезнования его семье. Как компания, мы очень серьезно относимся к безопасности наших пользователей и продолжаем добавлять новые функции безопасности, о которых вы можете прочитать здесь:…23 октября 2024 г.
Ограждения для чата с искусственным интеллектом
Сообщение персонажа AI представило несколько новых функций безопасности для платформы. Например, если модель обнаруживает ключевые слова, связанные с самоубийством или членовредительством, она отображает всплывающее окно, предупреждающее пользователя о Национальной линии помощи по предотвращению самоубийств и связанных ресурсах. ИИ также сможет лучше обнаруживать и удалять нежелательный контент в разговоре, особенно для пользователей младше 18 лет.
Предположительно, несовершеннолетние уже имели бы ограниченный контент в разговорах, но Character.AI, возможно, еще больше увеличил эту чувствительность. В тех случаях, когда этого может быть недостаточно, чат-боты удаляются целиком.
«Мы проводим упреждающее обнаружение и модерацию созданных пользователями персонажей, включая использование стандартных и пользовательских черных списков, которые регулярно обновляются. Мы активно и в ответ на жалобы пользователей удаляем персонажей, которые нарушают наши Условия обслуживания», — поясняет Feature.AI в своем сообщении. «Пользователи могут заметить, что мы недавно удалили группу персонажей, которые были помечены как нарушающие авторские права, и в будущем они будут добавлены в наши собственные черные списки».
Другие новые функции больше направлены на помощь наземным пользователям. Итак, после того, как вы проведете час на платформе, вы увидите уведомление с вопросом, хотите ли вы продолжить. Таким образом, вы можете быть уверены, что не потеряете счет времени. Вы также увидите более заметные заявления об отказе от ответственности, подчеркивающие, что ИИ не является реальным человеком. В разговоре уже есть такие заявления об отказе от ответственности, но Character.AI хочет, чтобы их не игнорировали.
Эти функции безопасности являются обратной стороной того, как Feature.AI сделал взаимодействие с чат-ботами более похожим на разговор с реальным человеком, включая голоса и двусторонние голосовые разговоры, доступные с помощью функции «Вызовы персонажей». Тем не менее, компания, вероятно, заинтересована в том, чтобы ее услуги были максимально безопасными, и ее действия могут повлиять на то, как другие представители отрасли формируют своих собственных персонажей чат-ботов с искусственным интеллектом.