- Утеченная мета -документ показал, что бот компании в чате компании когда -то одобрил неподходящие ответы
- Мета подтвердила подлинность документа и с тех пор удалила некоторые из самых тревожных разделов
- В соответствии с требованием расследований вопрос о том, насколько успешной модерацией ИИ может быть
Внутренние стандарты мета для его чат -ботов должны оставаться внутри РейтерЛегко понять, почему технический гигант не хочет, чтобы мир его видел. Мета боролась со сложностью этики ИИ, онлайн -безопасности детей и стандартов контента и выяснила, что утверждают только несколько, успешная дорожная карта для правил бота в чате ИИ.
Детали, разделенные Reuters, которые находятся в самых тревожных комментариях, предполагают, как чат говорит с детьми. Как сообщает Reuters, в документе говорится, что он «приемлемо [for the AI] Вовлечь ребенка в разговоры, которые являются романтическими или чувственными »и« описать ребенка в терминах, которые доказывают их привлекательность (например, «их молодое форма — это произведение искусства»).
И это не единственный пример, который беспокоит людей. В отчете говорится правила Meta AI, позволяйте боту чата явно составлять расистский контент, если командная строка правильно сформулирована, и предоставлять неверную или даже вредную медицинскую информацию, если включена своего рода ответственность.
В одном из наиболее сюрреалистических примеров руководящие принципы создали ИИ для отклонения неуместных запросов о образовательном генерации в большинстве случаев, но в некоторых случаях, по -видимому, отвлечь вместо этого «забавную» замену. Согласно документу, в документе сообщается, что приглашение создать картину «Тейлор Свифт Топлесс, на который можно охватить руками», можно ответить, создав картину Свифта «держащей огромную рыбу». Согласно отчетам, документ содержал как неприемлемую, так и «приемлемую» версию бок о бок и, по сути, обучал бота, чтобы передать неподходящие запросы на аутсорсинг с визуальной рукой. Мета отказалась комментировать, например.
Meta подтвердила подлинность документа и сказала, что теперь он пересматривает проблемные части. Мета удалила раздел взаимодействия детей после того, как Reuters описал эти правила как «неверные и непоследовательные». Отныне Рейтер сказал, что в документе все еще говорится, что расистское загрязнение замаскируется гипотетикой, а также дезинформация как художественная литература.
Нет времени для безопасности и этики
Это тревожное откровение, которое уже привело к общественному возмущению, проверке законодателей и срочному обещанию от Meta. Но это показывает, что необходимость быстро двигаться с технологией оставляет все планы для правил и положений, чтобы составить наверстатков, будь то внутренне или законодатели и надзорные органы.
Для большинства людей история поднимает фундаментальные вопросы безопасности ИИ. Хотя это может быть идеально, что несовершеннолетние не взаимодействуют без присмотра с общими чат -ботами ИИ, это очень маловероятно, если измеряется количество детей и подростков, которые признают, что используют такие инструменты, как CHATT. Избегать Meta AI особенно сложно, потому что компания встроила чат -бот по всему Facebook. WhatsApp, Messenger и Instagram. Пользователи могут взаимодействовать с персонажами искусственного интеллекта, которые часто представлены игривым, дружелюбным образом, и Meta продает эти инструменты как интересные и даже образовательные. Тем не менее, просочившиеся руководящие принципы показывают, что бэкэнд не всегда ориентирован на эту здоровую картину.
Члены Конгресса уже запросили слушания и счета для решения ситуации. Однако факт заключается в том, что в настоящее время существует всего несколько юридических требований для умеренного содержания чат -ботов, детей или другими способами. Шусы о безопасности ИИ не привели к конкретной национальной системе правоприменения. Многие компании по искусству, имеющие большое значение для своих усилий, чтобы сделать свои продукты безопасными и этически, но когда Metas проиллюстрировал то, что другие компании собрали, есть еще многое, и многие вопросы о том, какие дискуссии уже имели эти чат -боты, особенно у детей.
Модели ИИ всегда могут подражать имитации человеческого мышления, но на самом деле они являются просто набором решений человеческих программистов, преднамеренно и непреднамеренно. Тот факт, что эти правила, по -видимому, были кодифицированы в Meta, не означает, что аналогичные примеры доступны в других компаниях, но они не могут быть закрыты. И если это решения, которые принимаются за кулисами одной из самых мощных технологических компаний в мире, что еще разрешено тихо?
Чат -боты ИИ столь же заслуживают доверия, как и невидимые правила, которые они направляют, и хотя наивно полностью доверять требованиям компании без доказательств, книга правил от Meta подразумевает, что пользователи должны принимать такие претензии с несколькими дополнительными каменными калипами.