Джоан Джанг, глава модели и поведенческой политики Openai, написала сообщение в блоге о X о отношениях человека и аи и некоторых хорошо продуманных идеях по этой теме и о том, как Openaai подходит к связанным темам. Когда модели ИИ по существу подражают жизни и имеют лучшую манеру, люди начинают относиться к чат -ботам искусственного интеллекта, как будто они также были людьми. Имеет смысл, что Openai хочет прояснить, что они знают об этом и включают факты в своих планах.
Но вдумчивый, нюансированный подход, включая дизайн моделей, которые кажутся полезными и дружелюбными, но не чувствительными, упускают что -то важное. Независимо от того, насколько ясным и осторожным, чтобы быть Джангом, иметь людей, которые имеют эмоциональные связи с ИИ, иногда происходят с ИИ, или в будущих гипотетических соединениях, и, кажется, многое другое.
OpenAI, возможно, не был подготовлен к тому, как генеральный директор Сэм Альтман прокомментировал, сколько людей AI Anthropomorphicia и насколько глубоко пользователи утверждают, что подключаются к моделям. Он даже узнал эмоциональный поезд и его потенциальные риски. Вот почему Jangs Post существует.
Это ясно дает понять, что Openai строит модели для обслуживания людей и что они расставляют приоритеты эмоциональной стороны этого уравнения. Они изучают, как и почему люди образуют эмоциональные связи с ИИ и что значит для разработки будущих моделей. Он отличается между онтологическим осознанием, как в реальном осознании людей, и воспринимаемым осознанием того, кажется ли оно сознательно для пользователей. Воспринимаемое осознание — это то, что на данный момент важно, поскольку это влияет на людей, которые взаимодействуют с ИИ. Компания пытается пропустить поведенческую иглу, которая делает ИИ теплым и полезным, не делая этого, что у нее есть чувства или душа.
Тем не менее, клинически сострадательный язык не мог замаскировать очевидный недостающий элемент. Мне казалось, что вы наблюдали, как кто -то представлял осторожность: мокрый пол и хвастался планами водонепроницаемых зданий через неделю после того, как поток покинул дно пола в глубине воды.
Элегантное кадрирование и осторожный оптимизм поста в блоге и его внимание на ответственной модной позиции, основанной на исследованиях и долгосрочной культурной кондиционировании, создают грязную реальность того, как люди строят глубокие связи с чат-ботами ИИ, включая Чатт. Многие люди говорят не только с программным обеспечением Catt, но и с тем, как это человек. Некоторые даже утверждают, что влюбились в компаньона ИИ или полностью заменить человеческие связи.
ИИ близость
Есть темы Reddit, средние эссе и вирусные видео о людях, которые ничего не шептали в своего любимого чата. Это может быть смешным, грустным или даже злым, но то, что это не является теоретическим. Жалобы о том, способствовали ли Ай чат -боты в самоубийство, и более чем один человек сообщил, что они полагаются на ИИ, где стало сложнее построить реальные отношения.
Openai отмечает, что постоянное, осуждающее внимание модели может ощущаться как дух товарищества. И они признают, что дизайн звука и индивидуальность чат -бота могут повлиять на то, насколько он эмоционально жив, и увеличение операций для пользователей в этих отношениях проинструктировано. Но тон произведения слишком далекий и академический, чтобы распознать потенциальную масштаб проблемы.
Потому что с близостью ИИ зубной пасты, которая уже вышла из трубки, это вопрос реального поведения и того, как компании, стоящие за ИИ, которые в настоящее время формируют это поведение, не только реагируют в будущем. В идеале у вас уже есть системы распознавания зависимостей. Когда кто -то проводит часы в день с Chatgpt и говорит, как его партнер, система должна быть в состоянии тщательно отметить это поведение и предложить перерыв.
И романтические соединения нуждаются в некоторых жестких ограничениях. Это не было бы глупо и, вероятно, контрпродуктивным. Но строгие правила, которые каждый искусственный интеллект, который занимается романтической ролью -игрой, должен напоминать людям, что они говорят с ботом, который на самом деле не живет или о знании. Люди являются мастерами проекции, и модель не должна флиртовать, чтобы пользователь мог влюбиться в нее, но любые признаки разговора, которые находятся в этом направлении, должны вызвать эти протоколы, и они должны быть особенно строгими у детей.
То же самое относится и к моделям ИИ в целом. Случайные воспоминания о Чатте и говорят: «Эй, я не настоящий человек», могут чувствовать себя некомфортно, но в некоторых случаях они хорошие и хорошие профилактики в целом. Пользователи не виноват в том, что люди антропоморфны. Googly Eyes on Roombas и наши транспортные средства с именами и личностями больше не считаются немного причудливыми. Неудивительно, что инструмент начинает ощущаться как друг, терапевт или даже партнер, как друг. Дело в том, что такие компании, как Openaai, несут ответственность за то, чтобы предвидеть это и сформировать его с самого начала.
Вы можете утверждать, что добавление всех этих ограждений разрушает веселье. То, что люди могут использовать ИИ так, как они хотят, и что этот искусственный дух товарищества может быть бальзамом для одиночества. И это относится к умеренным дозам. Но по определенной причине у игровых площадок есть заборы и ролик. ИИ, который может подражать и провоцировать эмоции без тестов на безопасность, просто незначителен.
Я рад, что Openai подумает об этом, я только хочу, чтобы они сделали их раньше или срочно. Дизайн продукта искусственного интеллекта должен отражать реальность, которую люди уже находятся в отношениях с ИИ, и эти отношения требуют не только продуманных эссе, чтобы оставаться здоровыми.