Память Chatgpt раньше была легкой. Вы сказали то, что вы должны помнить, и это слушало.
С 2024 года у CATGPT была функция памяти, с которой пользователи могут сохранить полезный контекст. От вашего тона и стиля письма до ваших целей, интересов и текущих проектов. Вы можете перейти в настройки для отображения, обновления или удаления этих воспоминаний. Иногда он считал что -то важное само по себе. Но это в значительной степени вспомнило Ты спросил это. Это меняется.
Openaai, компания, стоящая за CHATGPT, ведет большое обновление до памяти. Помимо нескольких фактов, которые вы сохранили вручную, Chatgpt теперь вытащит все ваши предыдущие разговоры, чтобы сообщить о будущих ответах самостоятельно.
Согласно OpenaaiПамять теперь работает двумя способами: «Сохранение воспоминаний», добавлено непосредственно пользователем, и знания из «истории чата», которые автоматически собирают CHATT.
Эта функция, которая называется долгосрочной или постоянной памятью, вводится для пользователей CHATGPT Plus и Pro. Однако на момент написания статьи он не доступен в Великобритании, ЕС, Исландии, Лихтенштейне, Норвегии или Швейцарии из -за региональных правил.
Идея здесь проста: чем больше напоминает CHATGPT, тем более полезной она становится. Это большой скачок для персонализации. Но это также хороший момент, чтобы сделать паузу и спросить, что мы можем сдаться взамен.
Содержание
Память, которая становится личной
Здесь легко увидеть притяжение. Более персонализированный опыт CHATT означает, что вы меньше объясняете и получаете более актуальные ответы. Это полезно, эффективно и знакомо.
«Персонализация всегда была памятью», — говорит Рохан Сарин, менеджер по продукту в РечьКомпания Ki -Sprangech. «Знание кого -то дольше означает, что им больше не нужно объяснять ему все».
Он приводит пример: Попросите Chatgpt порекомендовать пиццу, и это может осторожно привлечь что -то в ваши цели в фитнесе — тонкий импульс, основанный на том, что он знает о вас. Речь идет не только о следующих инструкциях, но и чтении между строками.
«Вот как мы приближаемся к кому -то», — говорит Сарин. «Вот как мы им доверяем». Этот эмоциональный ответ делает эти инструменты такими полезными — возможно, даже успокаивающими. Однако это также увеличивает риск эмоциональной зависимости. Что, вероятно, точка прыжка.
«С точки зрения продукта, хранение всегда было о липкости», — говорит Сарин. «Он сдерживает пользователей. Затраты на переключение увеличиваются с каждым взаимодействием».
Openai не скрывает этого. Генеральный директор компании. Сэм Альтман, написал в Твиттере Эта память позволяет «системам ИИ, которые вы узнаете о своей жизни и чрезвычайно полезны и персонализированы».
Эта полезность ясна. Но это риск того, что не только зависит от них, но и, но и для им помощи знание нас.
Это помнит, как мы вам напоминаем?
Задача с долгосрочной памятью в ИИ -это неспособность понять контекст, а также людей.
Мы инстинктивно разделяем и отделяем то, что в частном порядке от того, что является профессиональным, что важно для мимолетного. CHATGPT может бороться с этим типом контекстного переключения.
Сарин отмечает, что эти строки могут размыться, потому что люди используют CHATGPT для многих разных вещей. «IRL, мы полагаемся на невербальную информацию для установления приоритетов. У ИИ их нет. Так что память без контекста может вызвать неприятные триггеры».
Он приводит пример того, что CHATGPT относится к магии и воображению в каждой истории или в каждом творческом предложении только потому, что им понравился Гарри Поттер один раз. Будет ли это из предыдущих воспоминаний, даже если они больше не актуальны? «Наша способность забыть является частью того, как мы росли», — говорит он. «Если ИИ только опровергнет то, кем мы были, это может ограничить, кем мы будем».
Без возможности ранжирования модель может открывать вещи, которые кажутся случайными, устаревшими или даже неуместными на данный момент.
Принесите память ИИ на рабочее место
Продолжающаяся память может быть очень полезна для работы. Джулиан Виффен, глава ИИ и науки о данных в МатиллионПлатформа интеграции данных со интегрированным ИИ видит сильные варианты использования: «Она может улучшить непрерывность для долгосрочных проектов, уменьшить повторные запросы ввода и предложить ассистентный ассистент на заказ», -говорит он.
Но он также осторожен. «На практике пользователи и особенно компании должны учитывать серьезные нюансы». Его самые большие проблемы здесь — конфиденциальность, контроль и безопасность данных.
«Я часто экспериментирую или громко думаю. Я бы не хотел сохранить это — или, что еще хуже, все еще появлялось в другом контексте», — говорит Виффен. Он также характеризует риски в технических средах, в которых фрагменты кода или конфиденциальных данных передаются между проектами, и становятся осведомленными о проблемах ИС или соответствия. «Эти проблемы расширяются в регулируемых отраслях или в совместной среде».
Чью это воспоминания вообще?
OpenAI подчеркивает, что пользователи могут продолжать управлять памятью — удалять отдельные воспоминания, которые больше не имеют отношения, полностью выключите ее или использовать новую кнопку «Временный чат». Теперь это появляется в верхней части экрана чата для разговоров, которые не информируются в более ранних воспоминаниях и не используются для создания новых.
Тем не менее, Виффен говорит, что этого может быть недостаточно. «Что меня беспокоит, так это отсутствие тонкого контроля и прозрачности», -говорит он. «Часто неясно, что модель напоминает о том, как долго она хранит информацию и может ли она действительно забыть».
Он также обеспокоен соблюдением законов о защите данных, такими как GDPR: «Даже хорошие функции памяти могут случайно сохранить конфиденциальные личные данные или внутреннюю информацию из проектов. По соображениям безопасности продолжающаяся память расширяет область атаки». Вероятно, это причина, по которой новое обновление еще не было представлено по всему миру.
Какой ответ? «Нам нужны более четкие ограждения, более прозрачные индикаторы памяти и возможность полного управления, что напоминает, а что нет», — объясняет Виффен.
Не все, помните то же самое
Другие инструменты искусственного интеллекта используют различные подходы к хранению. Например, помощник ИИ Клод не сохраняет постоянную память вне вашего текущего разговора. Это означает меньше функций персонализации, но больше контроля и конфиденциальности.
Путаница, поисковая система искусственного интеллекта, вообще не концентрируется на See-See в веб-информации в реальном времени. В то время как реплика, AI, для которой был разработан эмоциональный дух товарищества, идет в другом направлении и хранит длительный эмоциональный контекст, чтобы углубить отношения с пользователями.
Каждая система относится к памяти по -разному, основываясь на ее направлениях. И чем больше вы знаете о нас, тем лучше вы достигаете этих целей — помогает ли это писать, подключаться, поиск или чувствовать себя понятыми.
Вопрос не в том, полезно ли это. Я думаю, это ясно. Вопрос в том, хотим ли мы стать ИИ А Хорошо выполнять эти роли.
Легко сказать, что эти инструменты полезны, эффективны и даже незаменимы. Но эта полезность не является нейтральной, она предназначена. Эти системы создаются компаниями, которые извлекают выгоду из этого, когда мы больше полагаемся на них.
Вы бы не отказались от второго мозга, который вспоминает все из вас, возможно, лучше вас. И вот в чем дело. Компании считаются за их предпочтительными инструментами искусственного интеллекта.