Речь идет об обновлении, меняющем стоимость использования чатов с нейросетями.
Мы изменили схему расчета стоимости AI-чатов. Работать с длинными диалогами теперь стало заметно проще и экономичнее.
Содержание
Как считалось ранее
Раньше стоимость рассчитывалась исключительно исходя из длины диалога: бралась вся длина чата и умножалась на цену выбранной модели.
Например, диалог на 10 000 символов с ценой модели 5 лимитов стоит 50 лимитов за каждый новый запрос.
Оказалось, что даже за короткий ответ ты заплатил за весь накопленный диалог. Чем дольше вы общались, тем дороже становился каждый следующий вопрос — независимо от того, насколько долгим был ответ нейросети.
Как это рассматривается сейчас?
Теперь система расчета стоимости учитывает фактическую стоимость ресурсов. Расчет разделен на две независимые части: контекст И Отвечать.
Контекст запроса
Это весь предыдущий разговор плюс новое сообщение пользователя. Учитывается:
- по объему;
- по отдельной цене за контекст модели.
Эта цена от 2 до 10 раз ниже, чем раньше.
Ответ нейронной сети
Рассматривается отдельно:
- по количеству токенов;
- по цене выбранной модели.
Эта цена зависит от того, сколько токенов (текстовых единиц) сгенерировала модель.
Почему мы обновили систему расчета
Обработка контекста (чтение истории разговоров) требует меньше вычислительных ресурсов, чем генерация нового текста. Следовательно, имеет смысл, что контекст стоит меньше.
Теперь вы платите за то, что действительно используете: меньше за чтение истории, больше за создание нового ответа.
Пример расчета (GPT‑5.2)
Возьмем диалог из 10 000 символов:
- Контекст: 10 000 символов → около 10 границ;
- Типовой ответ: 1000 токенов → около 5 лимитов.
Всего: ок. 15 предельных значений вместо прежних 50 и более.
Что там
- Длинные чаты стали доступнее. Теперь вы можете спокойно вести длинные диалоги, не беспокоясь о том, что каждый новый вопрос будет стоить все дороже.
- Контекст больше не увеличивает затраты. История ваших разговоров будет учтена, но это будет стоить значительно дешевле, чем раньше.
- Короткие ответы стоят дешевле. Если нейросеть дала короткий ответ, вы платите только за это, а не за весь ход диалога.
- Справедливые цены. Теперь затраты соответствуют фактической стоимости ресурсов.
Обновленная схема уже работает для всех пользователей. Попробовать работать с AI Chat можно по этой ссылке.

