Новая модель расчёта стоимости ИИ‑чатов: экономия на длинных диалогах
Мы обновили способ расчёта стоимости работы с ИИ‑чатами, сделав его более прозрачным и экономичным, особенно при длительных беседах.
Что изменилось?
Ранее цена за запрос складывалась из полной длины диалога, умноженной на стоимость выбранной модели. Это означало, что даже короткий ответ стоил столько же, сколько весь накопленный чат.
Теперь расчёт разделён на два независимых компонента: контекст и генерация ответа. Это позволяет платить только за реально использованные ресурсы.
Контекст запроса
Контекст включает всю историю диалога плюс новое сообщение пользователя. Стоимость определяется по объёму токенов и отдельной цене контекста модели, которая обычно в 2–10 раз ниже прежней ставки.
Генерация ответа
Ответ считается отдельно по количеству токенов, сгенерированных моделью, и по её цене. Чем длиннее ответ, тем выше его стоимость, но она остаётся справедливой и предсказуемой.
Почему это выгодно?
Чтение истории диалога требует меньше вычислительных ресурсов, чем генерация нового текста. Поэтому контекст теперь стоит дешевле, а вы платите только за то, что действительно создаёте.
Пример расчёта (GPT‑5.2)
Диалог длиной 10 000 символов:
• Контекст – 10 000 символов ≈ 10 лимитов.
• Ответ – 1 000 токенов ≈ 5 лимитов.
Итого – около 15 лимитов вместо прежних 50 и более.
Практические советы по экономии
- Оптимизируйте запросы – формулируйте вопросы конкретно, чтобы сократить количество токенов в ответе.
- Используйте «резюме» контекста – вместо полного диалога отправляйте краткое резюме ключевых пунктов.
- Управляйте длиной ответа – задавайте лимит токенов в настройках, чтобы избежать лишних расходов.
- Проверяйте токенизацию – используйте инструменты для подсчёта токенов, чтобы планировать бюджет.
Что это значит для вас?
Длинные чаты теперь доступны без страха переплаты. Вы платите только за чтение истории и за генерацию нового текста, а не за всю историю диалога. Это делает ценообразование более справедливым и предсказуемым.
Новая схема уже применима ко всем пользователям. Попробуйте обновлённый ИИ‑чат по ссылке и убедитесь в экономии.