Идентификатор модели
inception/mercury-2
Характеристики
- Контекстное окно
- 128K токенов
- Провайдер
- 128000
- Архитектура
- text->text
Модальности
Входящие
- text
Исходящие
- text
Цены
Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).
| Тип | Стоимость |
|---|---|
| Входящие токены | 26.31 ₽ / 1M |
| Исходящие токены | 78.94 ₽ / 1M |
| Чтение кэша | 10.00 ₽ / 1M |
Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.
Описание
Mercury 2 — чрезвычайно быстрая рассуждающая LLM и первая рассуждающая диффузионная LLM (dLLM). Вместо последовательной генерации токенов Mercury 2 генерирует и уточняет несколько токенов параллельно, достигая скорости >1 000 токенов/сек на стандартных GPU. Mercury 2 в 5 и более раз быстрее ведущих скоростных LLM, таких как Claude 4.5 Haiku и GPT 5 Mini, при значительно меньшей стоимости. Mercury 2 поддерживает настраиваемые уровни рассуждения, контекст 128K, нативное использование инструментов и JSON-вывод с привязкой к схеме. Создана для рабочих процессов кодирования, где задержки накапливаются, голосового и поискового взаимодействия в реальном времени, а также агентных циклов. Совместима с OpenAI API. Подробнее в блоге.
API и примеры кода
Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.
from openai import OpenAI
client = OpenAI(
base_url="https://routerapi.ru/api/v1",
api_key="YOUR_API_KEY",
)
response = client.chat.completions.create(
model="inception/mercury-2",
messages=[{"role": "user", "content": "Привет!"}],
)
print(response.choices[0].message.content)
Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели