Модели /

Inception: Mercury 2

Идентификатор модели

inception/mercury-2

Характеристики

Контекстное окно
128K токенов
Провайдер
128000
Архитектура
text->text

Модальности

Входящие

  • text

Исходящие

  • text

Цены

Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).

Тип Стоимость
Входящие токены 26.31 ₽ / 1M
Исходящие токены 78.94 ₽ / 1M
Чтение кэша 10.00 ₽ / 1M

Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.

Описание

Mercury 2 — чрезвычайно быстрая рассуждающая LLM и первая рассуждающая диффузионная LLM (dLLM). Вместо последовательной генерации токенов Mercury 2 генерирует и уточняет несколько токенов параллельно, достигая скорости >1 000 токенов/сек на стандартных GPU. Mercury 2 в 5 и более раз быстрее ведущих скоростных LLM, таких как Claude 4.5 Haiku и GPT 5 Mini, при значительно меньшей стоимости. Mercury 2 поддерживает настраиваемые уровни рассуждения, контекст 128K, нативное использование инструментов и JSON-вывод с привязкой к схеме. Создана для рабочих процессов кодирования, где задержки накапливаются, голосового и поискового взаимодействия в реальном времени, а также агентных циклов. Совместима с OpenAI API. Подробнее в блоге.

API и примеры кода

Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.

main.py
from openai import OpenAI

client = OpenAI(
    base_url="https://routerapi.ru/api/v1",
    api_key="YOUR_API_KEY",
)

response = client.chat.completions.create(
    model="inception/mercury-2",
    messages=[{"role": "user", "content": "Привет!"}],
)

print(response.choices[0].message.content)

Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели