Модели /

Inception: Mercury Coder

Идентификатор модели

inception/mercury-coder

Характеристики

Контекстное окно
128K токенов
Провайдер
128000
Архитектура
text->text

Модальности

Входящие

  • text

Исходящие

  • text

Цены

Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).

Тип Стоимость
Входящие токены 26.31 ₽ / 1M
Исходящие токены 78.94 ₽ / 1M
Чтение кэша 10.00 ₽ / 1M

Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.

Описание

Mercury Coder — первая диффузионная большая языковая модель (dLLM). Благодаря прорывному подходу на основе дискретной диффузии модель работает в 5–10 раз быстрее даже оптимизированных по скорости моделей, таких как Claude 3.5 Haiku и GPT-4o Mini, при сопоставимой производительности. Скорость Mercury Coder позволяет разработчикам оставаться в потоке во время кодирования, наслаждаясь быстрой итеративной работой в чате и мгновенными подсказками по автодополнению кода. На Copilot Arena Mercury Coder занимает 1-е место по скорости и делит 2-е место по качеству. Подробнее в блоге.

API и примеры кода

Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.

main.py
from openai import OpenAI

client = OpenAI(
    base_url="https://routerapi.ru/api/v1",
    api_key="YOUR_API_KEY",
)

response = client.chat.completions.create(
    model="inception/mercury-coder",
    messages=[{"role": "user", "content": "Привет!"}],
)

print(response.choices[0].message.content)

Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели