Модели /

Arcee AI: Virtuoso Large

Идентификатор модели

arcee-ai/virtuoso-large

Характеристики

Контекстное окно
131K токенов
Провайдер
131072
Архитектура
text->text

Модальности

Входящие

  • text

Исходящие

  • text

Цены

Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).

Тип Стоимость
Входящие токены 78.94 ₽ / 1M
Исходящие токены 126.30 ₽ / 1M

Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.

Описание

Virtuoso-Large — топовая универсальная LLM от Arcee с 72B параметрами, дообученная для кросс-доменного рассуждения, творческого письма и корпоративных вопросов-ответов. В отличие от многих аналогов на 70B, сохраняет контекст 128K, унаследованный от Qwen 2.5, позволяя загружать целиком книги, кодовые базы или финансовую отчётность. Обучение сочетало дистилляцию DeepSeek R1, многоэпохальное дообучение с учителем и финальный этап выравнивания DPO/RLHF, что обеспечило высокую производительность на BIG-Bench-Hard, GSM-8K и тестах Needle-In-Haystack на длинных контекстах. Предприятия используют Virtuoso-Large как «запасной мозг» в конвейерах Conductor, когда другие SLM сигнализируют о низкой уверенности. Несмотря на размер, агрессивные оптимизации KV-кеша обеспечивают задержку первого токена в пределах нескольких секунд на узлах 8×H100, делая модель практичным продакшн-решением.

API и примеры кода

Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.

main.py
from openai import OpenAI

client = OpenAI(
    base_url="https://routerapi.ru/api/v1",
    api_key="YOUR_API_KEY",
)

response = client.chat.completions.create(
    model="arcee-ai/virtuoso-large",
    messages=[{"role": "user", "content": "Привет!"}],
)

print(response.choices[0].message.content)

Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели