Идентификатор модели
arcee-ai/virtuoso-large
Характеристики
- Контекстное окно
- 131K токенов
- Провайдер
- 131072
- Архитектура
- text->text
Модальности
Входящие
- text
Исходящие
- text
Цены
Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).
| Тип | Стоимость |
|---|---|
| Входящие токены | 78.94 ₽ / 1M |
| Исходящие токены | 126.30 ₽ / 1M |
Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.
Описание
Virtuoso-Large — топовая универсальная LLM от Arcee с 72B параметрами, дообученная для кросс-доменного рассуждения, творческого письма и корпоративных вопросов-ответов. В отличие от многих аналогов на 70B, сохраняет контекст 128K, унаследованный от Qwen 2.5, позволяя загружать целиком книги, кодовые базы или финансовую отчётность. Обучение сочетало дистилляцию DeepSeek R1, многоэпохальное дообучение с учителем и финальный этап выравнивания DPO/RLHF, что обеспечило высокую производительность на BIG-Bench-Hard, GSM-8K и тестах Needle-In-Haystack на длинных контекстах. Предприятия используют Virtuoso-Large как «запасной мозг» в конвейерах Conductor, когда другие SLM сигнализируют о низкой уверенности. Несмотря на размер, агрессивные оптимизации KV-кеша обеспечивают задержку первого токена в пределах нескольких секунд на узлах 8×H100, делая модель практичным продакшн-решением.
API и примеры кода
Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.
from openai import OpenAI
client = OpenAI(
base_url="https://routerapi.ru/api/v1",
api_key="YOUR_API_KEY",
)
response = client.chat.completions.create(
model="arcee-ai/virtuoso-large",
messages=[{"role": "user", "content": "Привет!"}],
)
print(response.choices[0].message.content)
Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели