Идентификатор модели
meta-llama/llama-3.2-11b-vision-instruct
Характеристики
- Контекстное окно
- 131K токенов
- Провайдер
- 131072
- Архитектура
- text+image->text
Модальности
Входящие
- text
- image
Исходящие
- text
Цены
Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).
| Тип | Стоимость |
|---|---|
| Входящие токены | 10.00 ₽ / 1M |
| Исходящие токены | 10.00 ₽ / 1M |
Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.
Описание
Llama 3.2 11B Vision — мультимодальная модель с 11 миллиардами параметров, предназначенная для задач, сочетающих визуальные и текстовые данные. Отлично справляется с описанием изображений и визуальным вопросно-ответным взаимодействием, соединяя генерацию языка и визуальное мышление. Предварительно обучена на массивном наборе пар «изображение — текст» и демонстрирует высокие результаты в комплексном высокоточном анализе изображений.
Способность интегрировать визуальное понимание с обработкой языка делает её идеальным решением для отраслей, требующих комплексных визуально-лингвистических ИИ-приложений, таких как создание контента, ИИ-обслуживание клиентов и исследования.
Оригинальная карточка модели здесь.
Использование модели регулируется Политикой допустимого использования Meta.
API и примеры кода
Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.
from openai import OpenAI
client = OpenAI(
base_url="https://routerapi.ru/api/v1",
api_key="YOUR_API_KEY",
)
response = client.chat.completions.create(
model="meta-llama/llama-3.2-11b-vision-instruct",
messages=[{"role": "user", "content": "Привет!"}],
)
print(response.choices[0].message.content)
Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели