Идентификатор модели
meta-llama/llama-guard-2-8b
Характеристики
- Контекстное окно
- 8K токенов
- Провайдер
- 8192
- Архитектура
- text->text
Модальности
Входящие
- text
Исходящие
- text
Цены
Оплата по факту за использованные токены и операции. Цены в рублях (за 1 млн токенов или за единицу — как указано).
| Тип | Стоимость |
|---|---|
| Входящие токены | 21.05 ₽ / 1M |
| Исходящие токены | 21.05 ₽ / 1M |
Цены могут меняться в зависимости от курса валют. Данные по тарифам поступают от поставщика услуг и обновляются каждые сутки.
Описание
Эта модель безопасности имеет 8B параметров и основана на семействе Llama 3. Как и её предшественник LlamaGuard 1, она может классифицировать как промпты, так и ответы.
LlamaGuard 2 работает как обычная LLM, генерируя текст, указывающий, является ли данный вход/выход безопасным или небезопасным. Если контент признан небезопасным, модель также указывает нарушенные категории контента.
Для лучших результатов используйте необработанный промпт или эндпоинт /completions вместо чат-API.
Модель продемонстрировала высокую производительность по сравнению с ведущими закрытыми моделями в оценках с участием людей.
Подробнее о релизе модели здесь. Использование модели регулируется Политикой допустимого использования Meta.
API и примеры кода
Единый API совместим с OpenAI SDK. Используйте ключ из личного кабинета.
from openai import OpenAI
client = OpenAI(
base_url="https://routerapi.ru/api/v1",
api_key="YOUR_API_KEY",
)
response = client.chat.completions.create(
model="meta-llama/llama-guard-2-8b",
messages=[{"role": "user", "content": "Привет!"}],
)
print(response.choices[0].message.content)
Совместимо с OpenAI Python SDK, Node.js SDK, curl и любым HTTP-клиентом. Документация API · Все модели