Публичная документация
Когда использовать
Аудио-сценарии полезны для:
- распознавания речи;
- озвучки текста;
- анализа голосовых сообщений;
- извлечения смысла из звука, если upstream это поддерживает.
Главное правило
Поддержка аудио зависит от выбранной модели и upstream-провайдера. RouterAPI только проксирует совместимый запрос и не подменяет формат аудио сам по себе.
Практический подход для RouterAPI
В публичном API RouterAPI стабильно доступны базовые маршруты:
GET /api/v1/keyGET /api/v1/modelsPOST /api/v1/chat/completions
Поэтому аудио-сценарии в документации описывайте как model-dependent через совместимый payload в chat/completions (если выбранная модель действительно принимает аудио в таком формате).
Пример: аудио как вход (паттерн)
curl https://routerapi.ru/api/v1/chat/completions \
-H "Authorization: Bearer $YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "audio-capable-model-id",
"messages": [
{
"role": "user",
"content": [
{ "type": "text", "text": "Распознай речь и дай краткое резюме" },
{ "type": "audio_url", "audio_url": { "url": "data:audio/wav;base64,BASE64_AUDIO_HERE" } }
]
}
]
}'
Пример: аудио как выход
Если модель умеет отдавать аудио, обычно это оформляется через model-specific параметры (например, modalities или отдельные поля ответа). RouterAPI проксирует совместимые поля, но конкретный контракт зависит от upstream.
Что важно в описании
- явно писать, что аудио зависит от модели и upstream;
- отдельно отмечать формат входного файла;
- напоминать про лимиты размера и времени;
- указывать, что для некоторых моделей аудио может быть недоступно.
Нужен следующий раздел?
Откройте обзор, dashboard, мультимодальность или технические сценарии API.