Документация
API Reference
ProxAI полностью совместим с OpenAI API — те же endpoint-ы, те же параметры.
Где взять ключ, куда вставить Base URL, как проверить что работает.
Перейти →Endpoint-ы, параметры запроса/ответа, авторизация, примеры на bash/PHP/Go/JS.
Перейти →Подключение клиента
Для работы нужны только два параметра: Base URL и API Key.
https://proxai.ru/v1
Зарегистрируйтесь, чтобы создать API-ключ. После регистрации ключ отображается один раз — сохраните его.
Как настроить в популярных инструментах
Авторизация
Все запросы должны содержать заголовок:
Authorization: Bearer sk-proxy-xxxxxxxxxxxxxxxx
Ключи создаются через регистрацию и раздел API Ключи.
При отсутствии заголовка или неверном ключе API вернёт 401 Unauthorized.
/v1/chat/completions
Основной endpoint. Совместим с OpenAI Chat Completions API.
usage.real_model, а точный порядок резервных моделей указан на странице моделей.
Параметры запроса
| Параметр | Тип | Описание | |
|---|---|---|---|
model |
string | required | Alias модели. Например: gpt-4o, gpt-4.1-mini. Список — на странице моделей. |
messages |
array | required | Массив сообщений. Каждый объект: {"role": "user"|"assistant"|"system", "content": "..."}. |
stream |
boolean | optional | Включить SSE-стриминг. По умолчанию false. |
temperature |
number | optional | Температура генерации от 0 до 2. По умолчанию зависит от модели. |
max_tokens |
integer | optional | Максимальное число токенов в ответе. |
top_p |
number | optional | Nucleus sampling. Альтернатива temperature. |
stop |
string|string[] | optional | Стоп-последовательности. |
n |
integer | optional | Число вариантов ответа. По умолчанию 1. |
Параметры ответа
| Поле | Тип | Описание |
|---|---|---|
id |
string | Уникальный ID запроса. |
object |
string | chat.completion |
model |
string | Alias модели, который был передан в запросе. |
choices[].message.role |
string | assistant |
choices[].message.content |
string | Текст ответа модели. |
choices[].finish_reason |
string | stop | length | tool_calls |
usage.prompt_tokens |
integer | Токены в запросе. |
usage.completion_tokens |
integer | Токены в ответе. |
usage.total_tokens |
integer | Сумма токенов. |
usage.cost_credits |
float | ⭐ Стоимость запроса в кредитах ProxAI. |
usage.real_model |
string | ⭐ Реально использованная модель: может отличаться из-за экономного режима или fallback при недоступности primary. |
⭐ — поля, добавленные ProxAI сверх стандарта OpenAI.
Пример ответа
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"model": "gpt-4o",
"choices": [{
"index": 0,
"message": { "role": "assistant", "content": "Привет! Чем могу помочь?" },
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 8,
"total_tokens": 20,
"cost_credits": 0.000042,
"real_model": "deepseek/deepseek-chat"
}
}
Примеры кода
curl https://proxai.ru/v1/chat/completions \
-H "Authorization: Bearer sk-proxy-xxxxxxxx" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "Привет!"}]
}'
<?php
// Библиотека: openai-php/client — https://github.com/openai-php/client
// Установка: composer require openai-php/client
$client = OpenAI::factory()
->withApiKey('sk-proxy-xxxxxxxx')
->withBaseUri('https://proxai.ru/v1')
->make();
$response = $client->chat()->create([
'model' => 'gpt-4o',
'messages' => [['role' => 'user', 'content' => 'Привет!']],
]);
echo $response->choices[0]->message->content;
package main
import (
"bytes"
"encoding/json"
"fmt"
"io"
"net/http"
)
func main() {
body, _ := json.Marshal(map[string]any{
"model": "gpt-4o",
"messages": []map[string]string{{"role": "user", "content": "Привет!"}},
})
req, _ := http.NewRequest("POST", "https://proxai.ru/v1/chat/completions", bytes.NewReader(body))
req.Header.Set("Authorization", "Bearer sk-proxy-xxxxxxxx")
req.Header.Set("Content-Type", "application/json")
resp, _ := http.DefaultClient.Do(req)
defer resp.Body.Close()
data, _ := io.ReadAll(resp.Body)
fmt.Println(string(data))
}
// Библиотека: openai — https://www.npmjs.com/package/openai
// Установка: npm install openai
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-proxy-xxxxxxxx',
baseURL: 'https://proxai.ru/v1',
});
const res = await client.chat.completions.create({
model: 'gpt-4o',
messages: [{ role: 'user', content: 'Привет!' }],
});
console.log(res.choices[0].message.content);
/v1/chat/completions
stream: true
Потоковый ответ через Server-Sent Events (SSE). Добавьте stream: true в тело запроса.
Ответ приходит как поток событий text/event-stream. Каждое событие — строка вида data: {...}. Поток завершается строкой data: [DONE].
Перед [DONE] ProxAI отправляет финальный чанк с объектом usage, содержащим cost_credits и real_model.
Примеры кода
curl https://proxai.ru/v1/chat/completions \
-H "Authorization: Bearer sk-proxy-xxxxxxxx" \
-H "Content-Type: application/json" \
--no-buffer \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "Расскажи историю"}],
"stream": true
}'
<?php
// Библиотека: openai-php/client — https://github.com/openai-php/client
// Установка: composer require openai-php/client
$client = OpenAI::factory()
->withApiKey('sk-proxy-xxxxxxxx')
->withBaseUri('https://proxai.ru/v1')
->make();
$stream = $client->chat()->createStreamed([
'model' => 'gpt-4o',
'messages' => [['role' => 'user', 'content' => 'Расскажи историю']],
]);
foreach ($stream as $response) {
echo $response->choices[0]->delta->content;
}
const stream = await client.chat.completions.create({
model: 'gpt-4o',
messages: [{ role: 'user', content: 'Расскажи историю' }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content ?? '');
}
/v1/embeddings
Создаёт векторное представление текста. Используйте для семантического поиска, RAG и кластеризации.
Параметры запроса
| Параметр | Тип | Описание | |
|---|---|---|---|
input |
string|string[] | required | Текст или массив текстов для векторизации. |
model |
string | optional | По умолчанию text-embedding-3-small. |
encoding_format |
string | optional | float (по умолчанию) или base64. |
Примеры кода
curl https://proxai.ru/v1/embeddings \
-H "Authorization: Bearer sk-proxy-xxxxxxxx" \
-H "Content-Type: application/json" \
-d '{
"model": "text-embedding-3-small",
"input": "Текст для векторизации"
}'
<?php
$response = $client->embeddings()->create([
'model' => 'text-embedding-3-small',
'input' => 'Текст для векторизации',
]);
$vector = $response->embeddings[0]->embedding; // float[]
const res = await client.embeddings.create({
model: 'text-embedding-3-small',
input: 'Текст для векторизации',
});
const vector = res.data[0].embedding; // number[]
/v1/models
Список доступных алиасов в OpenAI-совместимом формате. Удобнее смотреть на странице моделей.
curl https://proxai.ru/v1/models \
-H "Authorization: Bearer sk-proxy-xxxxxxxx"
Коды ошибок
Тело ошибки всегда имеет вид: {"error": {"message": "...", "type": "...", "code": "..."}}
| HTTP | type / code | Описание |
|---|---|---|
| 401 | invalid_api_key |
Неверный или отсутствующий API-ключ. |
| 400 | invalid_request_error |
Некорректный JSON, отсутствует model или messages. |
| 402 | insufficient_quota |
Недостаточно кредитов. Пополните баланс. |
| 404 | model_not_found |
Указанный alias модели не существует. |
| 500 | server_error |
Внутренняя ошибка ProxAI. |
| 502 | upstream_error |
Ошибка на стороне провайдера модели. |