Документация

API Reference

ProxAI полностью совместим с OpenAI API — те же endpoint-ы, те же параметры.

Подключение клиента

Для работы нужны только два параметра: Base URL и API Key.

Base URL
https://proxai.ru/v1
API Key

Зарегистрируйтесь, чтобы создать API-ключ. После регистрации ключ отображается один раз — сохраните его.

Как настроить в популярных инструментах

Cursor Settings → Models → OpenAI API Key + Base URL Override
Cline Settings → API Provider → "OpenAI Compatible" → Base URL + API Key
Continue.dev config.json → provider: "openai" → apiBase + apiKey
OpenAI SDK Передайте base_url и api_key в конструктор клиента (см. примеры кода ниже)
Любой HTTP-клиент Authorization: Bearer <ключ> + Content-Type: application/json
Важно: подключение работает только в инструментах, где можно явно задать свой Base URL. Если клиент жёстко зашит на api.openai.com — изменить это не получится.

Авторизация

Все запросы должны содержать заголовок:

bash
Authorization: Bearer sk-proxy-xxxxxxxxxxxxxxxx

Ключи создаются через регистрацию и раздел API Ключи. При отсутствии заголовка или неверном ключе API вернёт 401 Unauthorized.

POST /v1/chat/completions

Основной endpoint. Совместим с OpenAI Chat Completions API.

Если исходная модель временно недоступна, ProxAI может автоматически использовать fallback-маршрут, чтобы сохранить стабильность и не вернуть ошибку вашему серверу. Фактически использованная модель всегда приходит в usage.real_model, а точный порядок резервных моделей указан на странице моделей.

Параметры запроса

Параметр Тип Описание
model string required Alias модели. Например: gpt-4o, gpt-4.1-mini. Список — на странице моделей.
messages array required Массив сообщений. Каждый объект: {"role": "user"|"assistant"|"system", "content": "..."}.
stream boolean optional Включить SSE-стриминг. По умолчанию false.
temperature number optional Температура генерации от 0 до 2. По умолчанию зависит от модели.
max_tokens integer optional Максимальное число токенов в ответе.
top_p number optional Nucleus sampling. Альтернатива temperature.
stop string|string[] optional Стоп-последовательности.
n integer optional Число вариантов ответа. По умолчанию 1.

Параметры ответа

Поле Тип Описание
id string Уникальный ID запроса.
object string chat.completion
model string Alias модели, который был передан в запросе.
choices[].message.role string assistant
choices[].message.content string Текст ответа модели.
choices[].finish_reason string stop | length | tool_calls
usage.prompt_tokens integer Токены в запросе.
usage.completion_tokens integer Токены в ответе.
usage.total_tokens integer Сумма токенов.
usage.cost_credits float ⭐ Стоимость запроса в кредитах ProxAI.
usage.real_model string ⭐ Реально использованная модель: может отличаться из-за экономного режима или fallback при недоступности primary.

⭐ — поля, добавленные ProxAI сверх стандарта OpenAI.

Пример ответа

json
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "model": "gpt-4o",
  "choices": [{
    "index": 0,
    "message": { "role": "assistant", "content": "Привет! Чем могу помочь?" },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 12,
    "completion_tokens": 8,
    "total_tokens": 20,
    "cost_credits": 0.000042,
    "real_model": "deepseek/deepseek-chat"
  }
}

Примеры кода

curl https://proxai.ru/v1/chat/completions \
  -H "Authorization: Bearer sk-proxy-xxxxxxxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [{"role": "user", "content": "Привет!"}]
  }'
<?php
// Библиотека: openai-php/client — https://github.com/openai-php/client
// Установка:  composer require openai-php/client

$client = OpenAI::factory()
    ->withApiKey('sk-proxy-xxxxxxxx')
    ->withBaseUri('https://proxai.ru/v1')
    ->make();

$response = $client->chat()->create([
    'model'    => 'gpt-4o',
    'messages' => [['role' => 'user', 'content' => 'Привет!']],
]);

echo $response->choices[0]->message->content;
package main

import (
    "bytes"
    "encoding/json"
    "fmt"
    "io"
    "net/http"
)

func main() {
    body, _ := json.Marshal(map[string]any{
        "model":    "gpt-4o",
        "messages": []map[string]string{{"role": "user", "content": "Привет!"}},
    })
    req, _ := http.NewRequest("POST", "https://proxai.ru/v1/chat/completions", bytes.NewReader(body))
    req.Header.Set("Authorization", "Bearer sk-proxy-xxxxxxxx")
    req.Header.Set("Content-Type", "application/json")

    resp, _ := http.DefaultClient.Do(req)
    defer resp.Body.Close()
    data, _ := io.ReadAll(resp.Body)
    fmt.Println(string(data))
}
// Библиотека: openai — https://www.npmjs.com/package/openai
// Установка:  npm install openai
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey:  'sk-proxy-xxxxxxxx',
  baseURL: 'https://proxai.ru/v1',
});

const res = await client.chat.completions.create({
  model:    'gpt-4o',
  messages: [{ role: 'user', content: 'Привет!' }],
});
console.log(res.choices[0].message.content);
POST /v1/chat/completions stream: true

Потоковый ответ через Server-Sent Events (SSE). Добавьте stream: true в тело запроса.

Ответ приходит как поток событий text/event-stream. Каждое событие — строка вида data: {...}. Поток завершается строкой data: [DONE].

Перед [DONE] ProxAI отправляет финальный чанк с объектом usage, содержащим cost_credits и real_model.

Примеры кода

curl https://proxai.ru/v1/chat/completions \
  -H "Authorization: Bearer sk-proxy-xxxxxxxx" \
  -H "Content-Type: application/json" \
  --no-buffer \
  -d '{
    "model": "gpt-4o",
    "messages": [{"role": "user", "content": "Расскажи историю"}],
    "stream": true
  }'
<?php
// Библиотека: openai-php/client — https://github.com/openai-php/client
// Установка:  composer require openai-php/client

$client = OpenAI::factory()
    ->withApiKey('sk-proxy-xxxxxxxx')
    ->withBaseUri('https://proxai.ru/v1')
    ->make();

$stream = $client->chat()->createStreamed([
    'model'    => 'gpt-4o',
    'messages' => [['role' => 'user', 'content' => 'Расскажи историю']],
]);

foreach ($stream as $response) {
    echo $response->choices[0]->delta->content;
}
const stream = await client.chat.completions.create({
  model:    'gpt-4o',
  messages: [{ role: 'user', content: 'Расскажи историю' }],
  stream:   true,
});

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content ?? '');
}
POST /v1/embeddings

Создаёт векторное представление текста. Используйте для семантического поиска, RAG и кластеризации.

Параметры запроса

Параметр Тип Описание
input string|string[] required Текст или массив текстов для векторизации.
model string optional По умолчанию text-embedding-3-small.
encoding_format string optional float (по умолчанию) или base64.

Примеры кода

curl https://proxai.ru/v1/embeddings \
  -H "Authorization: Bearer sk-proxy-xxxxxxxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "text-embedding-3-small",
    "input": "Текст для векторизации"
  }'
<?php

$response = $client->embeddings()->create([
    'model' => 'text-embedding-3-small',
    'input' => 'Текст для векторизации',
]);

$vector = $response->embeddings[0]->embedding; // float[]
const res = await client.embeddings.create({
  model: 'text-embedding-3-small',
  input: 'Текст для векторизации',
});
const vector = res.data[0].embedding; // number[]
GET /v1/models

Список доступных алиасов в OpenAI-совместимом формате. Удобнее смотреть на странице моделей.

bash
curl https://proxai.ru/v1/models \
  -H "Authorization: Bearer sk-proxy-xxxxxxxx"

Коды ошибок

Тело ошибки всегда имеет вид: {"error": {"message": "...", "type": "...", "code": "..."}}

HTTP type / code Описание
401 invalid_api_key Неверный или отсутствующий API-ключ.
400 invalid_request_error Некорректный JSON, отсутствует model или messages.
402 insufficient_quota Недостаточно кредитов. Пополните баланс.
404 model_not_found Указанный alias модели не существует.
500 server_error Внутренняя ошибка ProxAI.
502 upstream_error Ошибка на стороне провайдера модели.