Войти
OpenAI-формат взаимодействия с LLM через GenAPI доступен по специальному поддомену, отличному от основного:
https://proxy.gen-api.ru
На нём доступен основной эндопинт /v1/chat/completions
https://proxy.gen-api.ru/v1/chat/completions
Авторизация запросов производится с помощью Bearer токена (вашего API-ключа, созданного на сайте GenAPI) абсолютно аналогично, как и для всего остального нашего функционала. Подробно описано в разделе Авторизация.
Указание конкретной модели, к которой идёт запрос, осуществляется через параметр model. Параметр model берётся из id нейросети.

У некоторых нейросетей есть различные подверсии, например, у Claude есть Haiku, Sonnet или Opus, порой ещё и от разных дат. Чтобы выбрать конкретную, нужно выбрать нужное значение из поля model на странице нейросети

В зависимости от того, какую модель вы хотите использовать, значение поля model может быть либо общим идентификатором нейросети, либо точным названием подверсии.
В этом случае в параметре model передаётся идентификатор нейросети с сайта GenAPI (например, gpt-4). Запрос будет обработан одной из доступных подверсий модели (обычно базовой или наиболее свежей).
Если нейросеть имеет несколько подверсий (например, gpt-4-turbo, gpt-4-32k), можно указать точное имя подверсии — ключ модели, который также отображается на сайте GenAPI.
Само тело запроса в нейросеть полностью соответствует стандартам OpenAI-формата, то есть то, как формируется тело запроса вы можете ознакомиться в документации OpenAI и прочих провайдеров. Тем не менее, здесь мы также пропишем основные возможности.
Базовая структура запроса в OpenAI-формате:
Изображения передаются в массиве content через image_url (base64 или URL):
Можно передавать несколько изображений в одном запросе:
Инструменты позволяют модели вызывать внешние функции. Опишите функции в параметре tools:
Модель вернёт вызов инструмента в поле tool_calls:
Включите stream: true для получения ответа по частям:
Сервер отправляет данные в формате SSE:
Для моделей с поддержкой мышления (o1, o3) используйте параметр reasoning_effort (low, medium, high):
Токены мышления учитываются в общем потреблении. Чем выше reasoning_effort, тем больше токенов используется.
Пример запроса, объединяющего все возможности OpenAI-формата: vision, tools, stream и reasoning:
В этом примере:
vision — анализ изображения в сообщенииtools — инструменты для получения данныхstream: true — потоковая передача ответаreasoning_effort — расширенное мышление модели