Amux
文本OpenAI 格式

Completions(旧版)

基于 prompt 的文本补全接口 — OpenAI 早期文本补全 API,仍保留兼容

OpenAI 早期的 文本补全(Text Completions) 接口,基于单个 prompt 字段生成补全文本。新项目建议使用 Chat CompletionsResponses 以获得更好的多轮、工具调用支持。

项目
请求方法POST
请求路径/v1/completions
完整 URLhttps://api.amux.ai/v1/completions
认证方式Authorization: Bearer <API_TOKEN>
请求格式application/json
响应格式JSON 或 SSE(stream=true 时)

本接口为旧版协议,部分新模型不再支持。请优先使用 Chat CompletionsResponses

请求体参数

Prop

Type

透传策略:amux-api 对 /v1/completions/v1/chat/completions 共用同一套请求 DTO。未在上方列出的字段(如 seedresponse_format 等)会原样透传到上游,但旧版补全模型可能并不支持这些参数。

请求示例

curl https://api.amux.ai/v1/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $AMUX_API_KEY" \
  -d '{
    "model": "gpt-3.5-turbo-instruct",
    "prompt": "用一句话介绍 Amux API:",
    "max_tokens": 64
  }'
import os
from openai import OpenAI

client = OpenAI(
    base_url="https://api.amux.ai/v1",
    api_key=os.environ["AMUX_API_KEY"],
)

response = client.completions.create(
    model="gpt-3.5-turbo-instruct",
    prompt="用一句话介绍 Amux API:",
    max_tokens=64,
)

print(response.choices[0].text)
import OpenAI from 'openai';

const client = new OpenAI({
  baseURL: 'https://api.amux.ai/v1',
  apiKey: process.env.AMUX_API_KEY,
});

const response = await client.completions.create({
  model: 'gpt-3.5-turbo-instruct',
  prompt: '用一句话介绍 Amux API:',
  max_tokens: 64,
});

console.log(response.choices[0].text);

响应示例

{
  "id": "cmpl-xxx",
  "object": "text_completion",
  "created": 1730000000,
  "model": "gpt-3.5-turbo-instruct",
  "choices": [
    {
      "text": "Amux API 是一个统一、稳定的企业级大模型接口网关。",
      "index": 0,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 18,
    "total_tokens": 34
  }
}

响应字段

Prop

Type

Choice 字段

Prop

Type

错误响应

错误响应结构与 Chat Completions 一致。

On this page