Skip to content

Codex CLI 接入说明

这一页只保留命令行接入所需的核心信息,方便你把 AI-NEXT 作为 OpenAI 兼容接口快速接起来。

接入前先准备

  • 一个可用的 API Key
  • 一条可访问的 /v1 接口地址
  • 一个默认使用的模型,例如 gpt-5.4

1. 先确认令牌可用

在管理后台创建好 API Key 后,先把下面几项一起检查掉:

  • 令牌所在账号处于启用状态
  • 当前账号具备对应分组或渠道权限
  • 目标模型已经在后台完成映射
  • 令牌本身还有可用额度,并允许访问该模型

2. 确认接口地址

如果你已经配置了独立 API 域名,优先使用这个域名下的 OpenAI 兼容入口。

参考格式:

text
https://api.ai-next.top/v1

如果你的实际部署域名不同,只需要把域名部分替换成你自己的地址。

3. 配置环境变量

大部分命令行客户端都兼容 OpenAI 风格的环境变量,可以先按下面的方式设置:

bash
export OPENAI_API_KEY="你的_API_Key"
export OPENAI_BASE_URL="https://api.ai-next.top/v1"
export OPENAI_MODEL="gpt-5.4"

如果某个客户端不读取 OPENAI_MODEL,就在它自己的配置项里单独填写模型名称。

4. 发送一条最小请求

建议先做一次最小化调用,确认地址、令牌和模型都已经生效:

bash
curl "$OPENAI_BASE_URL/chat/completions" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -d '{
    "model": "'"$OPENAI_MODEL"'",
    "messages": [
      {
        "role": "user",
        "content": "请简单介绍一下你自己"
      }
    ]
  }'

常见排查

出现 401 或 403

先检查 API Key 是否完整无误,再确认当前账号是否拥有目标模型的调用权限。

提示模型不存在

通常优先排查这两项:

  • 客户端里填写的模型名是否与后台映射一致
  • 当前分组是否开放了该模型

请求能通,但结果不符合预期

这类情况大多和模型名填写错误、命中了别名模型,或客户端附带了额外默认参数有关。