Codex CLI 接入说明
这一页只保留命令行接入所需的核心信息,方便你把 AI-NEXT 作为 OpenAI 兼容接口快速接起来。
接入前先准备
- 一个可用的 API Key
- 一条可访问的
/v1接口地址 - 一个默认使用的模型,例如
gpt-5.4
1. 先确认令牌可用
在管理后台创建好 API Key 后,先把下面几项一起检查掉:
- 令牌所在账号处于启用状态
- 当前账号具备对应分组或渠道权限
- 目标模型已经在后台完成映射
- 令牌本身还有可用额度,并允许访问该模型
2. 确认接口地址
如果你已经配置了独立 API 域名,优先使用这个域名下的 OpenAI 兼容入口。
参考格式:
text
https://api.ai-next.top/v1如果你的实际部署域名不同,只需要把域名部分替换成你自己的地址。
3. 配置环境变量
大部分命令行客户端都兼容 OpenAI 风格的环境变量,可以先按下面的方式设置:
bash
export OPENAI_API_KEY="你的_API_Key"
export OPENAI_BASE_URL="https://api.ai-next.top/v1"
export OPENAI_MODEL="gpt-5.4"如果某个客户端不读取 OPENAI_MODEL,就在它自己的配置项里单独填写模型名称。
4. 发送一条最小请求
建议先做一次最小化调用,确认地址、令牌和模型都已经生效:
bash
curl "$OPENAI_BASE_URL/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"model": "'"$OPENAI_MODEL"'",
"messages": [
{
"role": "user",
"content": "请简单介绍一下你自己"
}
]
}'常见排查
出现 401 或 403
先检查 API Key 是否完整无误,再确认当前账号是否拥有目标模型的调用权限。
提示模型不存在
通常优先排查这两项:
- 客户端里填写的模型名是否与后台映射一致
- 当前分组是否开放了该模型
请求能通,但结果不符合预期
这类情况大多和模型名填写错误、命中了别名模型,或客户端附带了额外默认参数有关。