跳转到主要内容
n8n 适合把 LLM 调用接进自动化流程、Agent 节点、审批流和业务系统集成。对接 Crazyrouter 时,推荐先用 n8n 的 OpenAI 凭证路径把一个最小工作流跑通,再决定是否切换到更灵活的 HTTP Request 节点。

概览

通过 n8n 的 OpenAI 凭证或 AI 节点,你可以把工作流中的模型请求转到 Crazyrouter:
  • 推荐协议:OpenAI-compatible API
  • 推荐接法:n8n OpenAI API credential + 节点级 Base URL
  • Base URL:https://crazyrouter.com/v1
  • 认证方式:sk-... token
  • 推荐首次验证模型:gpt-5.4
如果你的某些节点不支持所需参数或最新模型特性,再回退到 HTTP Request 节点直接调 Crazyrouter 接口。

适合谁用

  • 想把 AI 接进自动化工作流的人
  • 想做表单、数据库、审批、Webhook 和模型联动的人
  • 想用 AI Agent 节点编排工具调用的人
  • 想通过可视化方式把 Crazyrouter 接进内部业务流程的人

使用协议

推荐协议:OpenAI-compatible API 在 n8n 中对接 Crazyrouter 时,推荐填写:
https://crazyrouter.com/v1
不要填成:
  • https://crazyrouter.com
  • https://crazyrouter.com/v1/chat/completions

前置条件

项目说明
Crazyrouter 账号先在 crazyrouter.com 注册
Crazyrouter token建议为 n8n 单独创建一个 sk-... token
n8n建议使用当前稳定版,并确认 AI 节点可用
可用模型至少放行一个当天已实测成功的聊天模型,如 gpt-5.4
推荐首批白名单:
  • gpt-5.4
  • claude-sonnet-4-6
  • gemini-3-pro-preview
  • text-embedding-3-large(如果你会用向量或检索相关节点)

5 分钟快速开始

1

创建 n8n 专用 token

在 Crazyrouter 后台创建一个名为 n8n 的 token。首次建议只开放 gpt-5.4claude-sonnet-4-6
2

添加 OpenAI 凭证

在 n8n 中进入 SettingsCredentialsAdd Credential,选择 OpenAI API 或你当前版本对应的 OpenAI 凭证类型。
3

填写凭证和节点信息

先在凭证中填写:
  • API Key: 你的 sk-...
然后在 OpenAIOpenAI Chat Model 或相关 AI 节点的 Options 中设置:
  • Base URL: https://crazyrouter.com/v1
4

创建最小工作流

新建一个工作流,使用:Manual TriggerOpenAI Chat ModelOutput,模型先填 gpt-5.4
5

完成首次验证

OpenAI Chat Model 节点里给一个简单输入,例如 Reply only OK,手动执行工作流。成功返回后,再继续配置 AI Agent 或复杂流程。

最小工作流示例

OpenAI Chat Model 节点

{
  "node": "OpenAI Chat Model",
  "parameters": {
    "model": "gpt-5.4",
    "messages": [
      { "role": "user", "content": "{{ $json.input }}" }
    ]
  }
}

AI Agent 工作流

推荐先从最简单的链路开始:
  1. Manual Trigger
  2. AI Agent
  3. Output
AI Agent 中选择刚创建的 Crazyrouter 凭证,并先只挂一个简单工具节点,避免把模型问题和工具问题混在一起。

HTTP Request 回退方案

如果你需要:
  • 某个 n8n AI 节点暂时不支持的新参数
  • 更灵活的请求体控制
  • 更明确地调试 headers、body、stream 参数
可以直接用 HTTP Request 节点调用 Crazyrouter:
Method: POST
URL: https://crazyrouter.com/v1/chat/completions
Headers:
  Authorization: Bearer sk-xxx
  Content-Type: application/json
Body:
  {
    "model": "gpt-5.4",
    "messages": [
      {"role": "user", "content": "{{ $json.input }}"}
    ]
  }
推荐顺序是:先用 OpenAI 凭证 + 原生 AI 节点跑通;只有在节点能力不够时,再切到 HTTP Request
不同 n8n 版本里,Base URL 可能出现在凭证页,也可能出现在具体的 OpenAI / Chat Model 节点 Options 里。当前官方文档更明确提到的是节点级 Base URL 覆盖项,所以接 Crazyrouter 时优先按“凭证填 Key、节点填 Base URL”的思路配置。

推荐模型配置

使用场景推荐模型原因
默认工作流模型gpt-5.4当天已实测成功,适合作为 n8n 主基线
高质量复杂 Agent 场景claude-sonnet-4-6适合更复杂解释和长文本任务
Gemini 备用档gemini-3-pro-preview适合补充第二条兼容性验证路径
检索 / 向量相关text-embedding-3-large适合后续做向量处理或检索增强
推荐顺序:先用 gpt-5.4 跑通最小工作流,再扩展到 Agent、工具和批量任务。

Token 设置最佳实践

设置建议说明
专用 token必须n8n 不要和聊天前端、CLI 或 SDK 示例共用 token
模型白名单强烈建议只放行工作流真正会用到的模型
IP 限制固定服务器出口建议开启本地调试、云端混用时谨慎使用
配额上限强烈建议自动化任务可能因为重试、循环、批处理快速消耗额度
环境隔离必须开发、测试、生产工作流使用不同 token
节点分级建议高频任务用低成本模型,关键任务再切高性能模型

验证清单

  • OpenAI API 凭证已成功保存
  • 节点级 Base URL 已设置为 https://crazyrouter.com/v1
  • OpenAI Chat Model 节点可正常执行
  • 第一个最小工作流成功返回
  • 如需 Agent,AI Agent 节点也能正常调用模型
  • Crazyrouter 后台日志能看到对应请求
  • token 配额和模型白名单符合预期
  • 开发 / 测试 / 生产工作流已做 token 隔离

常见错误与修复

现象常见原因修复方式
凭证测试失败API Key 错误,或把 Base URL 配置位置填错重新检查 sk-...,并确认 Base URL 填在你的版本实际支持的位置
401 unauthorizedtoken 失效、被删或复制带空格重新生成 token 并替换
403 / model not allowed节点中用到的模型不在白名单里在 Crazyrouter 后台放行对应模型
404Base URL 填成根域名或完整接口路径改成 https://crazyrouter.com/v1
工作流不停重试,成本快速增长节点错误后自动重试、循环配置不当限制重试次数,拆分工作流并设置额度
AI Agent 能启动但工具调用不稳定不是凭证问题,而是工具链路太复杂先只保留一个简单工具节点做验证
原生 AI 节点缺少某些参数n8n 节点封装暂未覆盖该特性改用 HTTP Request 节点直接调用 Crazyrouter
批处理任务性能不稳模型能力与节点封装不匹配先回到 gpt-5.4 做最小链路验证,再扩展其他模型

性能与成本建议

  • 自动化任务默认先用 gpt-5.4 做基线
  • 对循环、批量、定时任务设置更严格的额度与错误告警
  • 把生产工作流和调试工作流拆成不同 token
  • AI Agent 先少工具、短链路验证,稳定后再扩展复杂编排
  • 发现费用异常时,先看 Crazyrouter 日志和 n8n 执行历史,确认是不是重试或循环造成

FAQ

n8n 里应该填哪个 Base URL?

https://crazyrouter.com/v1

Base URL 应该填在凭证里还是节点里?

优先看你当前 n8n 版本的界面。当前官方文档更明确提到的是节点级 Base URL 选项;如果你的凭证页也支持填写,填在那里也可以,但第一次配置建议以节点级设置为准。

我应该先用原生 AI 节点还是 HTTP Request?

先用原生 OpenAI 凭证和 AI 节点;只有在参数不够或要深度调试时再切到 HTTP Request

第一个推荐模型是什么?

先用 gpt-5.4

为什么工作流费用突然变高?

通常不是单次请求本身,而是循环、批处理、自动重试或多人共用工作流触发造成。

n8n 一定要拆多个 token 吗?

强烈建议至少把开发和生产分开;高频任务最好再单独拆分。
n8n 接入 Crazyrouter 后,价值不只是“能调模型”,而是能把模型放进自动化链路里。因此最关键的不是单次对话能否成功,而是要同时控制重试、循环、批量执行和 token 配额。