摘要:{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS":
网上有很多的配置,都是缺这少那的,官方的文档也没有这一点,特意尝试了一下,按以下顺序处理绝无问题(win11的环境)。
一,先安装基础环境
1,nodejs/ollama/开源大模型
以上都用最新版本即可。
2,安装 Claude code和Claude-code-router
安装 Claude Code:
npm install -g @anthropic-ai/claude-code然后,安装 Claude Code Router:
npm install -g @musistudio/claude-code-Router唯一要注意的是,最好把nodejs升级到最新版本,官方说的18的版本,很有可能就无法运行Claude Code Router。
运行claude,出现以下表示成功。
运行ccr,出现以下表示成功。
想了解更多,可以参考以下官方文档。
Claude Code 概述 - Anthropic
GitHub - musistudio/claude-code-router: Use Claude Code as the foundation for coding infrastructure, allowing you to decide how to interact with the model while enjoying updates from Anthropic.
二,配置篇
1,找到你的个人目录中的.claude-code-router,创建一个config.json文件
复制以下内容到文件:
{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS": "600000","PROXY_URL": "","transformers": ,"Providers": [{"name": "ollama","api_base_url": "http://localhost:11434/v1/chat/completions","api_key": "ollama","models": ["qwen2.5-coder:14b","deepseek-r1:14b","deepseek-coder-v2:latest"]}],"StatusLine": {"enabled": false,"currentStyle": "default","default": {"modules": },"powerline": {"modules": }},"Router": {"default": "ollama,qwen2.5-coder:14b","background": "ollama,qwen2.5-coder:14b","think": "ollama,deepseek-r1:14b","longContext": "ollama,deepseek-r1:14b","longContextThreshold": 60000,"webSearch": "ollama,deepseek-r1:14b"}}2,启动ccr ui
由于每个人下载的大模型不一样,通过界面来更改配置,可以用 ollama list来查看你本地的大模型。
通过上上图中的编辑图标,来配置你的本地大模型:
保存后再在右边的区域配置好你的本地大模型:
一定要保存并重启,如果claude code已经启动,请先退出来。
三,运行:
1,运行 ccr start
2,运行ccr status
最关键的这一步,如果不是显示以下状态,很有可能就是你的nodejs的版本太低造成的。用最新lts版本即可。
3,运行 ccr code,出现以下就大功告成。
四,加料篇-用modelscope的每天2000次的在线大模型。
ModelScope 魔搭社区
config.json的配置如下:
{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS": "600000","PROXY_URL": "","transformers": ,"Providers": [{"name": "modelscope","api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions","api_key": "ms-填上你的访问令牌","models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct","Qwen/Qwen3-235B-A22B-Thinking-2507","ZhipuAI/GLM-4.5"],"transformer": {"use": [["maxtoken",{"max_tokens": 65536}]],"Qwen/Qwen3-Coder-480B-A35B-Instruct": {"use": ["enhancetool"]},"Qwen/Qwen3-235B-A22B-Thinking-2507": {"use": ["reasoning"]}}},{"name": "ollama","api_base_url": "http://localhost:11434/v1/chat/completions","api_key": "ollama","models": ["qwen2.5-coder:14b","deepseek-r1:14b","deepseek-coder-v2:latest"]}],"StatusLine": {"enabled": false,"currentStyle": "default","default": {"modules": },"powerline": {"modules": }},"Router": {"default": "ollama,qwen2.5-coder:14b","background": "ollama,qwen2.5-coder:14b","think": "ollama,deepseek-r1:14b","longContext": "ollama,deepseek-r1:14b","longContextThreshold": 60000,"webSearch": "ollama,deepseek-r1:14b"}}找到你自已的访问令牌
再用ccr ui进行配置:
执行效果如下(ccr code):
总结:
1,nodejs必须是用最新的lts的版本,我的开发环境由于之前用了nodejs18的版本,导致代理的ccr status总是失败;包括启动ccr code时也是提示失败;
2,claude-code-router的官方配置文件,都是基于在线的大模型的,我一开始用他的不行,找了各种资料也是不行,最后一一调整才整理出来上面这份有效的配置。
本文章最有价值的就是上面两个配置文件,帮你避坑(请收藏)。
来源:企业HR数字化&AI