Claude code配置本地大模型编程(配置避坑指南)

B站影视 欧美电影 2025-09-02 06:29 1

摘要:{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS":

网上有很多的配置,都是缺这少那的,官方的文档也没有这一点,特意尝试了一下,按以下顺序处理绝无问题(win11的环境)。

一,先安装基础环境

1,nodejs/ollama/开源大模型

以上都用最新版本即可。

2,安装 Claude code和Claude-code-router

安装 Claude Code:

npm install -g @anthropic-ai/claude-code

然后,安装 Claude Code Router:

npm install -g @musistudio/claude-code-Router

唯一要注意的是,最好把nodejs升级到最新版本,官方说的18的版本,很有可能就无法运行Claude Code Router。

运行claude,出现以下表示成功。

运行ccr,出现以下表示成功。

想了解更多,可以参考以下官方文档。

Claude Code 概述 - Anthropic

GitHub - musistudio/claude-code-router: Use Claude Code as the foundation for coding infrastructure, allowing you to decide how to interact with the model while enjoying updates from Anthropic.

二,配置篇

1,找到你的个人目录中的.claude-code-router,创建一个config.json文件

复制以下内容到文件:

{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS": "600000","PROXY_URL": "","transformers": ,"Providers": [{"name": "ollama","api_base_url": "http://localhost:11434/v1/chat/completions","api_key": "ollama","models": ["qwen2.5-coder:14b","deepseek-r1:14b","deepseek-coder-v2:latest"]}],"StatusLine": {"enabled": false,"currentStyle": "default","default": {"modules": },"powerline": {"modules": }},"Router": {"default": "ollama,qwen2.5-coder:14b","background": "ollama,qwen2.5-coder:14b","think": "ollama,deepseek-r1:14b","longContext": "ollama,deepseek-r1:14b","longContextThreshold": 60000,"webSearch": "ollama,deepseek-r1:14b"}}

2,启动ccr ui

由于每个人下载的大模型不一样,通过界面来更改配置,可以用 ollama list来查看你本地的大模型。

通过上上图中的编辑图标,来配置你的本地大模型:

保存后再在右边的区域配置好你的本地大模型:

一定要保存并重启,如果claude code已经启动,请先退出来。

三,运行:

1,运行 ccr start

2,运行ccr status

最关键的这一步,如果不是显示以下状态,很有可能就是你的nodejs的版本太低造成的。用最新lts版本即可。

3,运行 ccr code,出现以下就大功告成。

四,加料篇-用modelscope的每天2000次的在线大模型。

ModelScope 魔搭社区

config.json的配置如下:

{"LOG": true,"LOG_LEVEL": "debug","CLAUDE_PATH": "","HOST": "127.0.0.1","PORT": 3456,"APIKEY": "your-secret-key","API_TIMEOUT_MS": "600000","PROXY_URL": "","transformers": ,"Providers": [{"name": "modelscope","api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions","api_key": "ms-填上你的访问令牌","models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct","Qwen/Qwen3-235B-A22B-Thinking-2507","ZhipuAI/GLM-4.5"],"transformer": {"use": [["maxtoken",{"max_tokens": 65536}]],"Qwen/Qwen3-Coder-480B-A35B-Instruct": {"use": ["enhancetool"]},"Qwen/Qwen3-235B-A22B-Thinking-2507": {"use": ["reasoning"]}}},{"name": "ollama","api_base_url": "http://localhost:11434/v1/chat/completions","api_key": "ollama","models": ["qwen2.5-coder:14b","deepseek-r1:14b","deepseek-coder-v2:latest"]}],"StatusLine": {"enabled": false,"currentStyle": "default","default": {"modules": },"powerline": {"modules": }},"Router": {"default": "ollama,qwen2.5-coder:14b","background": "ollama,qwen2.5-coder:14b","think": "ollama,deepseek-r1:14b","longContext": "ollama,deepseek-r1:14b","longContextThreshold": 60000,"webSearch": "ollama,deepseek-r1:14b"}}

找到你自已的访问令牌

再用ccr ui进行配置:

执行效果如下(ccr code):

总结:

1,nodejs必须是用最新的lts的版本,我的开发环境由于之前用了nodejs18的版本,导致代理的ccr status总是失败;包括启动ccr code时也是提示失败;

2,claude-code-router的官方配置文件,都是基于在线的大模型的,我一开始用他的不行,找了各种资料也是不行,最后一一调整才整理出来上面这份有效的配置。

本文章最有价值的就是上面两个配置文件,帮你避坑(请收藏)。

来源:企业HR数字化&AI

相关推荐