IDEA + Deepseek R1本地部署,实现AI编程写代码,Jetbrains全家桶

B站影视 2025-02-08 16:15 3

摘要:最近Deepseek这个AI大模型非常火爆,能力也非常强大,用它来写代码十分不错,但是在IDEA系列开发工具中,并没有Deepseek官方的插件,只能自己通过现有工具实现来集成Deepseek R1编程助手了。

最近Deepseek这个AI大模型非常火爆,能力也非常强大,用它来写代码十分不错,但是在IDEA系列开发工具中,并没有Deepseek官方的插件,只能自己通过现有工具实现来集成Deepseek R1编程助手了。

IDEA系列开发工具,即Jetbrains全家桶IDEAPyCharmWebstormGolandRiderRustRoverCLionPHPstormRubyMineDatagrip都是兼容此方法的。

关于IDEA系列工具使用AI编程助手,以及如何本地部署AI大模型此前已有发表过的文章,可以参考:

AMD显卡 Deepseek R1本地部署AI大模型教程

2025年 AI编程插件推荐,免费的国产代码生成工具,可否一战?

如何本地部署Deepseek R1大模型以及如何在IDEA系列工具中使用,方法如下:

下载安装LM-Studio软件,下载为https://lmstudio.ai/,当然也可以使用Ollama,不过Ollama没有可视化窗口界面,本文只讲最简单的方法,如果只是本地开发调用那么也推荐Ollama,因为它也是被同样被支持的。

具体安装方式可以查看上面的引用的文章链接,特别是AMD显卡,需要下载锐龙RyzenAI专用的版本。

在IDEA系列软件中,打开设置,打开插件,在插件市场搜索并下载安装CodeGPT插件。

本地部署完成Deepseek R1大模型,以及在插件中安装完成CodeGPT以后,就需要进行配置,使插件能调用大模型的服务,来实现AI编程的功能。

首先,在LM-Studio软件中,打开Developer选项卡菜单,然后点设置修改端口号,端口号可以改的大一些,但不能大于65535,只因小一些的端口号容易被Windows11系统保留占用,避免某次开机以后就不能启动。

修改端口号,并给所有选项切换为开启状态,然后在上方选项选择需要启动的大模型,然后点设置左边的启动按钮来启动api服务。

这里我选择Deepseek R1 14B的大模型,启动成功后的界面如下,此时会有一个本地HTTP后端已被启动,且api接口是和OpenAI一样的,只不过接口地址是本地,且不需要API Key。

点击已经启动的大模型的CURL按钮,可以获取请求所需要的信息。

可以把复制的CURL信息粘贴到一个代码或文本编辑器中,查看请求信息。

下一步就是在CodeGPT插件中进行配置,你需要记住CURL中的请求参数信息。打开IDEA系列工具的设置,在Tools选项里找到CodeGPT的设置选项,并在Provides找到Custom OpenAI选项,如前文所说,LM-Studio启动的api服务接口和OpenAI接口类似,所以可以当作OpenAI自定义接口地址来使用,如果你是使用Deepseek官方的API调用也是同样的方法,Deepseek官方的API接口格式也是和OpenAI一样,这样兼容OpenAI的工具也就可以被Deepseek兼容了。

在Chat Completions和Code Completions中,修改地址为本地localhost:自定义端口号。其它还有Body信息需要修改,此时需要查看刚才CURL命令复制下来的信息,修改model参数为复制的参数,还有temperature改为复制的参数,max_tokens也可以修改,其它不用修改。

配置完成以后,就可以使用IDEA工具来调用Deepseek R1大模型进行AI编程了。

在编程插件中,需要选择Custom OpenAI选项来调用自定义的API服务,可以选择代码,让Deepseek R1帮你干活了,比如优化代码,生成文档注释等。

当在IDEA中调用大模型服务时,LM-Studio那里会有正在生成的状态,说明已调用成功,但是本地电脑计算能力有限,速度很慢,或者大模型参数不高都会影响体验,没有必要的话还是使用免费的国产大模型官方插件替代,参考文章前面提到的链接。

来源:安浪

相关推荐