摘要:首页点击“Download”,到了跳转页再次点击“Download”,如下图:
本地部署能保证数据的私密性,解决deepseek在线提问服务器繁忙问题
2. 首页点击“Download”,到了跳转页再次点击“Download”,如下图:
3. 下载完成后,直接点击安装即可(默认装在C盘)
二、确认ollama是否安装成功
1. 快捷键win+R打开运行窗口,输入“cmd”并回车,启动命令提示符窗口;
2. 输入“ollama help”,并按回车键,确认是否安装成功。
三、继续回到ollama官网,安装大模型到本地
1. 选择所需要的大模型并下载;
2. 在命令提示符窗口输入,直接复制的模块名称如:ollama run deepseek-r1:7b
3. 会有进度条展示,耐心等待下载即可,最后出现success则表示安装成功;
4. 在命令提示符窗口下确认,本地模型能否正常使用
四、下载chatbox,实现可视化的客户端操作
1. 下载安装Chatbox,地址:https://chatboxai.app/zh
2. 下载安装后,打开Chatbox,点击设置,选择OLLAMA API,模型选择安装好的deepseek r1模块就行了,最后点击保存;
3. 部署完成,就可以开始正常使用聊天了。
来源:醒语
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!