摘要:基石智算CoresHub 全面升级了模型推理服务!用户可在魔搭、huggingface 等下载模型到基石智算,通过模型推理服务进行一键部署推理服务,并对外提供 API 能力,也可经过基石智算的模型调优进行二次训练后再部署。
基石智算CoresHub 全面升级了模型推理服务!用户可在魔搭、huggingface 等下载模型到基石智算,通过模型推理服务进行一键部署推理服务,并对外提供 API 能力,也可经过基石智算的模型调优进行二次训练后再部署。
推理过程中可以根据业务的并发量,进行推理服务的弹性扩缩容,提高业务运行效率的同时,节省算力成本。
以下是通过模型推理服务一键部署模型的详细步骤,以魔搭下载的模型为例:
一、从魔搭下载模型到文件存储
1.创建存储目录。
2.创建一个用于传数据的无卡启动实例,挂载文件存储。
3.在 Web 连接窗口中输入如下命令:
4.查看魔搭中的“模型文件—模型下载—下载”命令,使用 Git 下载
在 Web 连接中继续执行以下步骤:
如果模型中有大文件,并且大文件下载失败,可以执行以下代码:
二、模型部署
1.到“模型管理”添加模型。
选择已下载的模型。
输入模型名称等信息,选择部署方式。
2.部署模型
选择部署方式,支持单节点和多节点部署。
选择资源类型。
部署成功后,点击服务 ID 即可查看服务信息、服务监控、服务日志。
3.支持扩容
当推理服务需要满足更高并发时,可以通过增加推理实例的数量,以满足业务的高并发需求。
假设 1 张 4090 可以满足 DeepSeek-R1-1.5B 最高 100 的并发数量,当业务并发超出 100,可以增加到 2 个 4090 的 1 卡实例进行模型部署。
三、模型调用
1.使用第三方客户端 Cherry Studio 调用为例,开启第三方工具,点击界面左下角的设置图标,选择模型服务 > 添加。
2.在弹出添加提供商窗口中,配置各项参数,点击确定。
3.新添加的提供商已显示在列,配置相应的 API 密钥和 API 路径,并点击管理,对应的密钥和 API 地址在服务信息中。
4.配置模型名称。
5.在 CherryStudio 平台,点击左侧导航栏中的聊天助手,在对话框的顶部,切换已添加至平台上的模型,即可对话。
来源:砍柴网