21张图表实操详解DeepSeek在医院本地部署和三类典型应用要诀!

B站影视 电影资讯 2025-03-16 18:10 1

摘要:在诸多的AI模型中,国产开源大模型DeepSeek异军突起引发全球关注。在3月3日-3月9日的AI相关前10搜索热词中,DeepSeek以绝对优势位居第一、并在前5中联占3个席位!

以新质生产力引领,赋能高质量发展,这是2025年各行各业的主旋律,医疗行业更是如此。

AI+医疗,无疑是各家医院最为关注的新质生产力。在中国政府采购网上检索可以发现,仅今年3月1日以来,全国就有16条医院政采AI的公告

在诸多的AI模型中,国产开源大模型DeepSeek异军突起引发全球关注。在3月3日-3月9日的AI相关前10搜索热词中,DeepSeek以绝对优势位居第一、并在前5中联占3个席位!

所以,医院管理界如今互相交流更多的是:DeepSeek你们本地部署了吗?DeepSeek用得怎么样?

鉴于全国无数医院对DeekSeek部署的迫切需求、医院的多模态AI融合应用人才严重稀缺等现状,仲崇海老师近期组织了医院AI专项团队展开了相关研究。

仅DeepSeek的单机版部署是极其简单的,只需要从相关官网安装Ollama和ChatBox(其官方网址分别是https://ollama.com和https://chatboxai.app,当然也有其他软件可以选择),而且无须任何费用,就可以实现本机脱网状态下的AI对话。

在Ollama的官网首页,点击DeepSeek-R1,可以看到有多个DeepSeek版本,本着测试宜简单高效的原则,我们测试了7b版(有兴趣的医生朋友们如果电脑没有独显,建议选择1.5b)

Ollama下载安装后,打开windows的CMD窗口,输入 Ollama run deepseek-r1:7b,就可以进行下载和安装DeepSeek了。

安装完在CMD界面是可以直接对话的,在“>>>”之后输入中文问题,即可输出思考过程和回答。为了增强对话功能,建议再嵌入nomic-embed-text模型。

此时,要在对话界面输入“/bye”以退出Deepseek对话,然后输入:ollama pull nomic-embed-text,如下图:

虽然CMD界面可以直接对话,但毕竟不够高大上,考虑到界面友好性,建议安装ChatBox,安装后简单设置,即可以在更符合大家常见的窗口模式进行对话。

以上是单机应用模式,为便于广大医生朋友们也能自己动手部署,故写得稍偏详细。

如果是医院信息科本地化部署配置后,给医院内网众多工作站使用,则需要另外安装相关软件。以下相关软件的评估仅供参考:

LM Studio为例,图形化界面可以进行很多细节设置,下图为模型调用中的一个设置界面:

以上简单介绍了DeepSeek的本地化部署基础操作,那么医院现在适合进行本地化部署了吗?

答案是否定的!

医院要进行DeepSeek的本地化部署,首先需要明确的是:计划让DeepSeek具体干什么?预约问诊、电子病历辅助、决策辅助、诊断辅助、论文辅助、真实世界研究等等不同的需求,不仅对于DeepSeek版本和配套软件/模型/库要求不同,更关键的是对预算支撑更有要求。

仲崇海老师向ChatGPT-o1、Claude 3.7 Sonnet、DeepSeek-R1分别问了以下同样的问题:

请粗略评估一下,一家拥有500名在院患者的医院,如果将AI大模型应用于电子病历的协助撰写和自动纠错,日均需要消耗的token是多少?建议配置的英伟达A100 或英伟达H100大概需要多少块?

ChatGPT-o1、Claude 3.7 Sonnet给的答案基本相同:月消耗约1亿token,推荐配置3-4块H100或6-8块A100。而DeepSeek给的数据,则约为前2者的40%左右。

以下截图展示Claude 3.7 Sonnet给的答案:

而搭载一块英伟达H100 GPU、适合做大模型本地应用,且配套其他与算力相符的CPU、内存、硬盘、RAID、电源、风扇等应用配置的服务器,市场价格以人民币计算大概在多少钱范围内?

DeekSeek给的建议是:考虑到未来扩展方案,建议RMB80万+

如果是3-4块的H100,在资金普遍吃紧的大环境下,的确不是一笔小数目。

经济基础决定上层建筑!

目前,国内已经有主流云厂商按约 20-40元/小时的价格,出租NVIDIA H100单卡云实例。这种租赁模式的短期投入极低,扩展性和需求弹性极强,但需要设计稳健的数据安全解决方案,在网络层防护、数据全生命周期保护、权限与审计等方面都要周密部署。所以,服务器是租,还是买?

All roads lead to Rome,DeepSeek本地化部署的技术层面问题,借助第三方公司经验、专业团队咨询、多个主流AI工具深度问答等等不同方式总可以解决,但核心需求未明确时,建议各家医院切勿轻率购买AI本地服务器。

而AI大模型本地化部署,对于绝大多数医院来说都是念头不足2个月的新生事物,对于其中涉及的AI专业领域细分知识更是闻所未闻。为了少走弯路、避免浪费,建议有强烈意向本地化部署DeepSeek的医院,在需求梳理方面寻求专业团队的帮助。

从目前已经报道的新闻表象来看,不同医院本地化部署DeepSeek后的应用场景各有不同,但根据仲崇海老师AI研究团队的DeepSeek技术实施路径分析,所有的医院AI应用场景可以划归三类:

1.基础应用型

最大优点是无须模型训练、可以快速部署,主要特点如下:

1) 应用举例

A医院实施概要:部署DeepSeek-7B基础版,构建结构化知识库问答系统

集成2000+份临床路径文档与药品说明书通过规则引擎实现医保政策精准查询(准确率98.3%)日均处理门诊咨询8000+次,减少人工咨询压力30%

B医院实施概要:基于DeepSeek+RAG构建中医典籍智能检索平台

索引《黄帝内经》等古籍及现代中医研究论文10万篇支持方言语音输入转文本检索(粤语识别准确率92%)辅助中医师开方效率提升25%

2) 部署建议

适合DeepSeek知识库AI应用的工具有很多,主要分为开源免费、商业收费、向量数据库。以下选择4个常见知识库工具比较如下:

2.模型增强型

这种类型需要本地化调优和较强的技术开发支持,主要特点如下:

1)应用举例

C医院实施架构:DeepSeek-7B + 肿瘤专科知识蒸馏

数据:20万份肿瘤电子病历+CSCO指南结构化处理技术:通过对抗训练消除模型对欧美人群数据的偏见成果:化疗方案推荐符合率从82%提升至94%

D医院实施架构:DeepSeek-130B本地化压缩部署

技术路径:采用模型剪枝+8bit量化(显存占用降低60%)应用场景:ICU实时病情预警(整合生命体征时序数据)成效:脓毒症早期识别准确率提升至89%

2)部署建议

Python是AI技术开发最常用的程序语言,默认安装后还需要导入很多库,如torch、pandas、transformers等等。由于不同的库需求的Python版本不同,而目前最新的3.13版本经仲崇海老师亲自测试难以兼容多个库,建议在Anaconda软件下创建新的环境并对Python进行降级选择,如下图:

具有丰富AI多模态模型/库资源的HuggingFace网站内,有很多成熟的医疗模型如ClinicalBERT、BioBERT、PubMedBERT等,但由于ip地址的地域限制,通过常规的pip install transformers然后在代码中从模型仓库加载(如 AutoModel.from_pretrained("模型名称")往往不能成功,这时就需要采用一定的上网技术,但成功加载后再次加载即可只使用本地缓存文件。

以下是仲崇海老师借助AI编写的ClinicalBERT、BioBERT能否成功加载的验证程序Python源码,已成功调试,有兴趣的朋友可以借鉴、以用于其他国际成熟医疗模型ip受限情况的加载验证。

from transformers import AutoModel, AutoTokenizerimport loggingimport requests# 配置日志输出级别logging.basicConfig(level=logging.INFO)def check_model_availability(model_name):"""检测指定模型是否可用(包括本地缓存检测)返回:(bool, str) 可用状态和反馈信息"""try:# 尝试加载模型和分词器(会自动检测本地缓存)tokenizer = AutoTokenizer.from_pretrained(model_name)model = AutoModel.from_pretrained(model_name)return True, f"✅成功加载 {model_name} (使用本地缓存或网络连接正常)"except requests.exceptions.ConnectionError:return False, f"❌网络连接失败 - {model_name}\n(检测到Hugging Face Hub访问限制)"except OSError as e:if "offline" in str(e).lower:return False, f"❌无法加载 {model_name} - 无网络连接且无本地缓存"return False, f"❌加载失败 - {model_name}:{str(e)}"# 需要检测的模型列表models_to_check = {"BioBERT": "dmis-lab/biobert-v1.1","ClinicalBERT": "emilyalsentzer/Bio_ClinicalBERT"}# 执行检测print("开始医疗领域BERT模型可用性检测...\n")for model_name, model_id in models_to_check.items:status, message = check_model_availability(model_id)print(f"【{model_name}】")print(message)print("-"*50)

下图是HuggingFace网站的资源截图供参考。

3.协作生态型

这种类型的应用医疗机构主推的是跨机构价值释放的理念,主要特点如下:

1)应用举例

E中心牵头实施架构:基于DeepSeek的联邦学习心血管模型

数据规模:跨院共享100万例心血管介入手术数据安全机制:同态加密+差分隐私(隐私预算ε=1.2)输出成果:冠脉支架术后风险预测模型(AUC 0.92)

F专科联盟实施架构:口腔CBCT分析模型联邦学习

参与机构:15家省级口腔医院数据特征:跨机构标准化标注的3万例CBCT影像临床价值:正畸方案规划效率提升40%

2)部署建议

基于模型训练需求的医院数据治理成本,很多时候会远高于算力中心的投入,所以某种程度上,医院及相关主管部门应该鼓励“拿来主义更经济、超越的模仿就是创新”的策略。

换另外一个角度,多家医院/联盟/中心重复投资于一个专科AI应用,在经济下行当下,难道不是严重的浪费吗?

参考上图,AI时代的发展速度已经在几何级加速,如果我们多关注Github、HuggingFace、TensorFlow Hub、PyTorch Hub等国际AI资源站,会发现很多医疗专科领域都有在研或成熟的预训练模型。

请先看一下上述三个类型的不同维度比较:

注:以上周期预测总体偏乐观;由于服务器进口和国产的品牌溢价差异,临床专家、算法工程师、合规专家、产品经理等项目团队人力成本的地区差,故本文对投入预算不提供参考数据。

我们再看一下KPI指标的比较:

基于上述比较,我们建议基层医院直接采购模型市场成熟应用,聚焦规则知识库建设;三甲医院可以从语义理解知识库切入,重点加强模型增强型应用;而协作生态型,则建议重点由政府部门、大型医院集团、专科联盟等牵头。

当然,对于具备预算实力或潜力的医院,建议在实施方案中要预留拓展、升级空间

接下来再讲一下AI技术团队,多数医院的IT工程师更擅长的是HIS运维、医保支付相关数据处理、基于现有数据库相关报表的数据提取与计算等,对于DeepSeek本地化部署后相关模型的融合、AI库的配置和引用、Python脚本等几乎都没有经验,自然容易产生技术畏惧心理。

另外码农们都有深刻感受:一段程序代码报错,解决路径不对有时一天也解决不了,而方法正确了只需要几分钟。因此从人力成本角度的传统思维分析,让没有经验的团队慢慢摸索与项目外包相比,既耗费了过多人力成本、也容易错过相关机会。

所以对于DeepSeek本地化部署后有AI技术难度的工作,多数医院首先想到的是外包。

但我们想强调的是:现在是AI时代,而前述只是昨天的逻辑!

AI已经让很多职业感受到被取代的风险,其中风险最大的恰恰是普通敲代码的编程人员(业内自嘲为码农),因为用对一个Ai工具,其效率远高于多个码农,而成本却超乎想象的低!

根据仲崇海老师对AI编程工具Cursor的测试,即使对Python和AI应用开发毫无经验,也可以通过互动式中文对话实现AI应用开发的智能化,简单举例如下:

可以根据提问智能生成项目细化需求;可以根据技术栈需求智能生成完整项目结构可以智能分析AI模型/库并自动导入;可以智能编写脚本并自动测试、自动纠错;可以分析大模型格式与库是否兼容并进行优化;可以提供GPU加速的优化建议和最佳实践;可以智能本地存储与分类并提供版本追踪功能;

……

简单说,在Cursor的智能帮助下,医院信息科的工程师对AI的相关coding工作不用再一筹莫展,多数时候只需要从coding思维转变为产品经理思维,并对Cursor运行中提出的问题进行回复或决策。当然,涉及医学伦理、专业术语、本地法规等等,还是需要工程师的人工干预。

以下是Cursor应用截图示范,上面的红框是提出的需求,点击send后Cursor开始智能执行,中间Cursor会有其他提问,则可以在下面的红框中回复并点击send发送。

对于AI多模型融合需求不高、部署建设预算不多的医院,建议尝试本院信息科在Cursor工具支持下的自主部署。当然,除了Cursor, 还有Devin AI、Windsurf、Trae、GitHub Copilot等类似的AI编程工具,各家医院可结合信息科团队力量、AI部署功能需求等进行选择。

有个知名的广告语,是某酒虽好,不要贪杯。任何风口,既需激情,也要冷静。回到DeepSeek在医疗界的本地化部署,需要各家医院特别注意的是DeepSeek的幻觉率。

以“Helping the world find meaning”为使命,率先推出检索、生成和幻觉检测模型的Vectara公司,在1月30日、2月24日分别发了题为“DeepSeek-R1 hallucinates more than DeepSeek-V3”“Why does Deepseek-R1 hallucinate so much”的博客文章。而在全球AI开源资源最为丰富的Github网站,Vectara官方账号于3月13日发布的大语言模型幻觉率排行中,DeepSeek-v2.5依然以2.4%排名第20位(幻觉率越低越好),在该文后面的表格中显示:DeepSeek-R1幻觉率高达3.9%!

Github上的Vectaca幻觉率排行榜图片

仲崇海老师通过对AI答复内容进行真实性验证也发现,ChatGPT、Gemini、Claude、Deepseek的不同版本,均存在幻觉问题,例如他们可以“创新”出不存在的AI预训练模型、不存在的医院案例等等。所以,AI大模型的幻觉,基本是不可避免的。

而AI研究团队进一步分析、并通过AI问答推测出:要降低DeepSeek的幻觉率,最好降低其Temperature! 为了凸显推理能力,DeepSeek默认Temperature容易被设置为1,但ChatGPT、Gemini、Claude等模型均建议:为了维护生命权,Temperature应设置为小于0.3甚至接近于0!LM Studio、Ollama等也可以进行Temperature的设置(国内很多人将AI的Temperature选项翻译为“温度”非常不利于正确理解,信雅达翻译原则下,这里应该翻译为“随机性”)。

LM Studio的Temperature设置

但大家都知道:万分之一的几率一旦‘落’到具体人身上就是100%的概率!面对生命,更应对出错概率尤为慎重,AI在诊疗参与中,如果基于幻觉而给出建议,其严重后果不言而喻!

所以,在DeepSeek本地化部署热潮当下,各家医院既要抓住AI赋能高质量发展的机遇,也要高度警惕在AI诊疗应用场景下任何幻觉可能对患者造成的巨大伤害。

具体到实操中,Temperature的设置只是软件层面,医院更需要在管理层面构筑“防护墙”,例如建立多层级专家审核、数据质量验证、患者知情同意、分级风险管理、异常结果警示、算法智能校正等机制将AI大模型在诊疗中潜在的幻觉风险纳入可控范畴。

特别声明:

1)本文出于医疗行业研究而引用了相关医院AI部署应用,技术路线分型仅是基于网络检索而文中所列举之应用,为避免医院意见分歧,故以字母替代医院名称。

2)部分资料由团队成员提供,难免可能存在错漏或不严谨,仅供各家医院参考,具体医院的需求及部署分析建议以实际咨询为准。

3)由于阐述需要、但受限于篇幅,恕不能对本文涉及的诸多AI专业词汇逐一展开说明。

4)本研究策划与主撰 | 仲崇海:医界名家大讲堂特聘专家、医院品牌管理实战专家、医院运营管理咨询师、医院AI应用咨询与培训师、医疗行业发展独立研究员。

来源:医院品牌专家仲崇海

相关推荐