摘要:函数计算 FC 是一款免运维、高效开发的云服务工具,支持快速部署与弹性扩容,开发者可以通过简单的配置和代码上传,迅速上线新功能或修复问题,大大缩短了开发周期,让开发者专注于业务逻辑而无需担忧底层基础设施。
一、引言
函数计算 FC 是一款免运维、高效开发的云服务工具,支持快速部署与弹性扩容,开发者可以通过简单的配置和代码上传,迅速上线新功能或修复问题,大大缩短了开发周期,让开发者专注于业务逻辑而无需担忧底层基础设施。
Qwen2.5 是阿里云推出的最新一代开源大模型,支持高达128K的上下文长度,覆盖92种编程语言,显著提升了代码生成和优化的能力。通过阿里云函数计算 FC提供的免运维的高效开发环境,Qwen2.5 可以快速部署和更新,无需考虑底层资源管理和运维问题,只专注于应用的创新和开发。
将Qwen2.5开源模型部署到函数计算 FC,还需要借助Ollama 和 Open WebUI 两个应用。Ollama 负责托管 Qwen2.5 模型,其中预置了 1.5B 参数规模的 Qwen2.5 模型,支持模型推理任务;Open WebUI 则为用户提供友好的交互界面,支持用户轻松调用和交互,实现高效的模型使用体验。
云端部署 Qwen2.5 模型核心优势:
提供更高的灵活性:可根据用户自身业务需求灵活调整云服务资源配置,实现对高并发请求的有效支持。通过资源配置优化显著提升推理速度:可以通过调整实例规格、多 GPU 分布式部署、实施模型量化等措施提升推理速度。按业务量选择计费方式:计费方式灵活多样(包年包月、按量付费),在面对高频请求和大规模数据处理时,能够显著降低综合成本。避免数据泄露风险:企业可以实现对自身业务数据的完全控制,确保敏感信息的安全存储和处理。本文将详细介绍如何利用函数计算 FC 部署 Qwen2.5 开源模型的流程。点击文末“阅读原文”,了解更多方案详情,开发更高效,智能更贴近。
二、操作教程
(一)整体架构
(二)基于 Ollama 部署 Qwen2.5 模型
将部署Ollama应用以提供模型服务。Ollama 是一个便捷的模型部署和管理工具,帮助开发者高效托管和服务化模型,便于快速集成 AI 能力。
1. 点击Ollama模板链接:
https://fcnext.console.aliyun.com/applications/create,访问创建Ollama应用页面。
2. 当前应用模板提供了Qwen2.5:1.5B模型。
(三)使用 Open WebUI 调用 Qwen2.5 模型
Open WebUI 是一个开源项目,提供了管理和操作模型的图形界面。
点击Open WebUI模板链接[1],访问创建Open WebUI应用页面。在高级配置 > 地域下拉列表中选择应用所属地域。注意所选地域与Ollama应用创建时所选的地域一致。说明
Ollama应用内网访问地址获取方式:
打开函数计算 FC应用[2]页面,找到Ollama应用,点击应用名称进入应用详情。
在应用详情页找到函数资源,点击函数名称进入函数详情页。
鼠标移至HTTP 触发器,在展开的信息中复制内网访问地址。
5.其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。
6.Open WebUI应用部署完毕后,点击访问域名。
三、应用体验
(一)使用 Open WebUI 调用 Qwen2.5 模型
登录Open WebUI后,点击Select a model,在展开的下拉列表中选择Qwen2.5模型。如果在下拉列表中未显示可用的模型,请尝试刷新页面以更新列表。说明:首次部署需要等待约5分钟,不断刷新会导致实例反复调用,为避免消耗更多资源请不要反复刷新。
关于代码编写的结果,可以亲自去验证一下哦
(二)函数计算 FC 自动扩缩容机制
回到 Ollama 函数详情页,点击实例标签,如果当前实例列表为空,可以点击图标刷新列表。函数计算 FC:免运维与高效开发,体验使用 Open WebUI 调用 Qwen2.5 模型,新年礼物,先到先得~
参考链接:
[1]https://fcnext.console.aliyun.com/applications/create?template=fc-open-webui&deployType=template-direct
[2]https://fcnext.console.aliyun.com/applications
[3]https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20240701/geijms/百炼系列手机产品介绍.docx
来源:阿里技术一点号