全部文档
当前文档

暂无内容

如果没有找到您期望的内容,请尝试其他搜索词

文档中心

5分钟部署Qwen2.5-7B为在线推理服务

最近更新时间:2025-06-19 20:24:05

概述

模型在线服务 MOS(Model Online Service),帮助用户快速将一个或多个模型部署为在线服务,通过 API 接口调用的方式将 AI 集成到自身业务应用中,而无需关心底层IT基础设施的管理和维护。平台提供了丰富的资源供给、灵活的计费方式以及各种开发和调试工具,使得模型在线服务变得既强大又易于管理,从而更好地满足业务创新对 AI 的需求。

本教程将带你体验基于 MOS 实现 5 分钟内部署 Qwen2.5-7B-Instruct 部署为在线服务。

第一步 创建文件共享服务

已创建过文件共享服务请略过(多个服务只需要开通一次文件共享服务)。

前往地址 https://kenc.console.ksyun.com/#/simple/fileShare

创建文件共享服务,节点选择 厦门电信41 节点,网络选择 经典网络 选项,其他按需,点击【确认订单】。

第二步 将模型文件导入文件共享服务

前往地址 https://mos.console.ksyun.com/#/modelManage

在公共模型列表找到 Qwen2.5-7B-Instruct,点击【导入】按钮。

选择刚才创建的文件共享服务,点击【确认】即可。

点击右上角【导入历史】

查看模型文件导入进度,不同的模型耗时差异很大,主要看模型文件的大小,本次部署的模型大概会2分钟左右的时间即可导入成功。

第三步 部署服务

点击 MOS 左侧菜单【服务】或前往地址 https://mos.console.ksyun.com/#/serverManage

点击左上角【部署服务】

资源部署信息选择如下

属性

属性值

备注

资源类型

公共资源组

地域

厦门电信41

算力类型

GPU

算力规格

MOS.N1IN.4C16G.1A9

模型服务信息,配置如下

属性

属性值

备注

服务名称

qwen25

字母开头,支持数字、小写字母以及中横线(-),不得以中横线开始或者结尾,长度位 3~63 位

镜像

公共镜像

library/vllm/vllm-openai:v0.7.2

模型配置

NFS:上述导入模型的文件共享服务实例

NFS源路径(导入成功后可下拉选择):Qwen2.5-7B-Instruct/

挂载路径:/data/qwen

运行命令

python3 -m vllm.entrypoints.openai.api_server --model /data/qwen --api-key testqwen

端口号

8000

实例数量为 1 即可。点击【部署】。

一般 1 分钟内即可部署完成。

访问服务

点击 MOS 左侧菜单【服务】或前往服务列表 https://mos.console.ksyun.com/#/serverManage

点击服务列表或详情【调用信息】,获取服务域名,例如 http://chatglm.ksymos.com

命令行访问可参考如下:

curl -X POST "http://qwen25.ksymos.com/v1/completions" \
-H "Authorization: Bearer testqwen" \
-H "Content-Type: application/json" \
-d '{
  "model": "/data/qwen",
  "prompt": "请解释什么是人工智能。",
  "max_tokens": 100,
  "temperature": 0.7
}'

通过 web chat 客户端工具,新增配置如下:

属性

属性值

备注

模型提供方

OpenAI API

API 密钥

testqwen

对应启动命令的 api-key 属性值

API 域名

http://qwen25.ksymos.com/v1

服务域名+“/v1”

模型

选择“自定义模型”

手动输入“/data/qwen”

对应启动命令的 model 属性值

有些 web chat 工具可以自动获取

文档导读
纯净模式常规模式

纯净模式

点击可全屏预览文档内容
文档反馈