检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Server上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y
户,不能采用root用户直接运行。镜像中只安装运行时依赖的安全包,减少镜像的大小,同时安装包需要更新到最新的无漏洞版本。敏感信息和镜像解耦,可以在服务部署时配置,不能直接硬编码在Dockerfile中。定期针对镜像进行安全扫描,及时安装补丁修复漏洞。增加健康检查接口,确保健康检查
# 构建镜像 └── qwen-vl_install.sh # 安装模型运行环境 └── qwen-vl.patch # 使用git apply修改模型相关代码
pter,ma-cli命令将不支持创建算法工程,无法在Notebook中基于已有算法工程进行资产(数据、模型权重、算法文件)安装、模型开发、训练和推理部署等任务。如您有任何问题,可随时通过工单或者服务热线(4000-955-988或950808)与我们联系。 父主题: 下线公告
pip show ipykernel 对应conda环境没有ipykernel,直接在Notebook中添加自定义IPython Kernel安装。 父主题: 自定义镜像故障
train/AscendFactory 构建新镜像: docker build -t <镜像名称>:<版本名称> . 如无法访问公网则需配置代理,增加`--build-arg`参数指定代理地址确保访问公网。 docker build --build-arg "https_proxy=http://xxx
“添加模型说明”,设置“文档名称”及其“URL”。模型说明最多支持3条。 “部署类型” 选择此模型支持部署服务的类型,部署上线时只支持部署为此处选择的部署类型,例如此处只选择在线服务,那您导入后只能部署为在线服务。当前支持“在线服务”、“批量服务”和“边缘服务”。 确认信息填写无误,单击“立即创建”,完成模型的创建。
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y
进入Terminal界面 例如,通过Terminal在“TensorFlow-1.8”的环境中使用pip安装Shapely。 在代码输入栏输入以下命令,获取当前环境的kernel,并激活需要安装依赖的python环境。 cat /home/ma-user/README source /ho
如果没有用户组,也可以创建一个新的用户组,并通过“用户组管理”功能添加用户,并配置授权。如果指定的子用户没有在用户组中,也可以通过“用户组管理”功能增加用户。 使用Cloud Shell 参考前提条件:给子账号配置允许使用Cloud Shell的权限,完成配置。 在ModelArts管理控制台的左侧导航栏中选择“模型训练
[worker-0] [耗时: 秒] 训练输入(参数名称:)下载失败,失败原因: [worker-0] 正在安装Python依赖包,导入文件: [worker-0] [耗时: 秒] Python依赖包安装完成,导入文件: [worker-0] 训练作业开始运行 [worker-0] 训练作业运行结束,退出码
Server上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y
ModelArts中常用概念 自动学习 自动学习功能可以根据标注数据自动设计模型、自动调参、自动训练、自动压缩和部署模型,不需要代码编写和模型开发经验。只需三步,标注数据、自动训练、部署模型,即可完成模型构建。 端-边-云 端-边-云分别指端侧设备、智能边缘设备、公有云。 推理 指按某种策
修改为:transformers==4.44.2 执行以下命令制作训练镜像。安装过程需要连接互联网git clone,请确保ECS可以访问公网 docker build -t <镜像名称>:<版本名称> . 如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。
如何通过docker镜像启动容器? 如何在ModelArts的Notebook中配置Conda源? ModelArts的自定义镜像软件版本匹配有哪些注意事项? 镜像在SWR上显示只有13G,安装少量的包,然后镜像保存过程会提示超过35G大小保存失败,为什么? 如何保证自定义镜像能不因为超过35G而保存失败?
# 构建镜像 └── qwen-vl_install.sh # 安装模型运行环境 └── qwen-vl.patch # 使用git apply修改模型相关代码
DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts
go-* 说明:此处“.local/share/jupyter/kernels/sfs-new-env”为举例,请以用户实际的安装路径为准。 图1 安装路径回显 刷新JupyterLab页面,可以看到新的kernel。 重启Notebook后kernel需要重新注册。 克隆原有的虚拟环境到SFS盘