检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
但是您可以在AI应用管理页面查看,或者将此模型部署为在线服务。 父主题: 模型训练
自动学习中部署上线是将模型部署为在线服务,您可以添加图片或代码进行服务测试,也可以使用URL接口调用。 部署成功后,您也可以在ModelArts管理控制台的“部署上线 > 在线服务”页面中,查看到正在运行的服务。您也可以在此页面停止服务或删除服务。 父主题: 部署上线
在ModelArts的在线服务中添加标签。 可以在创建在线服务页面添加标签,也可以在已经创建完成的在线服务详情页面的“标签”页签中添加标签。 在ModelArts的专属资源池中添加标签。
根据部署在线服务生成的服务对象删除服务。 根据查询服务对象列表返回的服务对象删除服务。 示例代码 在ModelArts notebook平台,Session鉴权无需输入鉴权参数。其它平台的Session鉴权请参见Session鉴权。
停止在线服务:在ModelArts Standard控制台的“模型部署 > 在线服务”列表,单击对应服务操作列的“更多 > 停止”,停止在线服务。
在推理生产环境中部署推理服务 介绍如何在创建AI应用,部署并启动推理服务,在线预测在线服务。 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)
本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口。
本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口。
OBS的更多信息请参见《对象存储服务产品文档》。 表1 ModelArts各环节与OBS的关系 功能 子任务 ModelArts与OBS的关系 自动学习 数据标注 ModelArts标注的数据存储在OBS中。 自动训练 训练作业结束后,其生成的模型存储在OBS中。
步骤5:部署为在线服务(CPU) AI应用创建成功后,可将其部署为在线服务,在部署时可使用CPU资源。 单击AI应用名称左侧的单选按钮,在列表页底部展开“版本列表”,在版本的操作列中单击“部署 > 在线服务”。 在部署页面,参考如下说明填写关键参数。
本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口。
调用API接口部署在线服务时,“pool_name”为“资源池ID” 。 图1 资源池ID 父主题: API/SDK
在线服务的更多内容介绍请参见文档查看服务详情。 图5 预测 Step5 推理服务高阶配置(可选) 如需开启以下高阶配置,请在•创建推理脚本文件run_vllm.sh章节创建的推理脚本run_vllm.sh中增加需要开启的高阶配置。
本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口。
本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口。
自动学习声音分类预测报错ERROR:input key sound is not in model 根据在线服务预测报错日志ERROR:input key sound is not in model inputs可知,预测的音频文件是空。预测的音频文件太小,换大的音频文件预测。
图2 预测结果 由于“运行中”的在线服务将持续耗费资源,如果不需再使用此在线服务,建议在“在线服务”的操作列单击“更多>停止”,即可停止在线服务的部署,避免产生不必要的费用。如果需要继续使用此服务,可单击“启动”恢复。
通过大量开发者实践,针对主流昇腾云开源大模型,沉淀最佳的算力组合方案,为开发者在开发模型的最后一步,提供最佳实践的算力方案、实践指南和文档,节省开发者学习和试错资金成本,提升学习和开发效率。 父主题: 功能介绍
参考部署为在线服务将模型部署为在线服务。
在推理生产环境中部署推理服务 介绍如何在创建AI应用,部署并启动推理服务,在线预测在线服务。 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908)