检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
服务预测失败 问题现象 在线服务部署完成且服务已经处于“运行中”的状态,向服务发起推理请求,预测失败。 原因分析及处理方法 服务预测需要经过客户端、外部网络、APIG、Dispatch、模型服务多个环节。每个环节出现都会导致服务预测失败。 图1 推理服务流程图 出现APIG.XX
通过Token认证的方式访问在线服务 如果在线服务的状态处于“运行中”,则表示在线服务已部署成功,部署成功的在线服务,将为用户提供一个可调用的API,此API为标准Restful API。在集成至生产环境之前,需要对此API进行调测,您可以使用以下方式向在线服务发起预测请求: 方
在部署为在线服务时,即“部署”页面,填写部署服务相关参数时,开启支持APP认证功能。 针对已部署完成的在线服务,进入在线服务管理页面,单击目标服务名称“操作”列的“修改”按钮,进入修改服务页面开启支持APP认证功能。 图1 部署页面开启支持APP认证功能 选择APP授权配置。从下拉列表中选择您需要
通过公网访问通道的方式访问在线服务 背景描述 ModelArts推理默认使用公网访问在线服务。在线服务部署成功后,将为用户提供一个可调用的API,此API为标准Restful API。您可以在服务详情页面,调用指南页签中查看API接口公网地址。 图1 API接口公网地址 约束限制
Method Not Allowed 问题现象 服务预测报错:Method Not Allowed 原因分析 服务预测默认注册的API需要使用POST方法调用。如您使用了GET方法,APIG(API网关)将会拦截请求。 处理方法 使用POST方法调用。 父主题: 服务预测
接,并进行双向数据传输。 前提条件 在线服务部署时需选择“升级为WebSocket”。 在线服务中的模型导入选择的镜像需支持WebSocket协议。 约束与限制 WebSocket协议只支持部署在线服务。 只支持自定义镜像导入模型部署的在线服务。 调用API访问在线服务时,对预测请求体大小和预测时间有限制:
使用ModelArts Standard部署模型并推理预测 推理部署使用场景 创建模型 创建模型规范参考 将模型部署为实时推理作业 将模型部署为批量推理服务 管理ModelArts模型 管理同步在线服务 管理批量推理作业
单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“部署上线 > 在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。
单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“部署上线 > 在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。
G,请提工单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“模型部署 > 在线服务 > 部署”,开始部署在线服务。 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资
G,请提工单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“模型部署 > 在线服务 > 部署”,开始部署在线服务。 设置部署服务名称,选择Step2 部署模型中创建的AI应用。选择专属资
部署模型 如果您选择部署的是商用模型,则选择服务类型后会弹出“修改配额”窗口,根据需要选择配额后单击“确定”即可跳转至“部署”页面。 由于商用模型支持同时购买多种配额模式的资产,所以仅部署商用模型时需要进行配额选择。免费模型仅一种配额模式无需选择。 图2 修改配额 如果您选择部署
参数时,服务部署节点将会自动启动。 异步推理服务部署相关信息配置操作 在ModelArts管理控制台,左侧菜单栏选择“Workflow”进入Workflow页面。 在服务部署节点启动之后会等待用户设置相关配置信息,选择模型及版本为异步推理模型,设置服务启动参数,配置完成后直接单击继续运行即可。
单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“部署上线 > 在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。
单扩容。 Step3 部署在线服务 将Step2 部署模型中创建的AI应用部署为一个在线服务,用于推理调用。 在ModelArts控制台,单击“部署上线 > 在线服务 > 部署”,开始部署在线服务。 图5 部署在线服务 设置部署服务名称,选择Step2 部署模型中创建的AI应用。
/etc/squid/ 打开并配置whitelist.conf文件。 vim whitelist.conf 配置内容为安全控制可访问的地址,支持配置通配符,例如: .apig.cn-east-3.huaweicloudapis.com 如果地址访问不通,请在浏览器配置访问域名。 打开并配置squid
VPC访问在线服务”增加内网域名解析。 登录云解析服务DNS管理控制台,左侧导航栏选择“内网域名”。 单击“创建内网域名”,打开创建内网域名弹出框。填写以下参数配置: 域名:遵循命名规范“infer-modelarts-<regionId>.modelarts-infer.com”,例如:infer-
m-scheduler-steps个token。开启投机推理后无需配置该参数。 --host=${docker_ip}:服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。 --port:服务部署的端口。 --gpu-memory-utilization:NPU使
在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传
在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传