检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
密钥文件会直接保存到浏览器默认的下载文件夹中,文件名为“credentials.csv”,可打开文件查看访问密钥(Access Key Id和Secret Access Key)。
处理方法 在部署或升级在线服务时,选择更大内存规格的计算节点。 图3 选择计算节点规格 运行中服务出现告警时,需要分析是您的代码是否出现漏洞导致内存溢出、是否因为业务使用量太大需要更多的内存。如果因业务原因需要更多内存,请升级在线服务选择更大内存规格的计算节点。
如果使用自定义镜像进行部署推理服务,操作步骤可以参考使用AI Gallery在线推理服务部署模型,其中“推理任务类型”默认选择“自定义”,且不支持修改。
如果自定义模型的模型文件不符合gallery_inference文件列表要求或文件内容为空,都将不能正常部署在线推理服务。
如何修改默认端口号,请参考使用自定义镜像创建在线服务,如何修改默认端口。 父主题: 服务部署
当前cuda版本无so文件,需外部导入so文件(自行在浏览器下载),再设置LD_LIBRARY_PATH,具体见2。 不支持。尝试更换引擎,重新下发作业。或者使用自定义镜像创建作业,可参考使用自定义镜像创建作业。 父主题: 云上迁移适配故障
下载前请先清除浏览器缓存,如果之前下载过老版本的PyCharm ToolKit,浏览器会有缓存,可能会导致新版本下载失败。
图2 查看委托配置信息 Step1 准备训练数据 本案例使用的数据是MNIST数据集,您可以在浏览器中搜索“MNIST数据集”下载如图3所示的4个文件。
服务预测 服务预测失败 服务预测失败,报错APIG.XXXX 在线服务预测报错ModelArts.4206 在线服务预测报错ModelArts.4302 在线服务预测报错ModelArts.4503 在线服务预测报错MR.0105 Method Not Allowed 请求超时返回
在ModelArts中使用自定义镜像创建在线服务,如何修改端口? ModelArts平台是否支持多模型导入? 在ModelArts中导入模型对于镜像大小有什么限制? ModelArts在线服务和批量服务有什么区别? ModelArts在线服务和边缘服务有什么区别?
在“在线服务”列表中,停止因运行自动学习作业而创建的服务。操作完成后,ModelArts服务即停止计费。 登录OBS控制台,进入自己创建的OBS桶中,删除存储在OBS中的数据。操作完成后,OBS服务即停止计费。
如果您有其他疑问,您也可以通过华为云社区问答频道来与我们联系探讨。
将模型部署为实时推理作业 实时推理的部署及使用流程 部署模型为在线服务 访问在线服务支持的认证方式 访问在线服务支持的访问通道 访问在线服务支持的传输协议 父主题: 使用ModelArts Standard部署模型并推理预测
此时在运行态通过开关的方式来控制部署/更新服务,如下图所示: 在线服务开关默认关闭,节点走部署服务的流程;如果需要更新服务,则手动打开开关,选择相应的在线服务即可。
模型部署步骤将使用预测模型发布在线预测服务。 操作步骤 在新版自动学习页面,单击创建成功的项目名称,查看当前工作流的执行情况。 在“预测分析”节点中,待节点状态由“运行中”变为“运行成功”,即完成了模型的自动训练。
在浏览器中输入“http://{弹性公网IP}:3000”,即可进行访问。首次登录用户名和密码为admin,登录成功后请根据提示修改密码。 父主题: 安装配置Grafana
个人用户权限配置 个人用户快速配置ModelArts访问权限 企业用户权限配置 配置ModelArts基本使用权限 专属资源池训练上云实践 Standard专属资源池训练 06 AI全流程 面向熟悉代码编写和调测,熟悉常见AI引擎的开发者,ModelArts不仅提供了在线代码开发环境
ModelArts Standard推理自定义引擎 ModelArts Standard推理服务支持VPC直连的高速访问通道配置 ModelArts Standard的WebSocket在线服务全流程开发 从0-1制作自定义镜像并创建模型 使用AppCode认证鉴权方式进行在线预测
响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 obs_url String 日志OBS临时链接(复制到浏览器可查看当前全量日志)。
按照存储费用结算,那么运行这个在线服务的费用计算过程如下: 存储费用:训练的数据通过对象存储服务(OBS)上传或导出,存储计费按照OBS的计费规则。 综上,在线服务的运行费用 = 存储费用 父主题: 计费项