检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
名称,进入OBS桶详情。 在桶的详情页,左侧导航栏选择“对象”,在右侧“名称”列选中不需要的存储对象,单击“操作”列的“更多>删除”,即可删除相应的存储对象。 常见问题 创建数据集时找不到创建的OBS桶,请查看OBS桶与ModelArts是否在同一个区域。 数据校验节点失败。 请
绪”时表示模型可以使用。 步骤3:使用订阅模型部署在线服务 模型订阅成功后,可将此模型部署为在线服务 在展开的版本列表中,单击“部署 > 在线服务”跳转至部署页面。 在部署页面,参考如下说明填写关键参数。 “名称”:自定义一个在线服务的名称,也可以使用默认值,此处以“商超商品识别服务”为例。
服务管理 服务管理概述 在开发环境中部署本地服务进行调试 部署在线服务 查询服务详情 推理服务测试 查询服务列表 查询服务对象列表 更新服务配置 查询服务监控信息 查询服务日志 删除服务
按照上述配置完参数后,单击“下一步”, 确认信息无误后,单击“提交”,完成服务的部署。 步骤六 访问在线服务 在Chrome浏览器中安装ModHeader插件。 图10 安装ModHeader插件 Chrome浏览器安装ModHeader插件后,可能会导致访问不了ModelArts平台,访问Mod
同步状态解决。 步骤三:使用订阅模型部署在线服务 模型订阅成功后,可将此模型部署为在线服务。 在展开的版本列表中,单击“部署 > 在线服务”跳转至部署页面。 图5 部署模型 在部署页面,参考如下说明填写关键参数。 “名称”:自定义一个在线服务的名称,也可以使用默认值,此处以“商超商品识别服务”为例。
JupyterLab可以在同一个窗口同时打开几个Notebook或文件(如HTML、TXT、Markdown等),以页签形式展示。 JupyterLab的一大优点是,可以任意排版多个文件。在右侧文件展示区,您可以拖动打开文件,随意调整文件展示位置,可以同时打开多个文件。 图8 多文件任意编排
在JupyterLab文件列表中,选择需要下载的文件,单击右键,在操作菜单中选择“Download”下载至本地。下载的目的路径,为您本地浏览器设置的下载目录。 图1 下载文件 从JupyterLab中下载大于100MB的文件到本地 大于100MB的文件需要先从Notebook中上
的Vscode-server包,然后离线安装。 解决方法 打开VS Code,选择“Help>About”,并记下“Commit”的ID码。 确认创建Notebook实例使用的镜像的系统架构,可以在Notebook中打开Terminal,通过命令uname -m查看。 下载对应版
单击新建的模型名称左侧的小三角形,展开模型的版本列表。在操作列单击“部署 > 在线服务”,跳转至在线服务的部署页面。 在部署页面,参考如下说明填写关键参数。 “名称”:按照界面提示规则自定义一个在线服务的名称,也可以使用默认值。 “资源池”:选择“公共资源池”。 “模型来源”和
表1 在线服务配置 参数 说明 名称 在线服务名称。 状态 在线服务当前状态。 来源 在线服务的来源。 服务ID 在线服务的ID。 描述 您可以单击编辑按钮,添加服务描述。 资源池 当前服务使用的资源池规格。如果使用公共资源池部署,则不显示该参数。 个性化配置 您可以为在线服务的
服务预测 服务预测失败 服务预测失败,报错APIG.XXXX 在线服务预测报错ModelArts.4206 在线服务预测报错ModelArts.4302 在线服务预测报错ModelArts.4503 在线服务预测报错MR.0105 Method Not Allowed 请求超时返回Timeout
开发环境(旧版) 创建开发环境实例 查询开发环境实例列表 查询开发环境实例详情 更新开发环境实例信息 删除开发环境实例 管理开发环境实例 父主题: 历史API
将模型部署为实时推理作业 实时推理的部署及使用流程 部署模型为在线服务 访问在线服务支持的认证方式 访问在线服务支持的访问通道 访问在线服务支持的传输协议 父主题: 使用ModelArts Standard部署模型并推理预测
ModelArts支持将模型部署为哪些类型的服务? 在线服务和批量服务有什么区别? 在线服务和边缘服务有什么区别? 为什么选择不了Ascend Snt3资源? 线上训练得到的模型是否支持离线部署在本地? 服务预测请求体大小限制是多少? 在线服务部署是否支持包周期? 部署服务如何选择计算节点规格?
Standard创建AI应用部署在线服务 第三方推理框架迁移到ModelArts Standard推理自定义引擎 ModelArts Standard推理服务支持VPC直连的高速访问通道配置 ModelArts Standard的WebSocket在线服务全流程开发 从0-1制作自定义镜像并创建AI应用
功能介绍 Standard功能介绍 MaaS大模型即服务平台功能介绍 Lite功能介绍 AI Gallery功能介绍
专属资源池购买后,中途扩容了一个节点,如何计费? 共享池和专属池的区别是什么? 如何通过ssh登录专属资源池节点? 训练任务的排队逻辑是什么? 专属资源池下的在线服务停止后,启动新的在线服务,提示资源不足 不同实例的资源池安装的cuda和驱动版本号分别是什么? 算法运行时需要依赖鉴权服务,公共资源池是否支持两者打通网络?
删除Workflow工作流 查询Workflow工作流 修改Workflow工作流 总览Workflow工作流 查询Workflow待办事项 在线服务鉴权 创建在线服务包 获取Execution列表 新建Workflow Execution 删除Workflow Execution 查询Workflow
也可能是PyCharm ToolKit的版本不正确,请按照文档要求下载新版本的PyCharm ToolKit。 下载前请先清除浏览器缓存,如果之前下载过老版本的PyCharm ToolKit,浏览器会有缓存,可能会导致新版本下载失败。 在KeyPair中选择该Notebook实例对应的密钥,选择完成后
部署上线 功能咨询 在线服务 边缘服务 父主题: Standard推理部署