检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
边缘服务 云端服务是集中化的离终端设备较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不足,无法与云端相比。
边缘节点是您自己的边缘计算设备,用于运行边缘应用,处理您的数据,并安全、便捷地和云端应用进行协同。 父主题: 边缘服务
由于PyCharm ToolKit本地记录了云端ModelArts的训练作业ID,如果手动在ModelArts管理控制台删除,本地提交作业时候会报找不到该ID的作业。
图9 Debug模式 使用debug方式调试代码的前提是本地的代码和云端的代码是完全一致的,如果不一致可能会导致在本地打断点的行和实际运行时该行的代码并不一样,会出现意想不到的错误。
Notebook安装依赖 云端调试与运行。
图8 安装云端Python插件 如果安装云端的Python插件不成功时,建议通过离线包的方式安装。具体操作请参见安装远端插件时不稳定,需尝试多次。
云端Notebook安装依赖。 在本地IDE中打开“Terminal > New Terminal”,执行如下命令。
支持各种部署场景,既能部署为云端的在线推理服务和批量推理任务,也能部署到端,边等各种设备。 一键部署,可以直接推送部署到边缘设备中,选择智能边缘节点,推送模型。
支持本地 IDE+ModelArts 插件远程开发能力,线上线下协同开发,开发训练一体化架构,支持大模型分布式部署及推理 统一管理 AI 开发全流程,提升开发效率,记录模型构建实验全流程 多场景部署,灵活满足业务需求 支持云端/边端部署等多种生产环境 支持在线推理、批量推理、边缘推理多形态部署
图11 连接成功 远程调试代码 在VS Code界面,上传本地代码到云端开发环境。 单击“File > OpenFolder”,选择要打开的路径,单击“OK”。
图11 实例连接失败 远程调试代码 在VS Code界面,上传本地代码到云端开发环境。 单击“File > OpenFolder”,选择要打开的路径,单击“OK”。
插件安装完成后在本地IDE中开启了“Automatic Upload”,本地目录中的文件会自动上传至云端开发环境Notebook。如果未开启,请参考下图开启自动上传。
ma-cli支持用户在ModelArts Notebook及线下虚拟机中与云端服务交互,使用ma-cli命令可以实现命令自动补全、鉴权、镜像构建、提交ModelArts训练作业、提交DLI Spark作业、OBS数据复制等。
ma-cli支持用户在ModelArts Notebook及线下虚拟机中与云端服务交互,使用ma-cli命令可以实现命令自动补全、鉴权、镜像构建、提交ModelArts训练作业、提交DLI Spark作业、OBS数据复制等,具体参见ModelArts CLI命令参考。
面向熟悉代码编写和调测的AI工程师 使用ModelArts VS Code插件调试训练ResNet50图像分类模型 本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Standard的Notebook进行云端数据调试及模型开发。
update: 更新用于分析的知识库,将云端知识库同步至分析环境中。 auto-completion:自动补全模式,在终端中自动完成MA-Advisor命令补全,支持“bash(默认)/zsh/fish”。
图2 配置训练作业参数(公共资源池) 图3 配置训练作业参数(专属资源池) 图4 配置训练作业参数(自定义镜像) 参数填写完成后,单击“Apply and Run”,即自动上传本地代码至云端并启动训练,在工具下方的Training Log区域,会实时展示训练作业运行情况。
调用API 待推理服务的状态变为“运行中”时,可单击操作列的“调用”,复制对应的接口代码,在本地环境或云端的开发环境中进行接口。
使用ModelArts VSCode插件调试训练ResNet50图像分类模型 MindSpore VS Code Toolkit工具 目标检测 本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Notebook进行云端数据调试及模型开发
边缘可用区将云基础设施和云服务部署到企业现场,适合对应用访问时延、数据本地化留存及本地系统交互等有高要求的场景,可便捷地将云端丰富应用部署到本地,CloudPond介绍可参考产品介绍。 表3 集群配置参数说明 参数名称 说明 服务器名称 Server的机器名称。