-
在AOM控制台查看ModelArts所有监控指标 - AI开发平台ModelArts
昇腾系列AI处理器HBM内存使用量(Snt9 AI处理器专属) 字节(Byte) >0 AI处理器HBM内存利用率 ma_container_npu_hbm_util 昇腾系列AI处理器HBM内存利用率(Snt9 AI处理器专属) 百分比(Percent) 0~100% AI处理器HBM内存带宽利用率
-
查询作业资源规格 - AI开发平台ModelArts
指定作业的引擎ID,默认为“0”。查询自动学习资源规格无需此参数。 project_type 否 Integer 项目类型。默认为“0”。 0:非自动学习项目。 1:自动学习,图像分类。 2:自动学习,物体检测。 3:自动学习,预测分析。 请求消息 无请求参数。 响应消息 响应参数如表3所示。 表3 响应参数 参数 参数类型
-
管理员和开发者权限分离 - AI开发平台ModelArts
进入IAM服务。 图2 登录控制台 创建自定义策略1,赋予用户IAM和OBS服务权限。在统一身份认证服务控制台的左侧菜单栏中,选择“权限管理> 权限”。单击右上角“创建自定义策略”,在“策略名称”中填入“Policy1_IAM_OBS”,策略配置方式选择JSON视图,输入策略内容,单击“确定”。
-
配置IAM权限 - AI开发平台ModelArts
创建自定义策略时,建议将项目级云服务和全局级云服务拆分为两条策略,便于授权时设置最小授权范围。此处的“Policy1”为项目级云服务、“Policy2”为全局级云服务。了解更多。 将自定义策略授权给开发者用户组user_group。 在统一身份认证服务控制台的左侧菜单栏中,选择“用
-
训练profiling工具使用 - AI开发平台ModelArts
位分析PyTorch训练时的性能状态,有四种视图来展示PyTorch性能数据,其中Trace视图与第二种profiling方法展示同样的信息。第二种采集方式的优势主要在于不需要额外启动tensorboard服务来展示数据,在本地浏览器就能展示性能数据。 训练profiling工具使用说明:
-
资源池 - AI开发平台ModelArts
ModelArts支持使用ECS创建专属资源池吗? 1个节点的专属资源池,能否部署多个服务? 专属资源池购买后,中途扩容了一个节点,如何计费? 共享池和专属池的区别是什么? 如何通过ssh登录专属资源池节点? 训练任务的排队逻辑是什么? 专属资源池下的在线服务停止后,启动新的在线服务,提示资源不足
-
创建训练作业时出现“实例挂卷失败”的事件 - AI开发平台ModelArts
作业挂载SFS失败时,可能是网络不通导致的。 处理步骤 进入训练作业详情页,在左侧获取SFS Turbo的名称。 图1 获取SFS Turbo的名称 登录弹性文件服务SFS控制台,在SFS Turbo列表找到训练作业挂载的SFS Turbo,单击名称进入详情页。获取VPC信息、安全组信息和endpoint信息。
-
用户AK-SK认证模式 - AI开发平台ModelArts
用户AK-SK认证模式 本模式支持OBS管理、训练管理、模型管理、服务管理模块的鉴权。 示例代码 1 2 from modelarts.session import Session session = Session(access_key='***',secret_key='***'
-
责任共担 - AI开发平台ModelArts
完善云服务安全保障体系。 安全性是华为云与您的共同责任,如图1所示。 华为云:负责云服务自身的安全,提供安全的云。华为云的安全责任在于保障其所提供的IaaS、PaaS和SaaS各类各项云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这
-
使用MoXing时,如何进行增量训练? - AI开发平台ModelArts
save_summary_steps=save_summary_steps, save_model_secs=save_model_secs, checkpoint_path=flags.checkpoint_url, export_model=mox
-
修订记录 - AI开发平台ModelArts
2021-8-30 新增API应用示例: 创建和修改工作空间 管理ModelArts服务的委托授权 2021-7-9 新增数据管理的API应用示例: 创建图像分类数据集并进行标注任务 创建并完成图像分类的智能标注任务 新增用户名和用户ID的获取步骤: 获取用户名和用户ID 2021-5-31
-
PyTorch - AI开发平台ModelArts
规模通信需求;InfiniBand网络和RoCE网络为高性能网络,可用于集合通信等分布式训练的场景。 图1 分布式模式 启动命令 训练服务使用作业镜像中默认的python解释器启动训练脚本(即“which python”命令指向的可执行文件),启动时的工作目录(即pwd命令或python中“os
-
查看所有子账号的Notebook实例 - AI开发平台ModelArts
ok所有实例。 “策略配置方式”:选择可视化视图。 “策略内容”:允许,云服务中搜索ModelArts服务并选中,操作列中搜索关键词modelarts:notebook:listAllNotebooks并选中,所有资源选择默认值。 图1 创建自定义策略 策略2:设置查看Notebook实例创建者信息的策略。
-
查看所有子账号的Notebook实例 - AI开发平台ModelArts
ok所有实例。 “策略配置方式”:选择可视化视图。 “策略内容”:允许,云服务中搜索ModelArts服务并选中,操作列中搜索关键词modelarts:notebook:listAllNotebooks并选中,所有资源选择默认值。 图1 创建自定义策略 策略2:设置查看Notebook实例创建者信息的策略。
-
开发环境权限 - AI开发平台ModelArts
企业项目 创建开发环境实例 POST /v1/{project_id}/notebooks modelarts:notebook:create ecs:serverKeypairs:create swr:repository:getNamespace swr:repository:listNamespace
-
退订包年/包月的DevServer资源 - AI开发平台ModelArts
打开“查看所有”按钮,查看所有实例。 图1 查看所有 此时如果显示需要配置委托,请联系您的账号管理员为您配置委托权限,详细操作参考配置ModelaArts委托。 在弹性裸金属列表中,单击操作列的“退订”,跳转至“退订资源”页面。 图2 退订 根据界面提示,确认需要退订的资源,并选择退订原因。 图3 退订资源
-
Tensorflow - AI开发平台ModelArts
通信,当前ModelArts主要提供了Infiniband网卡或RoCE网卡,带宽高达100Gb/s。 启动命令 训练服务使用作业镜像中默认的python解释器启动训练脚本(即“which python”命令指向的可执行文件),启动时的工作目录(即pwd命令或python中“os
-
Ascend-Powered-Engine - AI开发平台ModelArts
使用HCCS和共享内存通信。 节点间网络 worker之间可通过容器网络和Ascend加速卡上的RoCE网络通信。 启动命令 训练服务使用作业镜像中默认的python解释器启动训练脚本(即“which python”命令指向的可执行文件),启动时的工作目录(即pwd命令或python中“os
-
ModelArts支持哪些AI框架? - AI开发平台ModelArts
统一镜像列表 ModelArts提供了ARM+Ascend规格的统一镜像,包括MindSpore、PyTorch。适用于开发环境,模型训练,服务部署,请参考统一镜像列表。表1、表2所示镜像仅发布在西南-贵阳一区域。 表1 MindSpore 预置镜像 适配芯片 适用范围 mindspore_2
-
ModelArts支持哪些AI框架? - AI开发平台ModelArts
统一镜像列表 ModelArts提供了ARM+Ascend规格的统一镜像,包括MindSpore、PyTorch。适用于开发环境,模型训练,服务部署,请参考统一镜像列表。表1、表2所示镜像仅发布在西南-贵阳一区域。 表1 MindSpore 预置镜像 适配芯片 适用范围 mindspore_2