-
手动续费/自动续费包周期 - AI开发平台ModelArts
此时如果显示需要配置委托,请联系您的账号管理员进行ModelArts委托权限配置。 复制需要续费的服务器资源的ID。 图5 复制服务器资源的ID 在顶部菜单栏,单击“费用”,进入费用中心。 图6 费用 单击“订单管理 > 续费管理”,在“手动续费项”页签中,搜索实例ID信息,在对应的服务器操作列,单击“续费”。
-
查看服务的事件 - AI开发平台ModelArts
查看服务的事件 服务的(从用户可看见部署服务任务开始)整个生命周期中,每一个关键事件点在系统后台均有记录,用户可随时在对应服务的详情页面进行查看。 方便用户更清楚的了解服务部署和运行过程,遇到任务异常时,更加准确的排查定位问题。可查看的事件点包括: 表1 事件 事件类型 事件信息
-
在线服务的API接口组成规则是什么? - AI开发平台ModelArts
在线服务的API接口组成规则是什么? AI应用部署成在线服务后,用户可以获取API接口用于访问推理。 API接口组成规则如下: https://域名/版本/infer/服务ID 示例如下: https://6ac81cdfac4f4a30be95xxxbb682.apig.xxx
-
DCGM监控方案 - AI开发平台ModelArts
xx为Grafana的所在宿主机的IP地址 图1 Prometheus 在HTTP的URL输入框中输入Prometheus的IP地址和端口号,单击Save&Test: 图2 IP地址和端口号 至此,指标监控方案安装完成。指标监控效果展示如下: 图3 指标监控效果 这里使用的是Grafan
-
与其他服务的关系 - AI开发平台ModelArts
Notebook实例中的数据或代码文件存储在OBS中。 训练模型 训练作业使用的数据集存储在OBS中。 训练作业的运行脚本存储在OBS中。 训练作业输出的模型存储在指定的OBS中。 训练作业的过程日志存储在指定的OBS中。 AI应用管理 训练作业结束后,其生成的模型存储在OBS中,
-
DevServer简介 - AI开发平台ModelArts
ModelArts Lite DevServer提供不同型号的xPU裸金属服务器,您可以通过弹性公网IP进行访问,在给定的操作系统镜像上可以自行安装加速卡相关的驱动和其他软件,使用SFS或OBS进行数据存储和读取相关的操作,满足算法工程师进行日常训练的需要。 父主题: 弹性裸金属DevServer
-
NFS服务安装与配置 - AI开发平台ModelArts
NFS服务安装与配置 NFS服务是ModelArts边缘资源池提供的数据存储卷服务,创建部署时可通过NFS挂载的方式访问共享数据,比如obs的模型文件。 涉及以下场景时,必须为资源池配置NFS服务: 创建AI应用时,元模型来源选择“从对象存储服务(OBS)中选择”,且AI引擎选择“Custom”。
-
通过自定义镜像创建AI应用失败 - AI开发平台ModelArts
导入AI应用使用的镜像地址不合法或实际镜像不存在 用户给ModelArts的委托中没有SWR相关操作权限 用户为子账号,没有主账号SWR的权限 使用的是非自己账号的镜像 使用的镜像为公开镜像 处理方法 到SWR检查下对应的镜像是否存在,对应镜像的镜像地址是否和实际地址一致,大小写,拼写等是否一致。
-
在容器镜像中安装MLNX - AI开发平台ModelArts
3.0-LTS 安装MLNX_OFED 以Ubuntu18.04的容器镜像为例,安装MLNX_OFED 4.9-6.0.6.0-LTS的Dockerfile示例如下。 Dockerfile中涉及文件下载,构建容器镜像的主机要求能够连通公网。 FROM nvidia/cuda:11.1
-
我的Gallery介绍 - AI开发平台ModelArts
我的Gallery介绍 登录AI Gallery,单击右上角“我的Gallery”进入我的Gallery页面,在“我的Gallery”页面可以查看个人资产、个人收藏、个人信息等内容。 表1 我的Gallery 分类 子类 功能说明 我的资产 模型 展示个人创建的模型,可以查看模型的发布时间、订阅量、收藏量等信息。
-
训练作业的“/cache”目录是否安全? - AI开发平台ModelArts
训练作业的“/cache”目录是否安全? ModelArts训练作业的程序运行在容器中,容器挂载的目录地址是唯一的,只有运行时的容器能访问到。因此训练作业的“/cache”是安全的。 父主题: 创建训练作业
-
专属资源池下的在线服务停止后,启动新的在线服务,提示资源不足 - AI开发平台ModelArts
专属资源池下的在线服务停止后,启动新的在线服务,提示资源不足 停止在线服务后,需要等待几分钟等待资源释放。 父主题: 资源池
-
报错“The VS Code Server failed to start”如何解决? - AI开发平台ModelArts
+Shift+P),搜索“Kill VS Code Server on Host”,选择出问题的实例进行自动清除,然后重新进行连接。 图1 清除异常的实例 父主题: VS Code连接开发环境失败常见问题
-
报错“An SSH installation couldn't be found”或者“Could not establish connection to instance xxx: 'ssh' ...”如何解决? - AI开发平台ModelArts
SSH.path属性添加到settings.json中,例如:"remote.SSH.path": "本地OpenSSH的安装路径" 父主题: VS Code连接开发环境失败常见问题
-
认证证书 - AI开发平台ModelArts
认证证书 合规证书 华为云服务及平台通过了多项国内外权威机构(ISO/SOC/PCI等)的安全合规认证,用户可自行申请下载合规资质证书。 图1 合规证书下载 资源中心 华为云还提供以下资源来帮助用户满足合规性要求,具体请查看资源中心。 图2 资源中心 销售许可证&软件著作权证书
-
访问在线服务(VPC高速访问通道) - AI开发平台ModelArts
只有专属资源池部署的服务才支持VPC直连的高速访问通道。 VPC直连的高速访问通道,目前只支持访问在线服务。 因流量限控,获取在线服务的IP和端口号次数有限制,每个主账号租户调用次数不超过2000次/分钟,每个子账号租户不超过20次/分钟。 目前仅支持自定义镜像导入模型,部署的服务支持高速访问通道。
-
本地开发的MindSpore模型迁移至云上训练 - AI开发平台ModelArts
原因是:PyCharm的PYTHONPATH会将Notebook中的环境变量中指定的“PYTHONPATH”进行覆盖,因此,还需要将te包所在的路径添加到PyCharm的“PYTHONPATH”中。 te包的路径通过“pip show te”查看,例如te包返回对应的路径为:“/usr
-
在k8s集群配置Ascend使用环境 - AI开发平台ModelArts
在安装了kubectl工具的机器上执行如下命令,显示集群节点即为成功。 kubectl get node Step 3:准备业务基础镜像 当前推荐的开发模式是在物理机上启动自己的docker容器进行开发。容器镜像可以使用自己的实际业务镜像,也可以使用ModelArts提供的基础镜像,Mod
-
管理ModelArts服务的委托授权 - AI开发平台ModelArts
调用查看授权列表接口查看用户的授权信息。 在管理用户授权时,可以调用删除授权接口删除指定用户的授权或者删除全量用户的授权。 前提条件 已获取IAM的EndPoint和ModelArts的EndPoint。 确认服务的部署区域,获取项目名称和ID、获取帐号名和ID和获取用户名和ID。 操作步骤
-
使用ma-cli image get-image查询ModelArts已注册镜像 - AI开发平台ModelArts
显示详细的信息开关,默认关闭。 -i / --image-id String 否 查询指定镜像ID的镜像详情。 -n / --image-name String 否 查询指定镜像名称的镜像详情。 -wi / --workspace-id String 否 查询指定工作空间下的镜像信息。