-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
制作自定义镜像 Step6 上传镜像至SWR服务 Step7 在ModelArts上创建训练作业 前提条件 已注册华为账号并开通华为云,且在使用ModelArts前检查账号状态,账号不能处于欠费或冻结状态。 Step1 创建OBS桶和文件夹 在OBS服务中创建桶和文件夹,用于存放样例数据集
-
创建DevServer - AI开发平台ModelArts
arch String 服务器镜像架构类型。 ARM; X86。 image_id String 服务器镜像ID。 name String 服务器镜像名称。 server_type String 服务器类型。 BMS: 裸金属服务器; ECS: 弹性云服务器。 请求示例 POST
-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
-
在k8s集群配置Ascend使用环境 - AI开发平台ModelArts
名称,跳转至弹性云服务器页面。 图9 节点管理 单击“远程登录”,在弹出的窗口中,单击“CloudShell登录”。 图10 远程登录 在CloudShell中设置密码等参数后,单击“连接”即可登录节点,CloudShell介绍可参见远程登录Linux弹性云服务器(CloudShell方式)。
-
裸金属服务器存储指南 - AI开发平台ModelArts
裸金属服务器存储指南 裸金属服务器结合OBS、SFS两种云存储服务,提供了多种场景下的存储解决方案。两种存储类型对比可参考SFS和OBS的区别。 1、弹性文件服务SFS 提供按需扩展的高性能文件存储(NAS),可为云上多个裸金属服务器(BMS)提供共享访问。 购买指南 挂载指南 服务器重启后自动挂载指南
-
上传数据和算法至SFS(首次使用时需要) - AI开发平台ModelArts
本案例中以obsutils方式上传文件,除此之外也可通过SCP方式上传文件,具体操作步骤可参考本地Linux主机使用SCP上传文件到Linux云服务器。 在SFS中将文件设置归属为ma-user。 chown -R ma-user:ma-group YOLOX 执行以下命令,去除Shell脚本的\r字符。
-
ModelArts计费模式概述 - AI开发平台ModelArts
按照订单的购买周期结算。 后付费 按照云服务器实际使用时长计费。 计费周期 按订单的购买周期计费。 秒级计费,按小时结算。 适用计费项 计算资源 计算资源、云硬盘 适用资源池 专属资源池 公共资源池、专属资源池 适用功能模块 自动学习、Workflow、Notebook、模型训练、服务部署 自动学习、
-
给子用户配置部署上线基本使用权限 - AI开发平台ModelArts
云服务:选择“ModelArts”。 持续时间:选择“永久”。 勾选新建的委托策略,然后单击“下一步”。设置最小授权范围选择“所有资源”,然后单击“确定”。 为子用户配置ModelArts委托权限。 在ModelArts服务页面的左侧导航选择“全局配置 ”,单击“添加授权”。授权对象选择子用户,在已有委托中选择新建的委托,然后单击“创建”。
-
我的Gallery介绍 - AI开发平台ModelArts
数据集 AI应用 示例 AI说 我的活动 - 展示个人参与的活动信息,可以查看活动名称、参与状态、活动状态等信息。 我的资源 云服务器 展示通过预申请算力创建的服务器列表。 申请管理 资产申请审核 展示了模型可用范围的申请单,模型所有者可以管理模型使用者的权限申请单。 我的算力预申请 展示了ModelArts
-
给子用户配置训练作业基本使用权限 - AI开发平台ModelArts
云服务:选择“ModelArts”。 持续时间:选择“永久”。 勾选新建的委托策略,然后单击“下一步”。设置最小授权范围选择“所有资源”,然后单击“确定”。 为子用户配置ModelArts委托权限。 在ModelArts服务页面的左侧导航选择“全局配置 ”,单击“添加授权”。授权对象选择子用户,在已有委托中选择新建的委托,然后单击“创建”。
-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
-
GPU裸金属服务器环境配置 - AI开发平台ModelArts
GPU裸金属服务器环境配置 GP Vnt1裸金属服务器EulerOS 2.9安装NVIDIA 515+CUDA 11.7 GP Vnt1裸金属服务器Ubuntu 18.04安装NVIDIA 470+CUDA 11.4 GP Vnt1裸金属服务器的Docker模式环境搭建 GP Ant8裸金属服务器Ubuntu
-
推理服务访问公网 - AI开发平台ModelArts
推理服务访问公网 本章节提供了推理服务访问公网的方法。 应用场景 推理服务访问公网地址的场景,如: 输入图片,先进行公网OCR服务调用,然后进行NLP处理; 进行公网文件下载,然后进行分析; 分析结果回调给公网服务终端。 方案设计 从推理服务的算法实例内部,访问公网服务地址的方案。如下图所示:
-
使用AI Gallery的订阅算法实现花卉识别 - AI开发平台ModelArts
费用说明:本案例使用过程中,从AI Gallery下载数据集和订阅算法免费,在ModelArts上运行训练作业推荐使用免费资源,将模型部署为在线服务推荐使用免费资源。但是数据集存储在OBS桶中会收取少量费用,具体计费请参见OBS价格详情页,案例使用完成后请及时清除资源和数据。 准备工作 注册华为账号并开通华为云、实名认证
-
GPU A系列裸金属服务器RoCE性能带宽测试 - AI开发平台ModelArts
确定带宽 服务器A:服务端从mlx4_0网卡接收数据 ib_write_bw -a -d mlx5_0 服务器B:客户端向服务端mlx4_0网卡发送数据。 ib_write_bw -a -F 服务器A的IP -d mlx5_0 --report_gbits 图1 服务器A执行结果
-
GPU A系列裸金属服务器更换NVIDIA和CUDA - AI开发平台ModelArts
GPU A系列裸金属服务器更换NVIDIA和CUDA 场景描述 当裸金属服务器预置的NVIDIA版本和业务需求不匹配时,需要更换NVIDIA驱动和CUDA版本。本文介绍华为云A系列GPU裸金属服务器(Ubuntu20.04系统)如何从“NVIDIA 525+CUDA 12.0”更换为“NVIDIA
-
Step4 使用调试成功的镜像用于推理部署 - AI开发平台ModelArts
“计算节点规格”:在下拉框中选择“限时免费”资源,勾选并阅读免费规格说明。 其他参数可使用默认值。 若限时免费资源售罄,建议选择收费CPU资源进行部署。当选择收费CPU资源部署在线服务时会收取少量资源费用,具体费用以界面信息为准。 参数配置完成后,单击“下一步”,确认规格参数后,单击“提交”启动在线服务的部署。
-
开通ModelArts资源 - AI开发平台ModelArts
开通ModelArts资源 ModelArts资源简介 免费体验 按需付费使用 购买套餐包
-
GP Vnt1裸金属服务器的Docker模式环境搭建 - AI开发平台ModelArts
GP Vnt1裸金属服务器的Docker模式环境搭建 场景描述 本文指导如何在Vnt1裸金属服务器上安装Docker环境(服务器系统需为Ubuntu18.04或Ubuntu20.04)。 操作步骤 NVIDIA驱动安装。 wget https://us.download.nvidia