-
套餐包 - AI开发平台ModelArts
规格的套餐包。 ModelArts提供了AI全流程开发的套餐包,面向有AI基础的开发者,提供机器学习和深度学习的算法开发及部署全功能,包含数据处理、模型开发、模型训练、模型管理和部署上线流程。 约束限制 套餐包在购买和使用时的限制如下: 套餐包和购买时选定的区域绑定,套餐包只能使
-
基本概念 - AI开发平台ModelArts
不同地区创建云资源,可以将应用程序设计的更接近特定客户的要求,或满足不同地区的法律或其他要求。 可用区 一个可用区(AZ)是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。
-
使用ma-cli image build命令在ModelArts Notebook中进行镜像构建 - AI开发平台ModelArts
ag格式,针对于构建保存tar包场景可以省略。 --context String 否 Dockerfile构建时的上下文信息路径,主要用于数据复制。 -arg / --build-arg String 否 指定构建参数,多个构建参数可以使用--build-arg VERSION=18
-
使用MLS预置算链进行机器学习建模 - AI开发平台ModelArts
图6 右键选择展示运行结果 图7 无运行结果 图8 有运行结果 Step2 使用模型进行预测 模型建立完成后,使用已经保存好的模型和餐厅预测数据,可以预测销售额。 在算链页签的预置算链目录下, 双击打开销售销量预测, 如图9所示。 图9 销售销量预测 单击导航栏运行算链。运行过程需
-
配置访问授权(全局配置) - AI开发平台ModelArts
而ModelArts还有一个特殊的地方在于,为了完成AI计算的各种操作,AI平台在任务执行过程中需要访问用户的其他服务,典型的就是训练过程中,需要访问OBS读取用户的训练数据。在这个过程中,就出现了ModelArts“代表”用户去访问其他云服务的情形。从安全角度出发,ModelArts代表用户访问任何云服务之前
-
pipeline代码适配 - AI开发平台ModelArts
mgPipeline 模型初始化 使用MindSpore Lite进行推理时一般需要先设置目标设备的上下文信息,然后构建推理模型,获取输入数据,模型预测并得到最终的结果。一个基础的推理框架写法如下所示: # base_mslite_demo.py import mindspore_lite
-
示例:从0到1制作自定义镜像并用于训练(MindSpore+GPU) - AI开发平台ModelArts
” 用于存储数据集文件。 “obs://test-modelarts/mindspore-gpu/output/” 用于存储训练输出文件。 “obs://test-modelarts/mindspore-gpu/log/” 用于存储训练日志文件。 Step2 创建数据集并上传至OBS
-
容器镜像拉取 - AI开发平台ModelArts
3这3块卡,-用于指定范围 # -v /home:/home_host是指将宿主机home目录挂载到容器home_host目录,建议在容器中使用该挂载目录进行代码和数据的存储以便持久化 docker run -itd --cap-add=SYS_PTRACE -e ASCEND_VISIBLE_DEVICES=0
-
创建DevServer - AI开发平台ModelArts
否 String 服务器类型。 BMS: 裸金属服务 ECS: 弹性云服务 userdata 否 String 创建服务器时,用户自己定义数据。 表3 ChargingInfo 参数 是否必选 参数类型 描述 charging_mode 是 String charing mode
-
使用案例 - AI开发平台ModelArts
tion_info") # name字段必填,title, description可选填 # 通过JobStep来定义一个训练节点,输入数据来源为OBS,并将训练结果输出到OBS中 job_step = wf.steps.JobStep( name="training_job"
-
动态shape - AI开发平台ModelArts
--configFile=config.ini 注意:推理应用开发时,需要使用模型的Resize功能,改变输入的shape。而且Resize操作需要在数据从host端复制到device端之前执行,下面是一个简单的示例,展示如何在推理应用时使用动态Shape。 import mindspore_lite
-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
“obs://test-modelarts/tensorflow/data/” 用于存储数据集文件。 “obs://test-modelarts/tensorflow/log/” 用于存储训练日志文件。 Step2 创建数据集并上传至OBS 使用网站https://storage.googleapis
-
订阅Workflow - AI开发平台ModelArts
付”、“版本”、“限制”和“评论”等信息。 在详情页面单击“订阅”。 如果订阅的是非华为云官方资产,则会弹出“温馨提示”页面,勾选并阅读《数据安全与隐私风险承担条款》和《华为云AI Gallery服务协议》后,单击“继续订阅”才能继续进行模型订阅。 Workflow被订阅后,详情
-
部署AI Gallery模型为AI应用 - AI开发平台ModelArts
在“所在区”选择计算规格所在的区域。默认显示全部区域的计算规格。 选择计算规格不可用的资源会置灰。右侧“配置信息”区域会显示计算规格的详细数据,AI Gallery会基于资产和资源情况分析该任务是否支持设置“商品数量”,用户可以基于业务需要选择任务所需的资源卡数。 在“运行时长控制”选择是否指定运行时长。
-
订阅免费模型 - AI开发平台ModelArts
认”跳转至ModelArts控制台的“算法管理 > 我的订阅”页面。 如果订阅的是非华为云官方资产,则会弹出“温馨提示”页面,勾选并阅读《数据安全与隐私风险承担条款》和《华为云AI Gallery服务协议》后,单击“继续订阅”才能继续进行模型订阅。 使用免费模型 从AI Gall
-
进阶用法 - AI开发平台ModelArts
Storage 该对象是InputStorage和OutputStorage的基类,包含了两者的所有能力,可以供用户灵活使用。 属性 描述 是否必填 数据类型 name 名称。 是 str title 不填默认使用name的值。 否 str description 描述信息。 否 str create_dir
-
Step2 为用户配置云服务使用权限 - AI开发平台ModelArts
FullAccess,请谨慎配置。 配置OBS使用权限。搜索OBS,勾选“ OBS Administrator”。ModelArts训练作业中需要依赖OBS作为数据中转站,需要配置OBS的使用权限。 配置SWR使用权限。搜索SWR,勾选“SWR FullAccess”。ModelArts的自定义镜像功能依赖镜像服务SWR
-
不同机型的对应的软件配套版本 - AI开发平台ModelArts
eulerosv2r9.x86_64 架构类型:x86 RDMA:Remote Direct Memory Access(RDMA)是一种直接内存访问技术,将数据直接从一台计算机的内存传输到另一台计算机。 RoCE:RDMA over Converged Ethernet(RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。
-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
“obs://test-modelarts/tensorflow/data/” 用于存储数据集文件。 “obs://test-modelarts/tensorflow/log/” 用于存储训练日志文件。 Step2 创建数据集并上传至OBS 使用网站https://storage.googleapis
-
通过 patch 操作对服务进行更新 - AI开发平台ModelArts
PatchServiceV2RequestBody objects 参照 json patch 的格式。目前 path 只能以 “/config” 为前缀,即只能修改模型数据。 表4 PatchServiceV2RequestBody 参数 是否必选 参数类型 描述 op 否 String 操作类型,目前仅支持replace。