检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用SDK调测单机训练作业 代码中涉及到的OBS路径,请用户替换为自己的实际OBS路径。 代码是以PyTorch为例编写的,不同的AI框架之间,整体流程是完全相同的,仅需修改6和10中的framework_type参数值即可,例如:MindSpore框架,此处framework_
设置告警规则有多种方式。您可以根据实际应用场景,选择设置告警规则的方式。 对ModelArts服务设置告警规则 对单个服务设置告警规则 对模型版本设置告警规则 对服务或模型版本的单个指标设置告警规则 方式一:对整个ModelArts服务设置告警规则 登录管理控制台。 在“服务列表”中选择“管理与监管
在当前安全组的入方向规则中添加一条规则,基本协议选择ICMP协议,详细配置如下表所示,添加规则步骤请参考添加安全组规则。 表1 入方向规则 方向 协议/应用 端口 源地址 入方向 ICMP 全部 0.0.0.0/0 华为云安全组支持的协议参考可参考下表。 表2 入方向规则 协议 端口 说明
、推理使用 ModelArts CodeLab(JupyterLab),让AI探索&教学更简单 云原生Notebook,案例内容秒级接入与分享 Serverless化实例管理,资源自动回收 免费算力,规格按需切换 亮点特性1:远程开发 - 支持本地IDE远程访问Notebook
登录SWR后,使用docker tag命令给上传镜像打标签。下面命令中的组织名称deep-learning,请替换为Step1中实际创建的组织名称,以下所有命令中的deep-learning都需要替换。 sudo docker tag tf-1.13.2:latest swr.example.c
在AI开发过程中,服务升级包括对已部署的模型服务进行优化,以提高性能、增加功能、修复缺陷,并适应新的业务需求。更新模型版本作为服务升级的一部分,涉及用新训练的模型版本替换原来的模型,以提高预测的准确性和模型的环境适应性。 登录ModelArts管理控制台。 在左侧导航栏中,选择“ModelArts Studio”进入ModelArts
按需计费 按需计费是一种先使用再付费的计费模式,适用于无需任何预付款或长期承诺的用户。本文将介绍按需计费资源的计费规则。 适用场景 按需计费适用于资源需求波动的场景,例如面向ToC业务的AIGC推理场景,客户业务量会随时间有规律的波动,按需计费模式能大幅降低客户的业务成本。可在运
按需计费模式的资源按照固定周期上报使用量到计费系统进行结算。按需计费模式产品根据使用量类型的不同,分为按小时、按天、按月三种周期进行结算,具体扣费规则可以参考按需产品周期结算说明。ModelArts专属资源池的按需计费模式按小时进行结算。 按需计费资源的扣费时间可能会滞后于结算周期,例如
本的用户。通过选择包年/包月的计费模式,您可以预先购买云服务资源并获得一定程度的价格优惠。本文将介绍ModelArts资源包年/包月的计费规则。 适用场景 包年/包月计费模式需要用户预先支付一定时长的费用,适用于长期、稳定的业务需求。以下是一些适用于包年/包月计费模式的业务场景:
针对刚创建的数据集(未发布前),无数据集版本信息,必须执行发布操作后,才能应用于模型开发或训练。 数据集版本,默认按V001、V002递增规则进行命名,您也可以在发布时自定义设置。 您可以将任意一个版本设置为当前目录,即表示数据集列表中进入的数据集详情,为此版本的数据集标注信息。
自动续费的到期前7日自动扣款属于系统默认配置,您也可以根据需要修改此扣款日,如到期前6日、到期前5日等。 更多关于自动续费的规则介绍请参见自动续费规则说明。 前提条件 请确认包年/包月专属资源池还未到期。 在ModelArts控制台开通自动续费 包年/包月的Standard专属资源池和弹性集群Lite
Standard训练作业和模型部署如何收费? Standard中训练作业如何收费? 如果您使用的是公共资源池,则根据您选择的规格、节点数、运行时长进行计费。计费规则为“规格单价×节点数×运行时长”(运行时长精确到秒)。 如果您使用的是专属资源池,则训练作业就不再进行单独计费。由专属资源池进行收费。 S
chmod 700 *.run # 注意替换成实际的包名 ./Ascend-hdk-型号-npu-firmware_版本号.run --full reboot 安装驱动,提示处输入“y”,安装完后直接生效不用重启机器。 # 注意替换成实际的包名 ./Ascend-hdk-型号
设置告警规则 监控对象指标配置 告警触发条件设置 告警通知设置 创建主题、设置主题策略、订阅主题 创建告警行动规则 选择已创建的行动规则 告警上报配置方法 登录AOM控制台。 单击“告警 > 告警规则”,在“告警规则”界面,单击“添加告警”。 填写告警基本信息。 设置告警规则。 “规则类型”选择“阈值规则”。
个Server的一个端口对应一条DNAT规则,一个端口只能映射到一个EIP,不能映射到多个EIP。 在DNAT规则页签下,单击“添加DNAT规则”。 在弹出的“添加DNAT规则页面”,配置DNAT规则: 使用场景:选择“虚拟私有云”。 端口类型:选择“具体端口”。 支持协议:选择“TCP”。
登录AOM控制台。 在左侧导航栏选择“告警管理 > 告警规则”,单击“创建”,创建告警规则。 设置告警规则(以NPU掉卡为例)。 规则类型:选择“指标告警规则”。 配置方式:选择“PromQL”。 设置告警规则详情。 默认规则:选择“自定义”。 命令行输入框(排除值为2的为无效数据):
“图像分割”只支持导出Pascal VOC格式的XML标注文件以及Mask图像。 导出到AI Gallery 用户可以将自己的数据发布到AI Gallery,将个人的数据分享给他人使用。用户要发布数据集到AI Gallery,数据集需要有状态为“正常”的数据集版本。 选中待发布的数据集,单击“更多”,选择“发布资产”。
_name}:${image_version}请替换为您所要上传的实际镜像的名称和版本名称。 [镜像仓库地址]:可在SWR控制台上查询,即1.c中登录指令末尾的域名。 [组织名称]:/${organization_name}请替换为您创建的组织。 [镜像名称2:版本名称2]:${
v1的DLS_TASK_NUMBER环境变量,可以使用v2的MA_NUM_HOSTS环境变量替换,即选择的训练节点数。 v1的DLS_TASK_INDEX环境变量,当前可以使用v2的VC_TASK_INDEX环境变量替换,下一步使用MA_TASK_INDEX替换,建议使用demo script中的方式获取,以保证兼容性。
ze调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考各个模型深度学习训练加速框架的选择,如原使用Accelerator可替换为Deepspeed-ZeRO-1,Deepspeed-ZeRO-1替换为Deepspeed-ZeRO-2以此类推,重新训练如未解决则执行下一步。