-
按需转包年/包月 - AI开发平台ModelArts
约束限制 专属资源池计费模式为“按需计费”。 只有订购实例状态是“使用中”的资源才能变更资费。 计费模式变更只支持以专属资源池为粒度进行整体变更,不支持以规格为粒度进行部分变更。 一个专属资源池的所有节点,必须为一种计费模式,全部为按需计费模式或全部为包年/包月计费模式。不支持部分节点为按需计费,部分节点为包年/包月计费。
-
从DLI导入数据 - AI开发平台ModelArts
队列名称:系统自动将当前账号下的DLI队列展现在列表中,用户可以在下拉框中选择需要的队列。 数据库名称:根据选择的队列展现所有的数据库,请在下拉框中选择您所需的数据库。 表名称:根据选择的数据库展现此数据库中的所有表。请在下拉框中选择您所需的表。 DLI的default队列只用作体验,不同账
-
使用案例 - AI开发平台ModelArts
steps=[model_registration] ) 使用订阅模型+OBS的方式注册模型 该方式本质上与自定义镜像+OBS的方式没有区别,只是自定义镜像变成从订阅模型中获取。 具体使用案例: import modelarts.workflow as wf # 定义订阅的模型对象 base_model
-
从DWS导入数据 - AI开发平台ModelArts
在下拉框中选择您所需的DWS集群。 数据库名称:根据选择的DWS集群,填写数据所在的数据库名称。 表名称:根据选择的数据库,填写数据所在的表。 用户名:输入DWS集群管理员用户的用户名。 密码:输入DWS集群管理员用户的密码。 从DWS导入数据,需要借助DLI的功能,如果用户没有
-
数据集连接 - AI开发平台ModelArts
数据集连接 概述 “连接”节点是关系数据库中常用的方法之一,用于以特定的方式将两个数据集联接在一起。 输入 参数 子参数 参数说明 inputs left_dataframe inputs为字典类型,left_dataframe为执行连接操作的左数据集 right_dataframe
-
NPU Snt9B如何快速使用Container-NPU模式 - AI开发平台ModelArts
NPU Snt9B如何快速使用Container-NPU模式 场景描述 本文介绍如何在Snt9B服务器上快速使用Container-NPU模式,本文所使用的服务器操作系统为欧拉系统且已经安装npu-driver。 操作步骤 配置yum源。yum源路径为“/etc/yum.repos
-
GPU A系列裸金属服务器节点内NVLINK带宽性能测试方法(Pytorch模式) - AI开发平台ModelArts
400GB/s。使用上述测试脚本测得带宽性能进行如下分析。 正常模式-NVLINK全互通,带宽约为370GB。基本符合预期,且证明Ant GPU裸金属服务器内部GPU间确实走NVLINK模式,且完全互联。 图2 正常模式带宽性能 异常模式-NVLINK部分互通,出现带宽波动较大的情况。如下图
-
从AI Gallery下载数据集 - AI开发平台ModelArts
> 数据集”页签,默认进入公共页面,该页面展示了所有共享的数据集。 搜索业务需要的数据集,单击目标数据集进入详情页面。 在数据集详情页面单击“下载”。选择数据集下载方式,下载至OBS或者ModelArts数据集。 将数据集下载至OBS “下载方式”选择“对象存储服务(OBS)”。
-
ModelArts - AI开发平台ModelArts
资源购买 基本配置 调试与训练 FAQ 06 AI全流程 面向熟悉代码编写和调测,熟悉常见AI引擎的开发者,ModelArts不仅提供了在线代码开发环境,还提供了从模型训练、模型管理到模型部署上线的端到端开发流程(即AI全流程开发),帮助您高效、快速的构建一个可用模型。 准备工作 配置ModelArts访问授权
-
在线服务预测时,如何提高预测速度? - AI开发平台ModelArts
部署在线服务时,您可以增加“计算节点个数”。 如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。您可以根据实际需求进行选择。 推理速度与模型复杂度强相关,您可以尝试优化模型提高预测速度。 ModelArts中提供了模型版本管理的功能,方便溯源和模型反复调优。 图1
-
GP Ant8裸金属服务器使用Megatron-Deepspeed训练GPT2并推理 - AI开发平台ModelArts
文本生成、机器翻译和对话系统等。 DeepSpeed是NVIDIA开源的加速深度学习训练的库。它针对大规模的模型和分布式训练进行了优化,可以显著提高训练速度和效率。DeepSpeed提供了各种技术和优化策略,包括分布式梯度下降、模型并行化、梯度累积和动态精度缩放等。它还支持优化大模型的内存使用和计算资源分配。
-
管理模型的可用范围 - AI开发平台ModelArts
撤销审批:单击用户操作列的“撤销”可以取消已审批通过或已拒绝的用户权限,用户的“审批状态”从“已审批”变成“未审批”,或者从“已拒绝”变成“未审批”。 同意用户使用该资产:单击用户操作列的“同意”可以通过用户的申请,用户的“审批状态”从“未审批”变成“已审批”。 拒绝用户使用该资产:单击用户操作列的“拒绝”并填写拒
-
欠费说明 - AI开发平台ModelArts
的余额充足。 未购买资源包,在按需计费模式下账户的余额不足。 欠费影响 包年/包月 对于包年/包月专属资源池,用户已经预先支付了资源费用,因此在账户出现欠费的情况下,已有的包年/包月专属资源池仍可正常使用。然而,对于涉及费用的操作,如将数据存储至OBS或EVS、续费订单等,用户将无法正常进行。
-
Stable Diffusion WebUI如何适配? - AI开发平台ModelArts
Stable Diffusion WebUI如何适配? WebUI一般可以分为前端和后端实现两部分,后端的实现模式种类多样,并且依赖了多个的第三方库,当前在WebUI适配时,并没有特别好的方式。在对后端实现比较理解的情况下,建议针对具体的功能进行Diffusers模块的适配与替换
-
FP-growth - AI开发平台ModelArts
FP-growth 概述 “FP-Growth”节点用于挖掘频繁模式,该算法使用了一种称为频繁模式树(Frequent Pattern Tree)的数据结构。FP-tree是一种特殊的前缀树,由频繁项头表和项前缀树构成。FP-Growth算法基于以上的结构加快整个挖掘过程。 输入
-
精度问题处理 - AI开发平台ModelArts
在转换模型时,默认采用的精度模式是fp16,如果转换得到的模型和标杆数据的精度差异比较大,可以使用fp32精度模式提升模型的精度(这块无需全换成fp32,fp32相对于fp16性能较差,所以一般检测出来哪个模型精度有问题时,再尝试是否用fp32)。使用fp32精度模式的配置文件如下: 配置文件:
-
查看训练容器环境变量 - AI开发平台ModelArts
查看训练容器环境变量 什么是环境变量 本章节展示了训练容器环境中预置的环境变量,方便用户查看,主要包括以下类型。 路径相关环境变量 分布式训练任务环境变量 NCCL(Nvidia Collective multi-GPU Communication Library)环境变量 OBS环境变量
-
给子用户配置文件夹级的SFS Turbo访问权限 - AI开发平台ModelArts
S Turbo文件夹内容。 前提条件 需要在ModelArts控制台打开严格授权模式,单击“全局配置 > 启用严格模式”。 如果打开严格模式前没有为子用户配置过ModelArts权限,开启严格授权模式后可能会导致子用户无法使用ModelArts功能,请根据您的业务需求配置需要的M
-
使用样例的有标签的数据或者自己通过其他方式打好标签的数据放到OBS桶里,在modelarts中同步数据源以后看不到已标注,全部显示为未标注 - AI开发平台ModelArts
使用样例的有标签的数据或者自己通过其他方式打好标签的数据放到OBS桶里,在modelarts中同步数据源以后看不到已标注,全部显示为未标注 OBS桶设置了自动加密会导致此问题,需要新建OBS桶重新上传数据,或者取消桶加密后,重新上传数据。 父主题: 数据管理(旧版)
-
MXNet-py36通用模板 - AI开发平台ModelArts
MXNet-py36通用模板 简介 搭载MXNet1.2.1 AI引擎,运行环境为“python3.6”,内置输入输出模式为未定义模式,请根据模型功能或业务场景重新选择合适的输入输出模式。使用该模板导入模型时请选择到包含模型文件的model目录。 模板输入 存储在OBS上的MXNet模型包,