-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
以Linux x86_64架构的操作系统为例,获取Docker安装包。您可以使用以下指令安装Docker。关于安装Docker的更多指导内容参见Docker官方文档。 curl -fsSL get.docker.com -o get-docker.sh sh get-docker.sh
-
NPU Snt9B集合通信算子单机多卡性能测试指导 - AI开发平台ModelArts
10-Arm-rc3-64bit-for-Snt9B-BareMetal-with-CANN7.0.RC1。该镜像已经安装CANN和mpich,并进行了环境配置,若选择其他镜像需要先执行步骤1和2。 操作步骤 安装cann-toolkit。下载Ascend-cann-toolkit_6.3.T205_linux-aarch64
-
标注过程中,已经分配标注任务后,能否将一个labeler从标注任务中删除?删除后对标注结果有什么影响?如果不能删除labeler,能否删除将他的标注结果从整体标注结果中分离出来? - AI开发平台ModelArts
标注过程中,已经分配标注任务后,能否将一个labeler从标注任务中删除?删除后对标注结果有什么影响?如果不能删除labeler,能否删除将他的标注结果从整体标注结果中分离出来? 目前不支持从标注任务中删除labeler。 labeler的标注必须通过审核后,才能同步到最终结果,不支持单独分离操作。
-
VS Code中把本地的指定插件安装到远端或把远端插件安装到本地 - AI开发平台ModelArts
VS Code中把本地的指定插件安装到远端或把远端插件安装到本地 在VS Code的环境中执行Ctrl+Shift+P 搜install local,按需选择即可 父主题: VS Code使用技巧
-
(可选)本地安装ModelArts SDK - AI开发平台ModelArts
--version,显示如下内容说明Python已安装。 C:\Users\xxx>python --version Python *.*.* 检查是否已安装Python通用包管理工具pip。如果Python安装过程中没有安装通用包管理工具pip,则参见pip官网完成pip安装。 在本地环境执行命令pip
-
SDXL WebUI基于Devserver适配PyTorch NPU推理指导(6.3.902) - AI开发平台ModelArts
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装NPU设备和驱动,或释放被挂载的NPU。 检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y
-
是否支持本地安装MoXing? - AI开发平台ModelArts
是否支持本地安装MoXing? 不支持,目前MoXing只支持在ModelArts里面使用。 父主题: 规格限制
-
安装Gallery CLI配置工具 - AI开发平台ModelArts
安装Gallery CLI配置工具 使用AI Gallery的配置工具Gallery CLI前,需要先完成工具的下载和安装。 下载Gallery CLI配置工具包(本地) 如果是在本地服务器安装Gallery CLI配置工具,则参考本节将工具包下载至本地。 访问链接https:/
-
Moxing安装文件如何获取? - AI开发平台ModelArts
Moxing安装文件如何获取? Moxing安装文件不支持下载和用户自主安装。在ModelArts的Notebook和训练作业镜像中预置了Moxing安装包,用户可以直接引用。 父主题: 功能咨询
-
(可选)本地安装ma-cli - AI开发平台ModelArts
(可选)本地安装ma-cli 使用场景 本文以Windows系统为例,介绍如何在Windows环境中安装ma-cli。 Step1:安装ModelArts SDK 参考本地安装ModelArts SDK 完成SDK的安装。 Step2:下载ma-cli 下载ma-cli软件包。 完成软件包签名校验。
-
训练速度突然下降以及执行nvidia-smi卡顿的解决方法 - AI开发平台ModelArts
训练速度突然下降以及执行nvidia-smi卡顿的解决方法 问题现象 在高性能8卡GPU的裸金属上的训练任务突然变慢,以前1个epoch约2小时执行完成,最近1个epoch需要2天才能执行完成,并且执行“nvidia-smi”也明显变很卡顿。 原因分析 根据现象描述可能出现了nvidia-smi
-
安装VS Code软件及插件 - AI开发平台ModelArts
并单击“安装”。 图4 安装VS Code插件 安装过程预计1~2分钟,如图5所示,请耐心等待。 图5 安装过程 安装完成后,系统右下角提示安装完成,导航左侧出现ModelArts图标和SSH远程连接图标,表示VS Code插件安装完成。 图6 安装完成提示 图7 安装完成 当前
-
NVIDIA和CUDA驱动安装指南 - AI开发平台ModelArts
182.03.run 运行安装文件。 ./NVIDIA-Linux-x86_64-470.182.03.run 至此NVIDIA-DRIVER驱动安装完成。 2、 安装CUDA驱动 上文安装NVIDIA驱动是根据CUDA12.0选择的安装包, 因此下文默认安装CUDA 12.0 进入CUDA
-
如何在CodeLab上安装依赖? - AI开发平台ModelArts
如何在CodeLab上安装依赖? ModelArts CodeLab中已安装Jupyter、Python程序包等多种环境,您也可以使用pip install在Notebook或Terminal中安装依赖包。 在Notebook中安装 在总览页面进入CodeLab。 在“Noteb
-
使用MobaXterm工具SSH连接Notebook后,经常断开或卡顿,如何解决? - AI开发平台ModelArts
使用MobaXterm工具SSH连接Notebook后,经常断开或卡顿,如何解决? 问题现象 MobaXterm成功连接到开发环境后,过一段时间会自动断开。 可能原因 配置MobaXterm工具时,没有勾选“SSH keepalive”或专业版MobaXterm工具的“Stop server
-
Step4 上传镜像至SWR - AI开发平台ModelArts
com/deep-learning/mindspore:2.1.1-cann6.3.RC2”即为此自定义镜像的“SWR_URL”。 父主题: 示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)
-
NPU Snt9B集合通信算子多机多卡性能测试指导 - AI开发平台ModelArts
N7.0.RC1。该镜像已经安装CANN和mpich,并进行了环境配置,若选择其他镜像需要先执行步骤1和2。 前提条件 确保主节点已经配置了其他节点机器的免密登录,配置方法参考NPU Snt9B裸金属服务器多机免密互通解决方案。 确保mpirun的安装路径都是相同的。 确保设置的
-
示例:从0到1制作自定义镜像并用于训练(Horovod-PyTorch+GPU) - AI开发平台ModelArts
此处介绍如何通过编写Dockerfile文件制作自定义镜像的操作步骤。 安装Docker。 以Linux x86_64架构的操作系统为例,获取Docker安装包。您可以使用以下指令安装Docker。关于安装Docker的更多指导内容参见Docker官方文档。 curl -fsSL
-
Step5 在ModelArts上创建Notebook并调试 - AI开发平台ModelArts
保存Notebook镜像操作请参见保存Notebook镜像环境。 已有的镜像调试成功后,再使用ModelArts训练模块训练作业。 父主题: 示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)
-
Step1 创建OBS桶和文件夹 - AI开发平台ModelArts
用于存储Ascend训练脚本的启动脚本。 obs://test-modelarts/ascend/log/ 用于存储训练日志文件。 父主题: 示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)