-
线下容器镜像构建及调试 - AI开发平台ModelArts
wget https://repo.anaconda.com/miniconda/Miniconda3-py37_4.12.0-Linux-x86_64.sh && \ chmod 777 Miniconda3-py37_4.12.0-Linux-x86_64.sh
-
GP Vnt1裸金属服务器的Docker模式环境搭建 - AI开发平台ModelArts
com/tesla/515.105.01/NVIDIA-Linux-x86_64-515.105.01.run chmod +x NVIDIA-Linux-x86_64-515.105.01.run ./NVIDIA-Linux-x86_64-515.105.01.run CUDA
-
如何安装第三方包,安装报错的处理方法 - AI开发平台ModelArts
'manylinux1_x86_64'), ('cp36', 'cp36m', 'linux_x86_64'), ('cp36', 'abi3', 'manylinux1_x86_64'), ('cp36', 'abi3', 'linux_x86_64'), ('cp36', 'none', 'manylinux1_x86_64')
-
安装VS Code软件及插件 - AI开发平台ModelArts
1.57.1版本或者最新版本进行远程连接。 VS Code安装指导如下: 图2 Windows系统下VS Code安装指导 图3 Linux系统下VS Code安装指导 Linux系统用户,需要在非root用户进行VS Code安装。 Step2 安装VS Code插件 在本地的VS
-
容器化个人调测环境搭建 - AI开发平台ModelArts
/Ascend-cann-toolkit_6.3.RC2_linux-aarch64.run --full --install-for-all 如果已安装,但需要升级版本,注意替换包名: chmod 700 *.run ./Ascend-cann-toolkit_6.3.RC2_linux-aarch64.run
-
如何禁止Ubuntu 20.04内核自动升级 - AI开发平台ModelArts
令: sudo apt-mark hold linux-image-5.4.0-42-generic linux-headers-5.4.0-42-generic linux-modules-5.4.0-42-generic linux-modules-extra-5.4.0-42-generic
-
如何导入大文件到Notebook中? - AI开发平台ModelArts
ok后, 可在Terminal中解压压缩包。 unzip xxx.zip #在xxx.zip压缩包所在路径直接解压 解压命令的更多使用说明可以在主流搜索引擎中查找Linux解压命令操作。 父主题: 文件上传下载
-
SDXL ComfyUI插件基于DevServer适配PyTorch NPU推理指导 - AI开发平台ModelArts
如果出现报错SSL certificate problem: self signed certificate in certificate chain 图1 报错SSL certificate problem 可采取忽略SSL证书验证:使用以下命令来克隆仓库,它将忽略SSL证书验证。 git
-
在Notebook上安装配置Grafana - AI开发平台ModelArts
/home/ma-user/work/grf wget https://dl.grafana.com/oss/release/grafana-9.1.6.linux-amd64.tar.gz tar -zxvf grafana-9.1.6.linux-amd64.tar.gz 将Grafana
-
JupyterLab默认工作路径是什么? - AI开发平台ModelArts
JupyterLab默认工作路径是什么? 带OBS存储的Notebook实例(旧版Notebook) JupyterLab文件默认存储路径,为创建Notebook时指定的OBS路径。 在文件列表的所有文件读写操作都是基于所选择的OBS路径下的内容操作的,跟当前实例空间没有关系。如
-
上传本地大文件(100MB~5GB)至JupyterLab - AI开发平台ModelArts
如果使用OBS中转需要提供一个OBS中转路径,可以通过以下三种方式提供: 图2 通过OBS中转路径上传 仅第一次单击“OBS中转”需要提供OBS中转路径,以后默认使用该路径直接上传,可以通过上传文件窗口左下角的设置按钮更新OBS中转路径。如图6所示。 方式一:在输入框中直接输入有效的OBS中转路径,然后单击“确定”完成。
-
GP Ant8裸金属服务器支持的镜像详情 - AI开发平台ModelArts
nvidia-container-toolkit 1.13.3-1 nvidia-fabricmanager 525.105.17 mlnx-ofed-linux 5.8-2.0.3.0-ubuntu20.04-x86_64 nvidia-peer-memory-dkms 1.2-0 libnccl2
-
GP Vnt1裸金属服务器用PyTorch报错CUDA initialization:CUDA unknown error - AI开发平台ModelArts
nvidia-modprobe是一个Linux工具,用于在系统中加载NVIDIA驱动程序及其相关的内核模块。在Linux系统上安装NVIDIA显卡驱动后,需要通过“nvidia-modprobe”命令来加载相应的内核模块,以便让显卡驱动正常工作。 通常情况下,在安装NVIDIA驱动时,会
-
安装配置Grafana - AI开发平台ModelArts
安装配置Grafana 在Windows上安装配置Grafana 在Linux上安装配置Grafana 在Notebook上安装配置Grafana 父主题: 使用Grafana查看AOM中的监控指标
-
训练作业常用文件路径是什么? - AI开发平台ModelArts
训练作业常用文件路径是什么? 训练环境的当前目录以及代码目录在容器的位置一般通过环境变量${MA_JOB_DIR}读取,${MA_JOB_DIR}变量对应的实际值是/home/ma-user/modelarts/user-job-dir。 父主题: 编写训练代码
-
场景介绍 - AI开发平台ModelArts
上传;其次需要上传的文件并不都在本地,可能是GitHub的开源仓库,可能是类似开源数据集(https://nodejs.org/dist/v12.4.0/node-v12.4.0-linux-x64.tar.xz)这样的远端文件,也可能是存放在OBS中的文件,ModelArts之
-
物理机环境配置 - AI开发平台ModelArts
run时可以自动挂载昇腾driver等路径到容器,无需在启动容器时手工指定--device参数。下载好后将包上传到服务器并进行安装。 chmod 700 *.run ./Ascend-hdk-型号-npu-driver_版本号_linux-aarch64.run --install
-
NPU Snt9B裸金属服务器安装深度学习框架PyTorch - AI开发平台ModelArts
0/torch_npu-1.11.0.post4-cp37-cp37m-linux_aarch64.whl pip3 install torch_npu-1.11.0.post4-cp37-cp37m-linux_aarch64.whl 验证命令。 python3 -c "import
-
使用基础镜像构建新的训练镜像 - AI开发平台ModelArts
您可以参考如下步骤基于训练基础镜像来构建新镜像。 安装Docker。如果docker images命令可以执行成功,表示Docker已安装,此步骤可跳过。 以linux x86_64架构的操作系统为例,获取Docker安装包。您可以使用以下指令安装Docker。 curl -fsSL get.docker
-
NPU Snt9B集合通信算子多机多卡性能测试指导 - AI开发平台ModelArts
安装cann-toolkit。下载Ascend-cann-toolkit_6.3.T205_linux-aarch64.run,并执行: ./Ascend-cann-toolkit_6.3.T205_linux-aarch64.run --quiet --full 安装mpich-3.2.1