-
安装VS Code软件及插件 - AI开发平台ModelArts
1.57.1版本或者最新版本进行远程连接。 VS Code安装指导如下: 图2 Windows系统下VS Code安装指导 图3 Linux系统下VS Code安装指导 Linux系统用户,需要在非root用户进行VS Code安装。 Step2 安装VS Code插件 在本地的VS
-
使用Moxing时如何定义路径变量? - AI开发平台ModelArts
使用Moxing时如何定义路径变量? 问题描述 mox.file.copy_parallel(src_obs_dir=input_storage,'obs://dyyolov8/yolov5_test/yolov5-7.0/datasets'), mox这个函数怎么定义以变量的形式填写OBS路径?
-
上传场景和入口介绍 - AI开发平台ModelArts
ook后, 在Terminal中解压压缩包。 unzip xxx.zip #在xxx.zip压缩包所在路径直接解压 解压命令的更多使用说明可以在主流搜索引擎中查找Linux解压命令操作。 多个文件同时上传时,JupyterLab窗口最下面会显示上传文件总数和已上传文件数。 前提条件
-
训练输出路径被其他作业使用 - AI开发平台ModelArts
训练输出路径被其他作业使用 问题现象 在创建训练作业时出现如下报错:操作失败!Other running job contain train_url: /bucket-20181114/code_hxm/ 原因分析 根据报错信息判断,在创建训练作业时,同一个“训练输出路径”在被其他作业使用。
-
训练代码中,如何获取依赖文件所在的路径? - AI开发平台ModelArts
训练代码中,如何获取依赖文件所在的路径? 由于用户本地开发的代码需要上传至ModelArts后台,训练代码中涉及到依赖文件的路径时,用户设置有误的场景较多。因此推荐通用的解决方案:使用os接口得到依赖文件的绝对路径,避免报错。 以下示例展示如何通过os接口获得其他文件夹下的依赖文件路径。 示例文件目录结构:
-
第三方推理框架迁移到推理自定义引擎 - AI开发平台ModelArts
} 准备启动脚本。 启动前先创建ssl证书,然后启动TFServing的启动脚本。 启动脚本run.sh示例代码如下: #!/bin/bash mkdir -p /etc/nginx/ssl/server && cd /etc/nginx/ssl/server cipherText=$(openssl
-
NFS服务安装与配置 - AI开发平台ModelArts
图,表示配置正确,即NFS服务安装成功。 showmount -e localhost ModelArts节点信息配置 登录主控节点的Linux机器。 ssh <用户名>@<节点IP> 用户名:登录服务器的用户名。 节点IP:登录服务器的IP地址。若节点是云服务器,可在云服务器控制台中查询。
-
如何保证训练和调试时文件路径保持一致 - AI开发平台ModelArts
如何保证训练和调试时文件路径保持一致 云上挂载路径 Notebook中挂载SFS后,SFS默认在“/home/ma-user/work”路径下。在创建训练作业时,设置SFS Turbo的“云上挂载路径”为“/home/ma-user/work”,使得训练环境下SFS也在“/home/ma-user/work”路径下。
-
Wav2Lip基于DevServer适配PyTorch NPU训练指导(6.3.902) - AI开发平台ModelArts
如果出现报错SSL certificate problem: self signed certificate in certificate chain 图2 报错SSL certificate problem 可采取忽略SSL证书验证:使用以下命令来克隆仓库,它将忽略SSL证书验证。 git
-
在Notebook上安装配置Grafana - AI开发平台ModelArts
https://dl.grafana.com/oss/release/grafana-9.1.6.linux-amd64.tar.gz tar -zxvf grafana-9.1.6.linux-amd64.tar.gz 将Grafana注册到jupyter-server-proxy。
-
ModelArts SDK下载文件目标路径设置为文件名,部署服务时报错 - AI开发平台ModelArts
ModelArts SDK下载文件目标路径设置为文件名,部署服务时报错 问题现象 ModelArts SDK在OBS下载文件时,目标路径设置为文件名,在本地IDE运行不报错,部署为在线服务时报错。 代码如下: session.obs.download_file(obs_path,
-
ModelArts CLI命令功能介绍 - AI开发平台ModelArts
ma-cli命令。 ma-cli在本地Windows/Linux环境中需要安装后在本地Terminal中使用。安装步骤具体可参考(可选)本地安装ma-cli。 ma-cli不支持在git-bash上使用。 推荐使用Linux Bash、ZSH、Fish,WSL或PowerShel
-
NPU Snt9B集合通信算子单机多卡性能测试指导 - AI开发平台ModelArts
安装cann-toolkit。下载Ascend-cann-toolkit_6.3.T205_linux-aarch64.run,并执行: ./Ascend-cann-toolkit_6.3.T205_linux-aarch64.run --quiet --full 安装mpich-3.2.1
-
访问在线服务(Token认证) - AI开发平台ModelArts
en信息,即scope参数的取值为project。 预测文件的本地路径既可使用绝对路径(如Windows格式"D:/test.png",Linux格式"/opt/data/test.png"),也可以使用相对路径(如"./test.png")。 在线服务的调用地址和输入参数信息,可以在控制台的“在线服务详情
-
自定义python包中如果引用model目录下的文件,文件路径怎么写 - AI开发平台ModelArts
录下的文件,文件路径怎么写 如果容器中的文件实际路径不清楚,可以使用Python获取当前文件路径的方法获取。 os.getcwd() #获取文件当前工作目录路径(绝对路径) os.path.realpath(__ file __) #获得文件所在的路径(绝对路径) 也可在搜索引擎
-
场景介绍 - AI开发平台ModelArts
itHub的开源仓库,可能是类似开源数据集(https://nodejs.org/dist/v12.4.0/node-v12.4.0-linux-x64.tar.xz)这样的远端文件,也可能是存放在OBS中的文件,ModelArts之前无法将这些文件直接上传到Notebook中;
-
upload后,数据将上传到哪里? - AI开发平台ModelArts
如果您创建的Notebook使用OBS存储实例时 单击“upload”后,数据将直接上传到该Notebook实例对应的OBS路径下,即创建Notebook时指定的OBS路径。 如果您创建的Notebook使用EVS存储实例时 单击“upload”后,数据将直接上传至当前实例容器中,即在“
-
使用基础镜像构建新的训练镜像 - AI开发平台ModelArts
您可以参考如下步骤基于训练基础镜像来构建新镜像。 安装Docker。如果docker images命令可以执行成功,表示Docker已安装,此步骤可跳过。 以linux x86_64架构的操作系统为例,获取Docker安装包。您可以使用以下指令安装Docker。 curl -fsSL get.docker
-
VS Code连接后长时间未操作,连接自动断开 - AI开发平台ModelArts
开操作,SSH默认配置中不存在超时主动断连的动作,但是防火墙会关闭超时空闲连接(参考:http://bluebiu.com/blog/linux-ssh-session-alive.html),后台的实例运行是一直稳定的,重连即可再次连上。 解决方法 如果想保持长时间连接不断开,
-
创建训练作业界面无云存储名称和挂载路径排查思路 - AI开发平台ModelArts
创建训练作业界面无云存储名称和挂载路径排查思路 问题现象 创建训练作业界面没有云存储名称和挂载路径这两个选项。 原因分析 用户的专属资源池没有进行网络打通,或者用户没有创建过SFS。 处理方法 在专属资源池列表中,单击资源池“ID/名称”,进入详情页。单击右上角“配置NAS VPC”,检查是否开启了NAS