-
SD1.5基于DevServer适配MindSpore-Lite NPU推理指导(6.3.T041) - AI开发平台ModelArts
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。
-
Open-Clip基于DevServer适配PyTorch NPU训练指导 - AI开发平台ModelArts
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。
-
SDXL基于DevServer适配MindSpore-Lite NPU推理指导(6.3.T041) - AI开发平台ModelArts
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。
-
训练profiling工具使用 - AI开发平台ModelArts
如果是在docker中运行tensorboard,启动docker容器的时候,需要将tensorboard的端口映射到宿主机的端口,这样才能在浏览器基于宿主机的ip+宿主机的端口访问tensorboard服务;同时启动tensorboard的时候,需要“—bind_all”参数。
-
SDXL基于Standard适配PyTorch NPU的Finetune训练指导(6.3.905) - AI开发平台ModelArts
图1 购买ECS 安装Docker。 检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker 配置IP转发,用于容器内的网络访问。
-
推理性能测试 - AI开发平台ModelArts
--host ${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口8080。 --tokenizer:tokenizer路径,HuggingFace的权重路径。
-
Notebook自定义镜像故障基础排查 - AI开发平台ModelArts
/home/ma-user权限为750,不能为其他权限; 用户自定义镜像使用远程SSH功能,OpenSSH版本要兼容或高于8.0; 用户制作的自定义镜像,在本地执行docker run启动,无法正常运行; 用户自行安装了Jupyterlab服务导致冲突的,需要用户本地使用Jupyterlab
-
NFS服务安装与配置 - AI开发平台ModelArts
mkdir -p /var/docker/hilens 添加访问权限。 配置nfs-server访问白名单和文件存储路径。
-
推理性能测试 - AI开发平台ModelArts
--host ${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口8080。 --tokenizer:tokenizer路径,HuggingFace的权重路径。
-
ma-cli image镜像构建支持的命令 - AI开发平台ModelArts
debug 在ECS上调试SWR镜像是否能在ModelArts Notebook中使用 (只支持已安装docker环境的ECS)。 父主题: 使用ma-cli image构建镜像
-
在ECS上构建自定义镜像并在Notebook中使用 - AI开发平台ModelArts
在ECS上构建自定义镜像并在Notebook中使用 使用场景和构建流程说明 Step1 准备Docker机器并配置环境信息 Step2 制作自定义镜像 Step3 注册新镜像 Step4 创建开发环境并使用 父主题: Notebook中使用自定义镜像
-
Wav2Lip基于DevServer适配PyTorch NPU训练指导(6.3.902) - AI开发平台ModelArts
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。
-
GP Ant8裸金属服务器支持的镜像详情 - AI开发平台ModelArts
v.2.13.6 docker 20.10.23 RoCE路由配置 支持 镜像2:Ubuntu20.04 With Nvidia Driver 515 镜像名称:Ubuntu 20.04 x86 64bit SDI3 for Ant8 BareMetal with RoCE and
-
run.sh脚本测试ModelArts训练整体流程 - AI开发平台ModelArts
(本地使用硬盘挂载或者docker cp,在ModelArts上使用OBSutil) 可以用一个run脚本把整个流程包起来。run.sh脚本的内容可以参考如下示例: #!
-
FAQ - AI开发平台ModelArts
FAQ 如何登录并上传镜像到SWR 如何给镜像设置环境变量 如何通过docker启动Notebook保存后的镜像 如何在Notebook开发环境中配置Conda源 自定义镜像软件版本匹配注意事项 镜像在SWR上显示只有13G,安装少量的包,然后镜像保存过程会提示超过35G大小保存失败
-
推理精度测试 - AI开发平台ModelArts
service_url:成功部署推理服务后的服务预测地址,示例:http://${docker_ip}:8080/generate。此处的${docker_ip}替换为宿主机实际的IP地址,端口号8080来自前面配置的服务端口。
-
GPU裸金属服务器环境配置 - AI开发平台ModelArts
GPU裸金属服务器环境配置 GP Vnt1裸金属服务器EulerOS 2.9安装NVIDIA 515+CUDA 11.7 GP Vnt1裸金属服务器Ubuntu 18.04安装NVIDIA 470+CUDA 11.4 GP Vnt1裸金属服务器的Docker模式环境搭建 GP Ant8
-
在容器镜像中安装MLNX - AI开发平台ModelArts
构建容器镜像命令示例如下: docker build -f Dockerfile .
-
推理精度测试 - AI开发平台ModelArts
service_url:成功部署推理服务后的服务预测地址,示例:http://${docker_ip}:8080/generate。此处的${docker_ip}替换为宿主机实际的IP地址,端口号8080来自前面配置的服务端口。
-
在lite资源池上使用Snt9B完成推理任务 - AI开发平台ModelArts
父主题: k8s Cluster资源使用