-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
2”即为此自定义镜像的“SWR_URL”。 Step7 在ModelArts上创建训练作业 登录ModelArts管理控制台,检查当前账号是否已完成访问授权的配置。如未完成,请参考使用委托授权。针对之前使用访问密钥授权的用户,建议清空授权,然后使用委托进行授权。 在左侧导航栏中选择“训练管理 > 训练作业”,默认进入“训练作业”列表。
-
Step4 使用调试成功的镜像用于推理部署 - AI开发平台ModelArts
填写apis定义,单击“保存”生效。apis定义中指定输入为文件,具体内容参见下面代码样例。 图2 填写apis定义 apis定义具体内容如下: [{ "url": "/", "method": "post", "request": { "Content-type": "multipart/form-data"
-
Step4 使用保存成功的镜像用于推理部署 - AI开发平台ModelArts
填写apis定义,单击“保存”生效。apis定义中指定输入为文件,具体内容参见下面代码样例。 图2 填写apis定义 apis定义具体内容如下: [{ "url": "/", "method": "post", "request": { "Content-type": "multipart/form-data"
-
权限管理 - AI开发平台ModelArts
委托:ModelArts上的AI计算任务执行过程中需要访问其他云服务,此动作需要获得用户的委托授权。 ModelArts权限管理 默认情况下,管理员创建的IAM用户没有任何权限,需要将其加入用户组,并给用户组授予策略,才能使得用户组中的用户获得对应的权限,这一过程称为授权。授权后,用户就可以基于授予的权限对云服务进行操作。
-
推理基础镜像详情MindSpore(CPU/GPU) - AI开发平台ModelArts
5.3.0 treelib 1.6.1 urllib3 1.26.9 wheel
-
部署推理服务 - AI开发平台ModelArts
ip_forward Step2 获取推理镜像 建议使用官方提供的镜像部署推理服务。镜像地址{image_url}获取请参见表2。 docker pull {image_url} Step3 上传代码包和权重文件 上传安装依赖软件推理代码AscendCloud-3rdLLM-xxx
-
查询开发环境实例列表 - AI开发平台ModelArts
connection_info字段数据结构说明 参数 参数类型 说明 protocol String 链接仓库协议。当前支持:ssh,https。 url String 链接仓库地址。 credential Object 证书信息,请参见表23。 表23 credential字段数据结构说明 参数 参数类型
-
Step3 制作自定义镜像 - AI开发平台ModelArts
准备可用的pip源文件pip.conf。本示例使用华为开源镜像站提供的pip源,其pip.conf文件内容如下。 [global] index-url = https://repo.huaweicloud.com/repository/pypi/simple trusted-host =
-
创建开发环境实例 - AI开发平台ModelArts
connection_info字段数据结构说明 参数 参数类型 说明 protocol String 链接仓库协议。当前支持:ssh,https。 url String 链接仓库地址。 credential Object 证书信息,请参见表30。 表30 credential字段数据结构说明 参数 参数类型
-
SD1.5基于DevServer适配PyTorch NPU的Finetune训练指导(6.3.T041) - AI开发平台ModelArts
| grep net.ipv4.ip_forward Step2 启动镜像 获取基础镜像。建议使用官方提供的镜像。镜像地址{image_url}为: 西南-贵阳一:swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_2_1_ascend:pytorch_2
-
推理基础镜像详情Pytorch(CPU/GPU) - AI开发平台ModelArts
traitlets 5.3.0 typing_extensions 4.3.0 urllib3 1.26.10 watchdog 2.0
-
CES服务监控方案 - AI开发平台ModelArts
当前账户需要给CES授权委托,请参考创建用户并授权使用云监控服务。 当前还不支持在CES界面直接一键安装监控,需要登录到服务器上执行以下命令安装配置Agent。其它region的安装请参考单台主机下安装Agent。 cd /usr/local && curl -k -O https://obs
-
部署为边缘服务 - AI开发平台ModelArts
点类型”和“选择边缘节点”。 节点组:在IEF创建的铂金版实例的边缘节点组。请指定对应的铂金版“资源实例”和“部署实例个数”。IEF相关说明请参见边缘节点组。 资源池:在ModelArts创建的边缘资源池。请指定“部署实例个数”和“选择边缘资源池”。 “边缘节点类型” 部署方式选择节点时,显示该参数。
-
环境准备 - AI开发平台ModelArts
磁盘规格:按照对应的存储使用情况可选择存储大小。 SSH远程开发:如果需通过VS Code远程连接Notebook实例,可打开SSH远程开发,并选择自己的密钥对。 图2 实例创建 在Notebook列表,单击“操作列”的“打开”,打开Notebook示例。 图3 运行实例 图4 线上Notebook入口
-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
1”即为此自定义镜像的“SWR_URL”。 Step6 在ModelArts上创建训练作业 登录ModelArts管理控制台,检查当前账号是否已完成访问授权的配置。如未完成,请参考使用委托授权。针对之前使用访问密钥授权的用户,建议清空授权,然后使用委托进行授权。 在ModelArts管理控制台,左侧导航栏中选择“训练管理
-
示例:从0到1制作自定义镜像并用于训练(MindSpore+GPU) - AI开发平台ModelArts
1”即为此自定义镜像的“SWR_URL”。 Step7 在ModelArts上创建训练作业 登录ModelArts管理控制台,检查当前账号是否已完成访问授权的配置。如未完成,请参考使用委托授权。针对之前使用访问密钥授权的用户,建议清空授权,然后使用委托进行授权。 在左侧导航栏中选择“训练管理 > 训练作业”,默认进入“训练作业”列表。
-
部署推理服务 - AI开发平台ModelArts
ip_forward Step2 获取推理镜像 建议使用官方提供的镜像部署推理服务。镜像地址{image_url}获取请参见表2。 docker pull {image_url} Step3 上传权重文件 上传安装依赖软件推理代码AscendCloud-3rdLLM-xxx.zip
-
基本概念 - AI开发平台ModelArts
基本概念 帐号 用户注册时的帐号,帐号对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于帐号是付费主体,为了确保帐号安全,建议您不要直接使用帐号进行日常管理工作,而是创建IAM用户并使用他们进行日常管理工作。 IAM用户 由帐号在IAM中创建的用户,是云服
-
修改Notebook SSH远程连接配置 - AI开发平台ModelArts
修改Notebook SSH远程连接配置 ModelArts允许用户在Notebook实例中更改SSH配置信息。 在创建Notebook实例时,如果未配置SSH远程连接,当用户需要开启远程连接时,则可以在Notebook的实例详情页打开SSH的配置信息开关; 在创建Notebook实例时,如果设置
-
查询Notebook实例详情 - AI开发平台ModelArts
DELETED:已删除 FROZEN:冻结 token String Notebook鉴权使用的token信息。 url String 实例访问的URL。 volume VolumeRes object 实例存储信息。 workspace_id String 工作空间ID。未创建工作空间时默认值为“0