检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练专属预置镜像列表 ModelArts平台提供了Tensorflow,PyTorch,MindSpore等常用深度学习任务的基础镜像,镜像里已经安装好运行任务所需软件。当基础镜像里的软件无法满足您的程序运行需求时,您可以基于这些基础镜像制作一个新的镜像并进行训练。 训练基础镜像列表
如何将Ubuntu20.04内核版本从低版本升级至5.4.0-144-generic? 场景描述 Ubuntu20.04内核版本从低版本升级至5.4.0-144-generic。 操作指导 检查当前内核版本。 uname -r 升级内核 apt-get install linux-headers-5
0:8080 (Press CTRL+C to quit) 步骤七 推理请求 使用命令测试推理服务是否正常启动。服务启动命令中的参数设置请参见表1。 方式一:通过OpenAI服务API接口启动服务使用以下推理测试命令。${docker_ip}替换为实际宿主机的IP地址。如果启动服务未添加s
3-cudnn8-ubuntu18.04:v1 . 调试镜像 建议把调试过程中的修改点通过Dockerfile固化到容器构建正式流程,并重新测试。 确认对应的脚本、代码、流程在linux服务器上运行正常。 如果在linux服务器上运行就有问题,那么先调通以后再做容器镜像。 确认打入
--port:服务部署的端口,注意如果不同实例部署在一台机器上,不同实例需要使用不同端口号。分离部署对外服务使用的是scheduler实例端口,在后续推理性能测试和精度测试时,服务端口需要和scheduler实例端口保持一致。 --model:HuggingFace下载的官方权重 --max-num-seqs:同时处理的最大句子数量
Lite Server使用流程 ModelArts Lite Server提供多样化的xPU裸金属服务器,赋予用户以root账号自主安装和部署AI框架、应用程序等第三方软件的能力,为用户打造专属的云上物理服务器环境。用户只需轻松选择服务器的规格、镜像、网络配置及密钥等基本信息,即
<镜像名称>:<版本名称> . nerdctl build 会去镜像仓库拉取镜像,不会直接使用本地镜像。构建前可以 nerdctl pull 拉取测试以下镜像是否能拉取成功。 <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606。 记住使
<镜像名称>:<版本名称> . nerdctl build 会去镜像仓库拉取镜像,不会直接使用本地镜像。构建前可以 nerdctl pull 拉取测试以下镜像是否能拉取成功。 <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606。 记住使
<镜像名称>:<版本名称> . nerdctl build 会去镜像仓库拉取镜像,不会直接使用本地镜像。构建前可以 nerdctl pull 拉取测试以下镜像是否能拉取成功。 <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606。 记住使
<镜像名称>:<版本名称> . nerdctl build 会去镜像仓库拉取镜像,不会直接使用本地镜像。构建前可以 nerdctl pull 拉取测试以下镜像是否能拉取成功。 <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606。 记住使
故障恢复 ModelArts全球基础设施围绕华为云区域和可用区构建。华为云区域提供多个在物理上独立且隔离的可用区,这些可用区通过延迟低、吞吐量高且冗余性高的网络连接在一起。利用可用区,您可以设计和操作在可用区之间无中断地自动实现故障转移的应用程序和数据库。与传统的单个或多个数据中
4:表格 6:视频 9:自由格式 sample_usage 否 String 样本用处。可选值如下: TRAIN:训练 EVAL:验证 TEST:测试 INFERENCE:推理 source 否 String 样本数据源地址,通过调用样本列表接口获取。 worker_id 否 String
后单击“确定”。 SWR授权管理详情可参考授权管理。 如果给子账号的SWR授权不是SWR Admin权限,则需要继续配置SWR组织权限。 测试用户权限。 由于权限配置需要等待15-30分钟生效,建议在配置完成后,等待30分钟,再执行如下验证操作。 使用用户组02中任意一个子账号登
安全边界 云服务的责任共担模型是一种合作方式,其中云服务提供商和云服务客户共同承担云服务的安全和合规性责任。这种模型是为了确保云服务的安全性和可靠性而设计的。 根据责任共担模型,云服务提供商和云服务客户各自有一些责任。云服务提供商负责管理云基础架构,提供安全的硬件和软件基础设施,
4:表格 6:视频 9:自由格式 sample_usage 否 String 样本用处。可选值如下: TRAIN:训练 EVAL:验证 TEST:测试 INFERENCE:推理 source 否 String 样本数据源地址,通过调用样本列表接口获取。 worker_id 否 String
table文件中各全量和增量节点顺序一致,否则会报错。 Step9 推理请求 使用命令测试推理服务是否正常启动。服务启动命令中的参数设置请参见表1。 通过OpenAI服务API接口启动服务使用以下推理测试命令。${docker_ip}替换为实际宿主机的IP地址。如果启动服务未添加ser
推理方式,取值为real-time/batch/edge。默认为real-time。 real-time代表在线服务,将模型部署为一个Web Service,并且提供在线的测试UI与监控能力,服务一直保持运行。 batch为批量服务,批量服务可对批量数据进行推理,完成数据处理后自动停止。 edge表示边缘服务,通
在Workflow中使用大数据能力(DLI/MRS) 功能介绍 该节点通过调用MRS服务,提供大数据集群计算能力。主要用于数据批量处理、模型训练等场景。 应用场景 需要使用MRS Spark组件进行大量数据的计算时,可以根据已有数据使用该节点进行训练计算。 使用案例 在华为云MR
训练作业的自定义镜像制作流程 如果您已经在本地完成模型开发或训练脚本的开发,且您使用的AI引擎是ModelArts不支持的框架。您可以制作自定义镜像,并上传至SWR服务。您可以在ModelArts使用此自定义镜像创建训练作业,使用ModelArts提供的资源训练模型。 制作流程 图1
ModelArts统一镜像列表 统一镜像列表 ModelArts提供了ARM+Ascend规格的统一镜像,包括MindSpore、PyTorch。适用于开发环境,模型训练,服务部署,请参考统一镜像列表。 表1 MindSpore 预置镜像 适配芯片 适用范围 mindspore_2