检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Cluster资源配置流程 配置Lite Cluster网络 配置kubectl工具 配置Lite Cluster存储 (可选)配置驱动 (可选)配置镜像预热
ServerImageResponse 参数 参数类型 描述 arch String 服务器镜像架构类型。 ARM X86 image_id String 服务器镜像ID。 name String 服务器镜像名称。 server_type String 服务器类型。枚举值如下: BMS:裸金属服务器
user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。如:“100.125.5.235:20202/jobmng/custom-cpu-base:1.0”。 user_command 否 String 自定义镜像训练作业的自定义镜像的容器的启动命令。形式为:“bash
5&SDXL Diffusers框架基于Lite Server适配PyTorch NPU训练指导(6.3.908) 训练场景和方案介绍 准备镜像环境 Finetune训练 LoRA训练 Controlnet训练 父主题: 文生图模型训练推理
准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。 准备权重 准备所需的权重文件。 准备代码 准备AscendSpeed训练代码。 准备镜像 准备训练模型适用的容器镜像。 微调训练 SFT全参微调 介绍如何进行SFT全参微调,包括训练数据处理、超参配置、创建训练任务及性能查看。 LoRA微调训练
(可选)本地安装ma-cli ma-cli auto-completion自动补全命令 ma-cli configure鉴权命令 ma-cli image镜像构建支持的命令 ma-cli ma-job训练作业支持的命令 ma-cli dli-job提交DLI Spark作业支持的命令 使用ma-cli
在线服务预测报错ModelArts.4503 在线服务预测报错MR.0105 Method Not Allowed 请求超时返回Timeout 自定义镜像导入模型部署上线调用API报错 在线服务预测报错DL.0105 时序预测-time_series_v2算法部署在线服务预测报错 父主题: 推理部署
【下线公告】华为云ModelArts服务模型转换下线公告 【下线公告】华为云ModelArts MindStudio/ML Studio/ModelBox镜像下线公告 【下线公告】华为云ModelArts算法套件下线公告 【下线公告】华为云ModelArts服务旧版训练管理下线公告
ECS服务器和SFS的共享硬盘在相同的VPC或者对应VPC能够互联。 ECS服务器基础镜像需要用Ubuntu 18.04的。 ECS服务器和SFS Turbo需要在同一子网中。 操作步骤 在ECS服务器中设置华为云镜像源。 sudo sed -i "s@http://.*archive.ubuntu
Gallery官方的OBS桶内。 对于镜像类型的资产,AI Gallery会将资产保存在AI Gallery官方的SWR仓库内。 对于用户提供的一些个人信息,AI Gallery会保存在数据库中。个人信息中的敏感信息,如手机,邮箱等,AI Gallery会在数据库中做加密处理。 AI Gallery的更多介绍请参见《AI
使用订阅算法训练结束后没有显示模型评估结果 创建训练任务并成功运行, 但是发布到至AI Gallery时, 版本那块显示状态异常 使用python3.6-torch1.4版本镜像环境安装MMCV报错 父主题: 训练作业
ServerImageResponse 参数 参数类型 描述 arch String 服务器镜像架构类型。 ARM X86 image_id String 服务器镜像ID。 name String 服务器镜像名称。 server_type String 服务器类型。枚举值如下: BMS:裸金属服务器
ServerImageResponse 参数 参数类型 描述 arch String 服务器镜像架构类型。 ARM X86 image_id String 服务器镜像ID。 name String 服务器镜像名称。 server_type String 服务器类型。枚举值如下: BMS:裸金属服务器
user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。如:“100.125.5.235:20202/jobmng/custom-cpu-base:1.0”。 user_command 否 String 自定义镜像训练作业的自定义镜像的容器的启动命令。形式为:“bash
创建模型 创建模型不同方式的场景介绍 从训练作业中导入模型文件创建模型 从OBS中导入模型文件创建模型 从容器镜像中导入模型文件创建模型 从AI Gallery订阅模型 父主题: 使用ModelArts Standard部署模型并推理预测
# 本教程中需要的模型代码 └── Dockerfile # 构建镜像 └── qwen-vl_install.sh # 安装模型运行环境
Administrator 云容器引擎CCE CCE Administrator 裸金属服务器BMS BMS FullAccess 镜像服务IMS IMS FullAccess 数据加密服务DEW DEW KeypairReadOnlyAccess 虚拟私有云VPC VPC FullAccess
# 本教程中需要的模型代码 └── Dockerfile # 构建镜像 └── qwen-vl_install.sh # 安装模型运行环境
参数类型 描述 cpu_image_url String cpu规格下对应镜像。 gpu_image_url String gpu或者Ascend规格下对应镜像。 image_version String 镜像版本。 请求示例 如下以查询北京四训练作业所有的公共引擎规格为例(引擎过多,只显示部分)。
deleting (下线中) image_source Array of strings 镜像来源,目前共两种: base_image (基础镜像) uniform_image (统一镜像) 表6 Accelerator 参数 参数类型 描述 type String 加速卡类型,目前共三种: