检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
“GPU: 1*Tnt004(16GB)|CPU: 8核* 32GB”: GPU单卡规格,16GB显存,推理计算最佳选择,覆盖场景包括计算机视觉、视频处理、NLP等 “GPU: 1*Pnt1(16GB)|CPU: 8核 64GB”:GPU单卡规格,16GB显存,适合深度学习场景下的算法训练和调测
"dataset_id" : "gfghHSokody6AJigS5A", "import_path" : "obs://test-obs/daoLu_images/animals/", "import_type" : 0, "total_sample_count" : 20, "im
n/”。 log_url 否 String 训练作业的日志OBS输出路径URL,默认为空。如:“/usr/train/”。 user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。如:“100.125.5.235:20202/jobmng/custom-cpu-base:1
n/”。 log_url 否 String 训练作业的日志OBS输出路径URL,默认为空。如:“/usr/train/”。 user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。如:“100.125.5.235:20202/jobmng/custom-cpu-base:1
动态挂载OBS并行文件系统 什么是动态挂载OBS并行文件系统 并行文件系统(Parallel File System)是对象存储服务(Object Storage Service,OBS)提供的一种经过优化的高性能文件系统,详细介绍可以参见并行文件系统。 在ModelArts运行
"gfghHSokody6AJigS5A", "import_path" : "obs://test-obs/daoLu_images/animals/", "import_type" : 0, "total_sample_count" : 20,
中填入数据,这些数据也会被搬移到显存中,进一步对于Inputs输入的内容进行处理。 data = convert_img(input_image) in_data = [np.array(data)] inputs = model.get_inputs() for i, _input
登录coco数据集下载官网地址:https://cocodataset.org/#download 下载coco2017数据集的Train(18GB)、Val images(1GB)、Train/Val annotations(241MB),分别解压后并放入coco文件夹中。 下载完成后,将数据上传至SF
使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts 6.3.909版本,请参考软件配套版本获取配套版本的软件包,请严格遵照版本配套关系使用本文档。 资源规格推荐使用“西南-贵阳一”Region上的Lite k8s Cluster和昇腾Snt9B资源。
ModelArts开发环境提供的预置镜像主要包含: 常用预置包:基于标准的Conda环境,预置了常用的AI引擎,常用的数据分析软件包,例如Pandas,Numpy等,常用的工具软件,例如cuda,cudnn等,满足AI开发常用需求。 预置Conda环境:每个预置镜像都会创建一个相对应的Cond
训练预测分析模型 创建自动学习后,将会进行模型的训练,得到预测分析的模型。模型部署步骤将使用预测模型发布在线预测服务。 操作步骤 在新版自动学习页面,单击创建成功的项目名称,查看当前工作流的执行情况。 在“预测分析”节点中,待节点状态由“运行中”变为“运行成功”,即完成了模型的自动训练。
推理前的权重合并转换 模型训练完成后,训练的产物包括模型的权重、优化器状态、loss等信息。这些内容可用于断点续训、模型评测或推理任务等。 在进行模型评测或推理任务前,需要将训练后生成的多个权重文件合并,并转换成Huggingface格式的权重文件。 权重文件的合并转换操作都要求
从容器镜像中选择AI应用 表2 元模型来源参数说明 参数 说明 “容器镜像所在的路径” 单击从容器镜像中导入模型的镜像,其中,模型均为Image类型,且不再需要用配置文件中的“swr_location”来指定您的镜像位置。 制作自定义镜像的操作指导及规范要求,请参见模型镜像规范。
弹性裸金属:弹性裸金属提供不同型号的xPU裸金属服务器,您可以通过弹性公网IP进行访问,在给定的操作系统镜像上可以自行安装GPU&NPU相关的驱动和其他软件,使用SFS或OBS进行数据存储和读取相关的操作,满足算法工程师进行日常训练的需要。请参见弹性裸金属Lite Server。 公共资源池:
场景介绍 Qwen大模型是一个包含多种参数数量模型的语言模型。 本文档以Qwen-7B/14B/72B为例,利用训练框架Pytorch_npu+华为自研Ascend Snt9b硬件,为用户提供了开箱即用的预训练和微调训练方案。 操作流程 图1 操作流程图 表1 操作任务流程说明 阶段
engine_version和image_url方式三选一。 engine_name String 训练作业选择的引擎名称。如果填入engine_id,则无需填写。 engine_version String 训练作业选择的引擎版本名称。如果填入engine_id,则无需填写。 image_url String
Yaml配置文件参数配置说明 本小节主要详细描述demo_yaml配置文件、配置参数说明,用户可根据实际自行选择其需要的参数。 表1 模型训练脚本参数 参数 示例值 参数说明 model_name_or_path /home/ma-user/ws/tokenizers/Qwen2-72B
712-4f9b-8a83-000000000000-worker-1” 表7 预检相关环境变量 变量名 说明 示例 MA_SKIP_IMAGE_DETECT ModelArts预检是否开启。默认为1,1表示开启预检,0表示关闭预检。 推荐开启预检,预检可提前发现节点故障、驱动故障。
engine_version和image_url方式三选一。 engine_name String 训练作业选择的引擎名称。如果填入engine_id,则无需填写。 engine_version String 训练作业选择的引擎版本名称。如果填入engine_id,则无需填写。 image_url String
算法选择的引擎版本名称。若填入engine_id则无需填写。 engine_version 否 String 算法选择的引擎版本名称。若填入engine_id则无需填写。 image_url 否 String 算法选择的自定义镜像地址。 表12 ResourceRequirement 参数 是否必选 参数类型 描述 key