检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
rts推理平台的模型版本管理能力和动态加载模型的部署能力。本案例将指导用户完成原生第三方推理框架镜像到ModelArts推理自定义引擎的改造。自定义引擎的镜像制作完成后,即可以通过模型导入对模型版本进行管理,并基于模型进行部署和管理服务。 适配和改造的主要工作项如下: 图1 改造工作项
whl # 构建最终容器镜像 FROM nvidia/cuda:11.1.1-runtime-ubuntu18.04 # 安装 vim和curl 工具(依然使用华为开源镜像站) RUN cp -a /etc/apt/sources.list /etc/apt/sources.list
训练作业一般需要运行一段时间,根据您的训练业务逻辑和选择的资源不同,训练时长将持续几十分钟到几小时不等。训练作业执行成功后,日志信息如图1所示。 图1 1个计算节点GPU规格worker-0运行日志信息 计算节点个数选择为2,训练作业也可以运行。日志信息如图2和图3所示。 图2 2个计算节点worker-0运行日志信息
代码。如下示例中,请创建命名为“test-modelarts”的桶,并创建如表1所示的文件夹。 创建OBS桶和文件夹的操作指导请参见创建桶和新建文件夹。 请确保您使用的OBS与ModelArts在同一区域。 表1 OBS桶文件夹列表 文件夹名称 用途 obs://test-mod
odes 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 pool_name 是 String 资源池名称。 nodepool_name 是 String 节点池名称。 表2 Query参数
具体支持如下使用场景: 下载单个文件 下载多个文件 下载文件到指定路径 下载单个AI Gallery仓库 准备工作 获取“repo_id”和待下载的文件名。 获取“repo_id” 在AI Gallery页面的资产详情页,单击复制完整的资产名称,如图1所示,获取到的信息即为“re
ices 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通
输出文本的分布一致。这种方法外推LLM的第二顶层特征向量,能够显著提升生成效率。 Eagle训练了一个单层模型,使用input token和基模型推理出的hidden-state作为输入,输出hidden-state。然后根据这个输出的hidden-state使用基模型的原始LL
SSH登录机器后,检查NPU设备检查。如果驱动版本不是24.1.0,请先升级驱动和对应固件。 npu-smi info -t board -i 1 | egrep -i "software|firmware" #查看驱动和固件版本 24.1.0版本驱动文件为Ascend-hdk-910b-npu-driver_24
输出文本的分布一致。这种方法外推LLM的第二顶层特征向量,能够显著提升生成效率。 Eagle训练了一个单层模型,使用input token和基模型推理出的hidden-state作为输入,输出hidden-state。然后根据这个输出的hidden-state使用基模型的原始LL
ama2-13B和Llama2-80B基础模型(名字必须一致)创建模型,且“权重设置与词表”选择“自定义权重”时,需要修改权重配置才能正常运行模型,操作步骤请参见修改权重配置。 前提条件 已准备好用于生成专属模型的模型权重文件,并存放于OBS桶中,OBS桶必须和MaaS服务在同一个Region下。
sample_label_separator 否 String 文本和标签之间的分隔符。分隔符仅支持一个字符,必须为大小写字母,数字或@#¥%^&*_=|?/':.;,中的某一个字符,分隔符需要转义。 label_separator 否 String 标签和标签之间的分隔符。分隔符仅支持一个字符,必须为大小写字母,数字或@#¥%^&*_=|
例中的桶名称“test-modelarts” 和文件夹名称均为举例,请替换为用户自定义的名称。 创建OBS桶和文件夹的操作指导请参见创建桶和新建文件夹。 请确保您使用的OBS与ModelArts在同一区域。 表1 OBS桶文件夹列表 文件夹名称 用途 “obs://test-mo
功能)中部署推理服务。 Step1 准备模型文件和权重文件 在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。 模型权重文件获取地址请参见支持的模型列表和权重文件。 如果需要部署量化模型,请参考推理模型量
pi/log/” 用于存储训练日志文件。 Step2 准备脚本文件并上传至OBS中 准备本案例所需的MPI启动脚本run_mpi.sh文件和训练脚本mpi-verification.py文件,并上传至OBS桶的“obs://test-modelarts/mpi/demo-code/”文件夹下。
功能)中部署推理服务。 Step1 准备模型文件和权重文件 在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。 模型权重文件获取地址请参见支持的模型列表和权重文件。 如果需要部署量化模型,请参考推理模型量
k8s Cluster运行的,需要购买并开通k8s Cluster资源。 准备代码 准备AscendSpeed训练代码、分词器Tokenizer和推理代码。 准备数据 准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。 准备镜像 准备训练模型适用的容器镜像。 预训练 预训练
ame)和维度值(训练作业ID,在ModelArts控制台的训练详情页中获取),页面会自动显示当前训练作业指定的指标监控曲线。 图2 设置训练作业指标 “按普罗语句添加”方式请参考文档应用运维管理 AOM> 用户指南(2.0)> 指标浏览。 更多可查看的监控指标参见表1和表2。 容器级别的指标介绍
logs 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 service_id 是 String 服务ID。 表2 Query参数 参数 是否必选 参数类型 描述 update_time 否
如图1所示,用户向ModelArts授权后,ModelArts使用委托授权的临时凭证访问和操作用户资源,协助用户自动化一些繁琐和耗时的操作。同时,委托凭证会同步到用户的作业中(Notebook实例和训练作业),用户在作业中可以使用委托凭证自行访问自己的资源。 在ModelArts服务中委托授权有两种方式: