检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec -it ${container_name}
镜像适配的Cann版本是cann_8.0.rc3。 驱动版本:23.0.6。 PyTorch版本:2.1.0。 确保容器可以访问公网。 资源规格要求 推荐使用“西南-贵阳一”Region上的Server资源和Ascend Snt9B。 获取软件和镜像 表1 获取软件和镜像 分类 名称 获取路径
务器的缓存目录下。 gallery-cli download {repo_id} --include "*.json" 如下所示,表示下载所有“.json”格式的文件到服务器的缓存目录“/test”下,当回显“100%”时表示下载完成。 gallery-cli download
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec -it ${container_name}
本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8.0.rc3。 Lite Server驱动版本要求23.0.6 PyTorch版本:2.3.1 确保容器可以访问公网。 文档更新内容 6.3.912版本相对于6.3.911版本新增如下内容:
PT4/alpaca_gpt4_data.json,数据大小:43.6 MB。 自定义数据 预训练数据:用户也可以自行准备预训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下
String 训练作业的输出文件OBS路径URL,默认为空,如:“/usr/train/”。 log_url 否 String 训练作业的日志OBS输出路径URL,默认为空。如:“/usr/log/”。 user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。如:“100
project_id 是 String 项目ID。 表14 notebook字段数据结构说明 参数 参数类型 说明 log_path String 自定义镜像日志存储路径。 custom_script_path String Notebook启动时的自定义初始化脚本路径。 extend_storage
X... Content-Type →application/json 其中,加粗的字段需要根据实际值填写。 复制上一步的响应body,只保留“sample_id”和“labels”字段直接作为请求body,如下所示: { "samples": [ {
project_id String 项目ID。 表11 notebook字段数据结构说明 参数 参数类型 说明 log_path String 自定义镜像日志存储路径。 custom_script_path String Notebook启动时的自定义初始化脚本路径。 extend_storage
选择“评论”页签在输入框中输入评论内容,单击“发表评论”,即可成功发布评论。资产发布者可收到评论的通知,资产评论者也会收到评论回复的通知,所有用户均可查看资产评论并回复评论,对评论点赞等。 下架Notebook 当您需要在AI Gallery下架共享的资产时,可以执行如下操作: 在“AI
目标版本:在目标版本下拉框中,选择一个目标驱动版本。对于资源池新增加的节点,可能会与资源池原有节点驱动不一致,为了保持驱动一致,目标版本可选择当前驱动版本,升级完成后所有节点驱动会升级为统一版本。 升级方式:可选择安全升级或强制升级。 安全升级:待节点上没有作业时再升级,升级周期可能比较长。 强制升级:忽略
在扩展信息中可以查看监控、作业、节点、规格、事件、标签,详细介绍见下文。 查看资源池中的作业 在资源池详情页,切换到“作业”页签。您可以查看该资源池中运行的所有作业,如果当前有作业正在排队,可以查看作业在资源池排队的位置。 当前仅支持查看训练作业。 查看资源池事件 在资源池详情页,切换到“事件”页
创建训练作业(预置框架) 参数名称 说明 创建方式 选择“自定义算法”。 启动方式 选择“预置框架”,引擎选择“PyTorch”,PyTorch版本根据训练要求选择。 代码目录 选择OBS桶中训练code文件夹所在路径,例如“obs://test-modelarts/code/”。 启动文件 选择
推理部署使用的服务框架是vLLM。vLLM支持v0.5.0版本。 仅支持FP16和BF16数据类型推理。 本案例仅支持在专属资源池上运行。 专属资源池驱动版本要求23.0.6。 支持的模型列表和权重文件 本方案支持vLLM的v0.5.0版本。不同vLLM版本支持的模型列表有差异,具体如表1所示。 表1
请求从到达服务开始到开始被调度的耗时 request_latency(请求总时延):请求从到达服务开始到结束的耗时 以上指标单位均是ms,保留2位小数。 父主题: 推理性能测试
mox.file.copy_parallel(local_data_dir, obs_data_dir) 不同模型推荐的训练参数和计算规格要求如表1所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表1 不同模型推荐的参数与NPU卡数设置 序号 支持模型
--max-cpu-loras=32 --enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。
只支持预览大小不超过10MB、格式为文本类或图片类的文件。 支持编辑资产介绍。每个资产介绍可分为基础设置和使用描述。 基础设置部分包含了该资产所有重要的结构化元数据信息。选择填入的信息将会变成该模型资产的标签,并且自动同步在模型描述部分,保存到“README.md”文件里。 模型描述
gencyOnProject 查询项目服务中的委托权限。 iam:permissions:listRolesForAgency 查询委托的所有权限。 iam:agencies:getAgency 查询委托详情。 iam:agencies:listAgencies 查询指定条件下的委托列表