检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Studio左侧导航栏中,单击“模型广场”。 在“模型广场”页面的目标模型区域,单击“立即使用”进入模型详情页。 在模型详情页可以查看模型的介绍、基本信息和版本信息。 在模型详情页右上角,单击“调优”、“压缩”或“部署”,可以直接使用模型进行训推。 当按钮置灰时,表示模型不支持该任务。 模型介绍 表1列举了ModelArts
SAVE_INTERVAL 1000 用于模型中间版本地保存。 当参数值>=TRAIN_ITERS时,生成模型仅保存经过TRAIN_ITERS次训练后的最后一个版本。 当参数值<TRAIN_ITERS时,生成模型会每经过SAVE_INTERVAL次,保存一次模型版本。 模型版本保存次数=TRAIN_IT
model_id String 模型ID。 model_name String 模型名称。 model_version String 模型版本。 weight Integer 权重,分配到此模型的流量权重。 specification String 资源规格。 instance_count
创建”,开始创建AI应用。 设置创建AI应用的相应参数。此处仅介绍关键参数,设置AI应用的详细参数解释请参见从OBS中选择元模型。 根据需要自定义应用的名称和版本。 模型来源选择“从对象存储服务(OBS)中选择”,元模型选择转换后模型的存储路径,AI引擎选择“Custom”,引擎包选择准备镜像中上传的推理镜像。
置镜像列表。 如果您使用的AI引擎为支持列表之外的,建议使用自定义镜像的方式创建训练作业。 AI Engine 选择代码使用的AI引擎及其版本。支持的AI引擎与ModelArts管理控制台里ModelArts支持的预置镜像列表一致。 Boot File Path 训练启动文件,所
包结构说明。 获取路径:Support-E 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。 表2 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface
本章节介绍如何在Notebook使用tensorRT量化工具实现推理量化。 Step1使用tensorRT量化工具进行模型量化 使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0.9.0。
本章节介绍如何在Notebook使用tensorRT量化工具实现推理量化。 Step1使用tensorRT量化工具进行模型量化 在GPU机器上使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0.9.0。
图片宽度(分辨率相关参数)。 --served-model-name: 选择性添加,在接口中使用的模型名;如果没有配置,则默认为tokenizer。 备注:当前版本仅支持语言+图片多模态性能测试。 脚本运行完成后,测试结果保存在benchmark_parallel.csv中。 父主题: 推理性能测试
图片宽度(分辨率相关参数)。 --served-model-name: 选择性添加,在接口中使用的模型名;如果没有配置,则默认为tokenizer。 备注:当前版本仅支持语言+图片多模态性能测试。 脚本运行完成后,测试结果保存在benchmark_parallel.csv中。 父主题: 推理性能测试
图片宽度(分辨率相关参数)。 --served-model-name: 选择性添加,在接口中使用的模型名;如果没有配置,则默认为tokenizer。 备注:当前版本仅支持语言+图片多模态性能测试。 脚本运行完成后,测试结果保存在benchmark_parallel.csv中。 父主题: 推理性能测试
llama3.1-8b llama3-8b llama2-7b yi-6b 准备工作 完成准备工作内容,生成benchmark-cli工具。 解压版本包data.tgz:测试样例数据;比如工作目录为:/homa/ma-user/LLaMAFactory # 将默认数据解压config同级目录
任务完成之后会在test-benchmark目录下生成excel表格: 性能结果LLaMAFactory_train_performance_benchmark_<版本号>_<时间戳>.xlsx 表格样例如下: 父主题: 训练benchmark工具
SAVE_INTERVAL 1000 用于模型中间版本地保存。 当参数值>=TRAIN_ITERS时,生成模型仅保存经过TRAIN_ITERS次训练后的最后一个版本。 当参数值<TRAIN_ITERS时,生成模型会每经过SAVE_INTERVAL次,保存一次模型版本。 模型版本保存次数=TRAIN_IT
llama3.1-8b llama3-8b llama2-7b yi-6b 准备工作 完成准备工作内容,生成benchmark-cli工具。 解压版本包data.tgz:测试样例数据;比如工作目录为:/homa/ma-user/LLaMAFactory # 将默认数据解压config同级目录
任务完成之后会在test-benchmark目录下生成excel表格: 性能结果 LLaMAFactory_train_performance_benchmark_<版本号>_<时间戳>.xlsx 表格样例如下: 父主题: 训练benchmark工具
本章节介绍如何在Notebook使用tensorRT量化工具实现推理量化。 Step1使用tensorRT量化工具进行模型量化 在GPU机器上使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0.9.0。
Notebook”,在Notebook实例列表里找到对应的实例,选择“更多 > 保存镜像”。 在保存镜像对话框中,设置组织、镜像名称、镜像版本和描述信息。单击“确定”保存镜像。 镜像会以快照的形式保存,保存过程约5分钟,请耐心等待。此时不可再操作实例。 镜像保存成功后,实例状态变
从0制作自定义镜像用于创建训练作业(MindSpore+Ascend) 训练框架的自定义镜像约束 推荐自定义镜像使用ubuntu-18.04的操作系统,避免出现版本不兼容的问题。 自定义镜像的大小推荐15GB以内,最大不要超过资源池的容器引擎空间大小的一半。镜像过大会直接影响训练作业的启动时间。 Mo
于缓存文件与实际推理不匹配而报错。 若要使用eagle投机,配置环境变量,使eagle投机对齐实验室版本实现。目前默认开启此模式,若不开启,目前vllm0.6.0版本与实验室版本权重无法对齐,会导致小模型精度问题。 export EAGLE_USE_SAFE_AI_LAB_STYLE=1