检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
mmlu_gen 。 model_name:评测模型名称,不需要与启动服务时的模型参数保持一致。 benchmark_type:评测数据集类型,分为eval、static、awq,也就是精度、静态和量化数据集,默认eval。 参考命令: vllm_path=vllm service_port=8080
mmlu_gen 。 model_name:评测模型名称,不需要与启动服务时的模型参数保持一致。 benchmark_type:评测数据集类型,分为eval、static、awq,也就是精度、静态和量化数据集,默认eval。 参考命令: vllm_path=vllm service_port=8080
--datasets:评测的数据集及评测方法,其中 mmlu 是数据集,ppl 是评测方法。 --hf-type:HuggingFace模型权重类型(base,chat),默认为chat,依据实际的模型选择。 --hf-path:本地 HuggingFace 权重的路径,比如/home
--output-prefix:处理后的数据集保存路径+数据集名称(例如:moss-003-sft-data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'
--output-prefix:处理后的数据集保存路径+数据集名称(例如:alpaca_gpt4_data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'
"/path1", "/path2/path2-1" ], modelarts:sfsOption 设置用户对于SFS Turbo文件夹的权限类型,支持填写以下参数: 仅读权限:readonly 读写权限:readwrite(创建开发环境实例modelarts:notebook:create仅支持配置readwrite)
--output-prefix:处理后的数据集保存路径+数据集名称(例如:alpaca_gpt4_data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'
--output-prefix:处理后的数据集保存路径+数据集名称(例如:moss-003-sft-data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'
查询单个智能标注样本的信息 分页查询智能任务列表 启动智能任务 获取智能任务的信息 停止智能任务 查询处理任务列表 创建处理任务 查询数据处理的算法类别 查询处理任务详情 更新处理任务 删除处理任务 查询数据处理任务的版本列表 创建数据处理任务版本 查询数据处理任务的版本详情 删除数据处理任务的版本
used_npus:拉起的每个py脚本使用几个NPU,如果为70b则填写4或8,7b 13b则填1。 model_type llama:使用模型类型,目前支持qwen2、llama1、llama2,其中llama1、llama2填写llama,qwen2填写为qwen2。 model_name:模型地址。
used_npus:拉起的每个py脚本使用几个NPU,如果为70b则填写4或8,7b 13b则填1。 model_type llama:使用模型类型,目前支持qwen2、llama1、llama2,其中llama1、llama2填写llama,qwen2填写为qwen2。 model_name:模型地址。
used_npus:拉起的每个py脚本使用几个NPU,如果为70b则填写4或8,7b 13b则填1。 model_type llama:使用模型类型,目前支持qwen2、llama1、llama2,其中llama1、llama2填写llama,qwen2填写为qwen2。 model_name:模型地址。
第二个计费周期为:2023/04/08 23:59:59 ~ 2023/05/08 23:59:59 您需要为每个计费周期预先付费,计费公式如表2所示。 表2 计费公式 资源类型 计费公式 资源单价 计算资源 实例规格单价 * 计算节点个数 * 购买时长 请参见ModelArts价格详情中的“规格价格”。 上述示例配置的费用计算如下:
用户登录并验证权限。 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择ModelArts,进入ModelArts主界面,选择不同类型的专属资源池,在页面单击“创建”,如果无法进行创建(当前权限仅包含ModelArts CommonOperations),表“ModelArts
用户登录并验证权限。 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择ModelArts,进入ModelArts主界面,选择不同类型的专属资源池,在页面单击“创建”,如果无法进行创建(当前权限仅包含ModelArts CommonOperations),表“ModelArts
")), # ModelStep的输出 depend_steps=[job_step_1, job_step_2] # 依赖的作业类型节点对象 )# job_step是wf.steps.JobStep的 实例对象,train_url是wf.steps.JobOutput的name字段值
AscendSpeed是用于模型并行计算的框架,其中包含了许多模型的输入处理方法。 获取路径:Support-E 请联系您所在企业的华为方技术支持下载获取。 表2 支持的模型类型和权重获取地址 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface
点 & 4*Ascend表示单机4卡,以此类推。 表1 NPU卡数、加速框架、梯度配置取值表 模型 Template 模型参数量 训练策略类型 序列长度cutoff_len 梯度累积值 优化工具(Deepspeed) 规格与节点数 llama2 llama2 7B lora 4096/8192
--output-prefix:处理后的数据集保存路径+数据集名称(例如:alpaca_gpt4_data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'
--output-prefix:处理后的数据集保存路径+数据集名称(例如:moss-003-sft-data)。 --tokenizer-type:tokenizer的类型,可选项有['BertWordPieceLowerCase','BertWordPieceCase','GPT2BPETokenizer'