检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业时,在“metadata”字段的“annotations”中传入“fault-tolerance/job-retry-num”字段。 添加“fault-tolerance/job-retry-num”字段,视为开启自动重启,value的范围可以设置为1~128的整数。valu
OUTPUT_SAVE_DIR:训练完成后指定的输出模型路径。 HF_SAVE_DIR:训练完成的权重文件自动转换为Hugging Face格式权重输出的路径(确保添加CONVERT_MG2HF环境变量并设置为True)。 分别单击“输入”和“输出”的数据存储位置,如图所示,选择OBS桶中指定的目录。OR
确保容器可以访问公网。 文档更新内容 6.3.908版本相对于6.3.907版本新增如下内容: 文档和代码中新增对mistral和mixtral模型的适配,并添加训练推荐配置。 文档中新增对Llama3支持长序列文本(sequence_length > 32k)训练内容,例如新增参数context-parallel-size。
方法二:用户在Notebook中直接编辑scripts/llama2/1_preprocess_data.sh脚本,自定义环境变量的值,并在脚本的首行中添加 cd /home/ma-user/work/llm_train/AscendSpeed/ModelLink 命令,随后在Notebook中运行该脚本。
事件通知的主题名称。可以在下拉框中选择合适的主题名称,也可以单击“立即创建”,前往消息通知服务中新建主题。 说明: 在消息通知服务中创建主题,并为该主题添加订阅,确认该订阅状态为“已确认”后,方可收到事件消息提醒。 事件 选择要订阅的事件类型。例如“作业开始”、“作业结束”、“作业失败”、“作业终止”、“作业疑似卡死”等。
Access Key”:填写访问密钥的SK。 图2 填写区域和访问密钥 查看认证结果。 在Event Log区域中,当提示如下类似信息时,表示访问密钥添加成功。 16:01Validate Credential Success: The HUAWEI CLOUDcredential is valid
Settings > Project:PythonProject > Python Interpreter”,单击设置图标,再单击“Add”,添加一个新的interpreter。 选择“Existing server configuration”,在下拉菜单中选择上一步配置好的SSH
Step4 启动AWQ量化服务 参考部署推理服务,使用量化后权重部署AWQ量化服务。 注:Step3 创建服务启动脚本启动脚本中,服务启动命令需添加如下命令。 -q awq 或者--quantization awq 父主题: 推理模型量化
Step4 启动AWQ量化服务 参考部署推理服务,使用量化后权重部署AWQ量化服务。 注:Step3 创建服务启动脚本启动脚本中,服务启动命令需添加如下命令。 -q awq 或者--quantization awq 父主题: 推理模型量化
p4(需申请)/modelarts.vm.ai1.a310(需申请),需申请权限才能使用的规格请在华为云创建工单,由ModelArts运维工程师添加权限。 instance_count 是 Integer 模型部署的实例数,当前限制最大实例数为128,如需使用更多的实例数,需提交工单申请。
读写权限:readwrite(创建开发环境实例modelarts:notebook:create仅支持配置readwrite) 如果需要在一个自定义策略中添加多个不同的sfsOption,需要“Statement”中新增JSON结构体,例如: { "Version": "1.1",
OUTPUT_SAVE_DIR:训练完成后指定的输出模型路径。 HF_SAVE_DIR:训练完成的权重文件自动转换为Hugging Face格式权重输出的路径(确保添加CONVERT_MG2HF环境变量并设置为True)。 分别单击“输入”和“输出”的数据存储位置,如图所示,选择OBS桶中指定的目录。OR
OUTPUT_SAVE_DIR:训练完成后指定的输出模型路径。 HF_SAVE_DIR:训练完成的权重文件自动转换为Hugging Face格式权重输出的路径(确保添加CONVERT_MG2HF环境变量并设置为True)。 分别单击“输入”和“输出”的数据存储位置,如图所示,选择OBS桶中指定的目录。OR
5-7b块。 exp_name:实验块,训练策略-序列长度所需参数配置。 样例yaml文件仅展示常用实验配置,如需其他配置需根据样例自行添加,样例截图如下: 步骤二:执行训练任务 进入test-benchmark目录执行训练命令,可以多次执行,卡数及其它配置参考NPU卡数取值表按自己实际情况决定
5-7b块。 exp_name:实验块,训练策略-序列长度所需参数配置。 样例yaml文件仅展示常用实验配置,如需其他配置需根据样例自行添加,样例截图如下: 步骤二:执行训练任务 进入test-benchmark目录执行训练命令,可以多次执行,卡数及其它配置参考NPU卡数取值表按自己实际情况决定
开关。对于同一个数据集,可以创建多个团队标注任务。 图2 打开启用团队标注 只有当创建团队标注任务时,标注人员才会收到邮件。创建标注团队及添加标注团队的成员并不会发送邮件。此外,当所有样本都是已标注状态时,创建团队标注任务也不会收到邮件。 标注任务创建完成后,会将所有未标注状态的
tokenizer的存放路径 -workers:设置数据处理使用执行卡数量 -append-eod:参数用于控制是否在每个输入序列的末尾添加一个特殊的标记。这个标记表示输入序列的结束,可以帮助模型更好地理解和处理长序列。 seq-length:是一个用于计算序列长度的函数。它接
方法二:用户在Notebook中直接编辑scripts/llama2/1_preprocess_data.sh脚本,自定义环境变量的值,并在脚本的首行中添加 cd /home/ma-user/work/llm_train/AscendSpeed/ModelLink 命令,随后在Notebook中运行该脚本。
Step4 启动AWQ量化服务 参考部署推理服务,使用量化后权重部署AWQ量化服务。 注:Step3 创建服务启动脚本启动脚本中,服务启动命令需添加如下命令。 -q awq 或者--quantization awq 父主题: 推理模型量化
OUTPUT_SAVE_DIR:训练完成后指定的输出模型路径。 HF_SAVE_DIR:训练完成的权重文件自动转换为Hugging Face格式权重输出的路径(确保添加CONVERT_MG2HF环境变量并设置为True)。 分别单击“输入”和“输出”的数据存储位置,如图所示,选择OBS桶中指定的目录。OR