检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在分发待标注文件,owner/manager/labeler/reviewer可见任务列表,但任务未分配完成,无法同时再启动任务。 1:运行中。labeler/reviewer进行标注和审核工作,owner验收,如新增、同步智能标注、导入未标注文件需再次分发新增文件。 2:验收中
表6 Capacity 参数 参数类型 描述 value Value object 资源量。 maxValue Value object 最大弹性资源量。 timestamp String UTC时间,格式yyyy-MM-dd'T'HH:mm:ss'Z'。 window String
/{label_name} modelarts:dataset:updateDataset - √ √ 按标签名称删除标签及仅包含此标签的文件 DELETE /v2/{project_id}/datasets/{dataset_id}/data-annotations/labels/{label_name}
ta/pretrain/alpaca_text_document 必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/GLM3-6B 必
资源规格名称,比如:modelarts.vm.gpu.t4u8。 count Integer 规格保障使用量。 maxCount Integer 资源规格的弹性使用量,物理池该值和count相同。 azs Array of PoolNodeAz objects 资源池中节点的AZ信息。 nodePool
/home/work/run_train.sh python /home/work/user-job-dir/app/train.py {python_file_parameter}”。 请求示例 GET https://endpoint/v1/{project_id}/training-job-configs
baichuan2-13b 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
多个,如 128 2048 128 2048,数量需和--prompt-tokens的数量对应。 --benchmark-csv:结果保存文件,如benchmark_parallel.csv。 脚本运行完成后,测试结果保存在benchmark_parallel.csv中,示例如下图所示。
baichuan2-13b 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
sft(指令微调) √ √ 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
sft(指令微调) √ √ 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
peft版本升级到0.12.0 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
peft版本升级到0.12.0 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表 序号 支持模型 支持模型参数量 权重文件获取地址 1 llama2 llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf
ECC错误。 通过nvidia-smi -a查询到存在Pending Page Blacklist为Yes的记录,或多比特Register File大于0。对于Ampere架构的GPU,存在以下场景: 存在不可纠正的SRAM错误。 存在Remapping Failure记录。 dmsg中存在Xid
mindspore-lite 2.4.0 mindinsight 2.3.0 mindarmour 2.0.0 mindformers 1.3.0 mindx-elastic 0.0.1 seccomponent 1.1.8 moxing-framework 2.2.10 ipykernel 6.7.0 ipython
结束标识如下图回显Exception: msprobe: exit after iteration 0。 创建如下compare.json文件。 { "npu_path": "./npu_dump/dump.json", "bench_path": "./bench_dump/dump
ModelArts支持购买两种按需计费的资源池,包括公共资源池和专属资源池。 假设您计划购买按需计费的专属资源池,可在ModelArts控制台“AI专属资源池 > 弹性集群Cluster > Standard资源池”中,单击“购买AI专属集群”,选择“计费模式”为“按需计费”,在页面左下角查看所需费用。费用指的是资源池根据所选配置计算的费用。
资源规格名称,比如:modelarts.vm.gpu.t4u8。 count 是 Integer 规格保障使用量。 maxCount 是 Integer 资源规格的弹性使用量,物理池该值和count相同。 azs 否 Array of PoolNodeAz objects 资源池中节点的AZ信息。 nodePool
ta/pretrain/alpaca_text_document 必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 TOKENIZER_PATH /home/ma-user/ws/tokenizers/Qwen-14B
部署上线失败 出现此问题,一般是因为后台服务故障导致的,建议稍等片刻,然后重新部署在线服务。如果重试超过3次仍无法解决,请获取如下信息,并联系华为云技术支持协助解决故障。 获取服务ID。 进入“部署上线>在线服务”页面,在服务列表中找到自动学习任务中部署的在线服务,自动学习部署的