检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自如何获取ModelArts训练容器中的文件实际路径? 如果容器中的文件实际路径不清楚,可以使用Python获取当前文件路径的方法获取。 os.getcwd() #获取文件当前工作目录路径(绝对路径) os.path.realpath(__ file __) #获得文件所在的路径(绝对路径)
如何在ModelArts的Notebook实例中使用ModelArts数据集? ModelArts上创建的数据集存放在OBS中,可以将OBS中的数据下载到Notebook中使用。 Notebook中读取OBS数据方式请参见如何在ModelArts的Notebook中上传下载OBS文件?。
在Dockerfile中如何给镜像设置环境变量? 在Dockerfile中,可使用ENV指令来设置环境变量,具体信息请参考Dockerfile指导。 父主题: Standard镜像相关
训练作业worker的个数。 data_url String 训练作业的数据集。 train_url String 训练作业输出文件OBS路径。 log_url String 训练作业的日志OBS输出路径URL,默认为空。如:“/usr/train/”。 dataset_version_id String
search_conditions Array of SearchCondition objects 导出的筛选条件,多个条件之间是或(OR)关系。 train_sample_ratio String 指定发布版本时训练集-验证集的切分比例,默认为1.00,即全部分为训练集。 表4 SearchCondition
"1606233612612" : 0, "1606320012681" : 0 }, "failed" : { }, "failed_system" : { } } } 状态码 状态码 描述 200 OK 401 Unauthorized 403
# 量化代码 ├── build.sh # 安装量化模块的脚本 ... 具体操作如下: 配置需要使用的NPU卡,例如:实际使用的是第1张和第2张卡,此处填写为“0,1”,以此类推。 export A
# 量化代码 ├── build.sh # 安装量化模块的脚本 ... 具体操作如下: 配置需要使用的NPU卡,例如:实际使用的是第1张和第2张卡,此处填写为“0,1”,以此类推。 export A
否则会安装和下载失败。资源池打通公网配置请参见配置Standard专属资源池访问公网,ECS打通公网配置请参见ECS绑定弹性公网IP。 在华为公有云平台申请的资源一般默认连通网络,如未连通网络或无法git clone下载代码时用户则需要找到已连通网络的机器(本章节以Linux系
# 量化代码 ├── build.sh # 安装量化模块的脚本 ... 具体操作如下: 配置需要使用的NPU卡,例如:实际使用的是第1张和第2张卡,此处填写为“0,1”,以此类推。 export A
benchmark_parallel.csv 参数说明 --backend:服务类型,支持tgi、vllm、mindspore、openai等后端。本文档使用的推理接口是openai。 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tok
节点列表。 表4 NodeListMetadata 参数 参数类型 描述 continue String 分页查询时,下一次查询位置。 remainingItemCount Long 剩余资源个数。 表5 Node 参数 参数类型 描述 apiVersion String API版本。可选值如下:
创建消息订阅。设置订阅的主题为“fengbin26”,订阅的主题为“238947895793875835893490”,订阅的事件为“[ "*:failed,completed", "job_step:stop" ]”。订阅Workflow失败、完成和job_step节点停止三个事件,发生这三个事件时,会有消息提醒。
如下以查看训练作业的资源引擎规格为例。 GET https://endpoint/v1/{project_id}/job/ai-engines?job_type=train 响应示例 成功响应示例 { "is_success": true, "engines": [
--tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。 --pipeline-model-parallel-size:${PP}流水线并行数,需要与训练脚本中的PP值配置一样。 --load-dir:加载转换模型权重路径。 --save-dir :
主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.911) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 Eagle投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明
M-xxx.zip在本地解压缩后,将llm_train文件上传至OBS中。 结合准备数据、准备权重、准备代码,将数据集、原始权重、代码文件都上传至OBS后,OBS桶的目录结构如下。 <bucket_name> |──llm_train #
use_exllama=False) 加载要量化的模型,并将gptq_config传递给from_pretrained()方法。 quantized_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", quanti
use_exllama=False) 加载要量化的模型,并将gptq_config传递给from_pretrained()方法。 quantized_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", quanti
数据集预处理说明。 Step2 修改训练超参配置 以llama2-70b和llama2-13b预训练为例,执行脚本为0_pl_pretrain_70b.sh 和0_pl_pretrain_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。其他超参均有默认值,可以参考表1按照实际需求修改。