检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/home/ma-user/ws mkdir -p tokenizers/Llama2-70B 多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。 父主题: 准备工作
异常。 物体检测:将发布好的数据集版本进行训练,生成对应的模型。 模型注册:将训练后的结果注册到模型管理中。 服务部署:将生成的模型部署为在线服务。 快速查找创建好的项目 在自动学习总览页,您可以通过搜索框,根据自动学习的属性类型(项目名称)快速搜索过滤到相应的工作流,可节省您的时间。
异常。 文本分类:将发布好的数据集版本进行训练,生成对应的模型。 模型注册:将训练后的结果注册到模型管理中。 服务部署:将生成的模型部署为在线服务。 快速查找创建好的项目 在自动学习总览页,您可以通过搜索框,根据自动学习的属性类型(项目名称)快速搜索过滤到相应的工作流,可节省您的时间。
W4A16量化工具 ├──convert_awq_to_npu.py # awq权重转换脚本 ├──quantize.py # 昇腾适配的量化转换脚本 ├──build.sh # 安装量化模块的脚本 ├──llm_evaluation
请求Body参数 参数 是否必选 参数类型 描述 schedule 否 Array of Schedule objects 服务调度配置,仅在线服务可配置,默认不使用,服务长期运行。 description 否 String 服务描述,不超过100个字符,不能包含字符有!<>=&"'。不设置此参数表示不更新。
异常。 图像分类:将发布好的数据集版本进行训练,生成对应的模型。 模型注册:将训练后的结果注册到模型管理中。 服务部署:将生成的模型部署为在线服务。 快速查找创建好的项目 在自动学习总览页,您可以通过搜索框,根据自动学习的属性类型(项目名称)快速搜索过滤到相应的工作流,可节省您的时间。
异常。 声音分类:将发布好的数据集版本进行训练,生成对应的模型。 模型注册:将训练后的结果注册到模型管理中。 服务部署:将生成的模型部署为在线服务。 快速查找创建好的项目 在自动学习总览页,您可以通过搜索框,根据自动学习的属性类型(项目名称)快速搜索过滤到相应的工作流,可节省您的时间。
资源池”时,下方会出现提示:公共资源池暂未完全公开,如需申请使用,请联系与您对接的销售人员或拨打4000-955-988获得支持,您也可以在线提交售前咨询。 如果不支持公共资源池,“公共资源池”按钮会置灰,鼠标悬停时,会提示:该模型版本暂不支持公共资源池部署。 前提条件 在“我的模型”页面存在已创建成功的模型。
细介绍见下文。 查看资源池中的作业 在资源池详情页,切换到“作业”页签。您可以查看该资源池中运行的所有作业,如果当前有作业正在排队,可以查看作业在资源池排队的位置。 当前仅支持查看训练作业。 查看资源池事件 在资源池详情页,切换到“事件”页签。您可以查看资源从创建到添加节点的各个
USER_CONVERTED_CKPT_PATH /home/ma-user/ws/xxx 【可选】已转换Megatron格式权重目录或训练输出结果权重目录,一般搭配断点续训或增量训练。 增量训练:转换Megatron权重,如不指定默认为${output_dir}/converted_hf2
USER_CONVERTED_CKPT_PATH /home/ma-user/ws/xxx 【可选】已转换Megatron格式权重目录或训练输出结果权重目录,一般搭配断点续训或增量训练。 增量训练:转换Megatron权重,如不指定默认为${output_dir}/converted_hf2
//docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/latest/getting_started/quickstart
请求Body参数 参数 是否必选 参数类型 描述 nodeNames 是 Array of strings 需要变更锁状态的节点名称列表。 actions 是 Array of strings 变更的功能类型。可选值如下: delete:删除锁 响应参数 状态码:200 表3 响应Body参数 参数
在Notebook中使用Moxing命令 MoXing Framework功能介绍 Notebook中快速使用MoXing mox.file与本地接口的对应关系和切换 MoXing常用操作的样例代码 MoXing进阶用法的样例代码 父主题: 使用Notebook进行AI开发调试
lm_tools/spec_decode/EAGLE 文件夹,使用convert_eagle_ckpt_to_vllm_compatible.py脚本进行权重转换。转换命令为 python convert_eagle_ckpt_to_vllm_compatible.py --base-path 大模型权重地址
lm_tools/spec_decode/EAGLE文件夹,使用convert_eagle_ckpt_to_vllm_compatible.py脚本进行权重转换。转换命令为 python convert_eagle_ckpt_to_vllm_compatible.py --base-path 大模型权重地址
USER_CONVERTED_CKPT_PATH /home/ma-user/ws/xxx 【可选】已转换Megatron格式权重目录或训练输出结果权重目录,一般搭配断点续训或增量训练。 增量训练:转换Megatron权重,如不指定默认为${output_dir}/converted_hf2
为docker镜像的ID,在宿主机上可通过docker images查询得到。 --shm-size:表示共享内存,用于多进程间通信。由于需要转换较大内存的模型文件,因此大小要求200g及以上。 通过容器名称进入容器中。启动容器时默认用户为ma-user用户。 docker exec
alpaca_gpt4_data.json # 微调数据文件 多机情况下,只有在rank_0节点进行数据预处理,转换权重等工作,所以原始数据集和原始权重,包括保存结果路径,都应该在共享目录下。 父主题: 准备工作
准备AscendFactory训练代码。 准备镜像 准备训练模型适用的容器镜像。 准备Notebook(可选) 如果用户有自定义开发的需要,比如查看和编辑代码、数据预处理、权重转换等操作,可通过Notebook环境进行,并且Notebook环境具有一定的存储空间,可与OBS中的数据相互传递。 训练 预训练/微调 介绍