检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
务端口,而8088、8089则为scheduler调度推理服务端口。 USE_OPENAI:仅在服务入口实例生效,用于配置api-server服务是否使用openai服务,默认为1。当配置为1时,启动服务为openai服务;当配置为0时,启动服务为vllm服务。 其中常见的参数如下,
代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统,work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 shm-size:共享内存大小。 ${container_n
DEFER_DECODE=1 # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。 export DEFER_MS=10 # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得本次T
容器使用不同的文件系统。work_dir为宿主机中工作目录,目录下可存放项目所需代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂载到/home/ma-user目录,此目录为ma-user用户家目录。如果容器挂载到
表示消息的内容,类型为list。单图单轮对话content必须包含两个元素,第一个元素type字段取值为text,表示文本类型, text字段取值为输入问题的字符串。 第二个元素`type`字段取值为image_url, 表示图片类型,image_url字段取值为是输入图片的base64编码。
DEFER_DECODE=1 # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。 export DEFER_MS=10 # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次T
作自定义镜像,导入ModelArts创建为AI应用,并支持进行统一管理和部署为服务。 创建AI应用的自定义镜像规范 从0-1制作自定义镜像并创建AI应用 资源池 使用ModelArts进行AI开发时,需要使用一些计算资源进行训练或推理。为满足不同开发业务,ModelArts提供了
启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。 export DEFER_MS=10 # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次Token解码能与下一次模型推理并行计算,从而减少总推理时延。
文件详情请参考查看诊断报告。 下面以开发环境Notebook为例介绍一个典型的性能调优案例。 64卡训练任务,模型为GPT MOE,tensor parallel(tp)为8,pipeline parallel(pp)为4。训练过程中发现每个step耗时均显著增大,基于dynam
使用量化模型需要在NPU的机器上运行。 在模型的保存目录中创建quant_config.json文件,bits必须设置为8,指定量化为int8;group_size必须设置为-1,指定不使用pergroup;desc_act必须设置为false,内容如下: { "bits": 8, "group_size":
数据源所在路径。可选值如下: 如果type是OBS,source为OBS路径。 如果type是TASK,source为任务ID。 如果type是DATASET,source为数据集ID。 如果type是CUSTOM且是资源租户调用,source为真实用户的project_id, 否则不需要这个字段。
务端口,而8088、8089则为scheduler调度推理服务端口。 USE_OPENAI:仅在服务入口实例生效,用于配置api-server服务是否使用openai服务,默认为1。当配置为1时,启动服务为openai服务;当配置为0时,启动服务为vllm服务。 其中常见的参数如下,
docker-runc.aarch64 配置IP转发,用于容器内的网络访问。执行以下命令查看net.ipv4.ip_forward配置项的值,如果为1,可跳过此步骤。 sysctl -p | grep net.ipv4.ip_forward 如果net.ipv4.ip_forward配置
定义策略。 如果一个自定义策略中包含多个服务的授权语句,这些服务必须是同一属性,即都是全局级服务或者项目级服务。 由于OBS为全局服务,ModelArts为项目级服务,所以需要创建两条“作用范围”别为“全局级服务”以及“项目级服务”的自定义策略,然后将两条策略同时授予用户。 创建
kenizer文件说明。 Step3 启动训练脚本 修改超参值后,再启动训练脚本。其中 Llama2-70b建议为4机32卡训练。 多机启动 以 Llama2-70b为例,多台机器执行训练启动命令如下。进入代码目录 /home/ma-user/ws/llm_train/AscendSpeed
size)流水线模型并行策略,具体详细参数配置如表2所示。 Step3 启动训练脚本 修改超参值后,再启动训练脚本。Llama2-70b建议为4机32卡训练。 多机启动 以 Llama2-70b为例,多台机器执行训练启动命令如下。进入代码目录 /home/ma-user/ws/llm_train/AscendSpeed
参数说明: node_num/NODE_NUM:机器数量,修改${NODE_NUM}为具体数字。 node_rank/NODE_RANK:机器rank num,主机为0,其余递增,修改${NODE_RANK}为具体数字。 master_addr/MASTER_ADDR:主机IP地址,修改
工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 model_type 否 String 模型类型,查询属于该类型的模型列表。model_type与not_model_type为互斥关系,不能同时存在。可选值为TensorFlow、PyTorc
do_train true 指示脚本执行训练步骤,用来控制是否进行模型训练的。如果设置为true,则会进行模型训练;如果设置为false,则不会进行模型训练。 cutoff_len 4096 文本处理时的最大长度,此处为4096,用户可根据自己要求适配。 packing true 可选项。当选
代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的大文件系统,dir为宿主机中文件目录,${container_work_dir}为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂载到/home/ma-user目录,此目录为ma-user用户家目录。如果容器挂载到/home/ma