检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
json文件中配置。当业务可提供正常服务时,健康检查接口返回健康状态,否则返回异常状态。 如果要实现无损滚动升级,必须配置健康检查接口。 自定义镜像如果需要在“在线服务”模块使用OBS外部存储挂载功能,需要新建一个OBS挂载专属目录如“/obs-mount/”,避免选择存量目录覆盖已有文件。OBS挂载仅开放对挂
/home/ma-user/ws/model/llama2-70B 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
/home/ma-user/ws/save_dir/llama2-70B_sft_lora_4096 【必改】。训练任务结束生成日志及权重文件目录。根据实际情况决定 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
/home/ma-user/ws/save_dir/llama2-70B_sft_lora_4096 【必改】。训练任务结束生成日志及权重文件目录。根据实际情况决定 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
-2-13b-chat-hf 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-13b
件夹下。如果用户需要修改,可添加并自定义该变量。 SAVE_INTERVAL 10 表示训练间隔多少step,则会保存一次权重文件。 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-13b
/home/ma-user/ws/save_dir/llama2-70B_sft_lora_4096 【必改】。训练任务结束生成日志及权重文件目录。根据实际情况决定 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
/home/ma-user/ws/save_dir/llama2-70B_sft_lora_4096 【必改】。训练任务结束生成日志及权重文件目录。根据实际情况决定 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
/home/ma-user/ws/model/llama2-70B 必须修改。加载tokenizer与Hugging Face权重时,对应的存放地址。请根据实际规划修改。 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-70b
ModelArts服务的计费项由ModelArts计算资源费用和对象存储、云硬盘等基础资源费用组成。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 适用的功能模块 计算资源费用 计费因子:包括vCPU、GPU和NPU。 按需计费的资源,按购买规格和时长计费 包年/包月的资源,按购买规格和周期计费 按需计费
件夹下。如果用户需要修改,可添加并自定义该变量。 SAVE_INTERVAL 10 表示训练间隔多少step,则会保存一次权重文件。 SHELL_FOLDER $(dirname $(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-13b
sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 Step2 部署模型 在ModelArts控制台的AI应用管理模块中,将模型部署为一个AI应用。 登录ModelArts控制台,单击“资产管理 > AI应用 > 创建”,开始创建AI应用。 设置创建AI应
10,可以接受切换MindSpore。 - 业务编程语言、框架、版本。 C++/Python/JAVA等。 例如:业务逻辑使用JAVA,推理服务模块使用C++自定义实现推理框架,Python 3.7等。 - CPU使用率 业务中是否有大量使用CPU的代码,以及日常运行过程中CPU的占用
称会自动新增版本。此参数填写后,模型注册和服务部署会同步使用该参数名称。 工作流运行完成后用户可以在ModelArts控制台的“模型管理”模块查看已经部署完成的推理服务。 服务部署参数配置 服务配置 定时执行 启用定时任务后,系统将按照配置的周期定时启动该工作流。其中涉及手动确认
表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lora的最大rank数量,支持8、16、32、64。 --max-loras 表示支持的最大lora个数,最大32。
10,可以接受切换MindSpore。 - 业务编程语言、框架、版本。 C++/Python/JAVA等。 例如:业务逻辑使用JAVA,推理服务模块使用C++自定义实现推理框架,Python 3.7等。 - CPU使用率 业务中是否有大量使用CPU的代码,以及日常运行过程中CPU的占用
cn-north-1.myhuaweicloud.com”。 resource-path 资源路径,即API访问路径。从具体API的URI模块获取,例如“获取用户Token”API的resource-path为“/v3/auth/tokens”。 query-string 查询参
CANN日志:CANN日志是昇腾(Ascend)计算架构中用于记录CANN(Compute Architecture for Neural Networks)模块运行时信息的日志。在模型转换过程中,如果遇到“Convert graph to om failed”等错误,CANN日志可以帮助分析问题。
表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lora的最大rank数量,支持8、16、32、64。 --max-loras 表示支持的最大lora个数,最大32。
B模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。 Step2 部署模型 在ModelArts控制台的AI应用模块中,将模型部署为一个AI应用。 登录ModelArts控制台,单击“资产管理 > AI应用 > 创建”,开始创建AI应用。 设置创建AI应