检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取的地址。例如:dev-modelarts-cnnorth4.huaweicloud.com。 Port:云上Notebook实例的端口,即在Notebook实例详情页获取的端口号。例如:32701。 Connection Type:选择SSH。 Saved Sessions:
}替换为宿主机实际的IP地址。 --port:服务部署的端口,和Step4 启动容器镜像中设置的端口保持一致,否则不能在容器外访问推理服务。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。 --trust-remo
_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs.yaml或performance_cfgs.yaml文件内容,参数详解可参考表1。 # 默认参数;根据自己实际要求修改 ## accuracy_cfgs.yaml、performance_cfgs
_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs.yaml或performance_cfgs.yaml文件内容,参数详解可参考表1。 # 默认参数;根据自己实际要求修改 ## accuracy_cfgs.yaml、performance_cfgs
在ECS中创建ma-user和ma-group 在ModelArts训练平台使用的自定义镜像时,默认用户为ma-user、默认用户组为ma-group。如果在训练时调用ECS中的文件,需要修改文件权限改为ma-user可读,否则会出现Permission denied错误,因此需要在
ocker_ip}替换为宿主机实际的IP地址,默认为None,举例:参数可以设置为0.0.0.0。 --port:服务部署的端口。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。 --trust-remote-code:是否相信远程代码。
main.py --port ${port} --force-fp16 --listen ${container_ip_address} 参数说明: port:为启动镜像时映射port container_ip_address:为容器IP,如上图的172.17.0.7 默认不使用图模式 若要使用图模式,需要配置环境变量
时参数。 echo $TMOUT 如果该值为300,则代表默认空闲等待5分钟后会断开连接,可以增大该参数延长空闲等待时间(如果值已经为0可跳过该步骤)。修改方法如下: vim /etc/profile # 在文件最后修改TMOUT值,由300改为0,0表示不会空闲断开 export
购买弹性云服务器时选择VPC 图5 查看虚拟私有云配置信息 获取在线服务的IP和端口号 可以通过使用图形界面的软件(以Postman为例)获取服务的IP和端口号,也可以登录弹性云服务器(ECS),创建Python环境运行代码,获取服务IP和端口号。 API接口: GET /v1/{project_id
购买弹性云服务器时选择VPC 图5 查看虚拟私有云配置信息 获取在线服务的IP和端口号 可以通过使用图形界面的软件(以Postman为例)获取服务的IP和端口号,也可以登录弹性云服务器(ECS),创建Python环境运行代码,获取服务IP和端口号。 API接口: GET /v1/{project_id
"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 高阶参数说明: --enable-prefix-ca
"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 高阶参数说明: --enable-prefix-ca
"mp"表示使用python多进程进行启动多卡推理。默认使用"mp"后端启动多卡推理。 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 高阶参数说明: --enable-prefix-ca
块获取的访问地址。例如:dev-modelarts-cnnorth4.huaweicloud.com Port: 云上开发环境的端口,即在开发环境实例页面远程访问模块获取的端口号。 User:登录用户只支持ma-user进行登录。 IdentityFile: 存放在本地的云上开发
服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。 --port:服务部署的端口。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。 --trust-remote-code:是否相信远程代码。 --
服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。 --port:服务部署的端口。 --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。 --trust-remote-code:是否相信远程代码。 --
导入,则为空。默认值为空。非模板参数 source_location 是 String 模型所在的OBS路径或SWR镜像地址。 source_copy 否 String 镜像复制开关,仅当“model_type”为“Image”时有效。 取值范围: true:默认值,复制镜像模式
roc:关闭异步后处理特性,关闭后性能会下降。 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。 hostname和port也必须分别是0.0.0.0和8080不可更改。 高阶参数说明: --enable-prefix-caching:如果prompt的公共前缀较长
已上传训练代码、训练权重文件和数据集到SFS Turbo中。 Step1 修改训练超参配置 以llama2-13b SFT微调为例,执行脚本 0_pl_sft_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。其他超参均有默认值,可以参考表1按照实际需求修改。 表1 训练超参配置说明 参数 示例值
已上传训练代码、训练权重文件和数据集到SFS Turbo中。 Step1 修改训练超参配置 以llama2-13b SFT微调为例,执行脚本 0_pl_sft_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。其他超参均有默认值,可以参考表1按照实际需求修改。 表1 训练超参配置说明 参数 示例值