检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户的“子目录挂载”路径。如果默认没有填写,则忽略。 图4 选择SFS Turbo 作业日志选择OBS中的路径,ModelArts的训练作业的日志信息则保存该路径下。
云上挂载路径:输入镜像容器中的工作路径 /home/ma-user/work/ 存储位置:输入用户的“子目录挂载”路径。如果默认没有填写,则忽略。 图4 选择SFS Turbo 作业日志选择OBS中的路径,ModelArts的训练作业的日志信息则保存该路径下。
vpc_id String 实例所在虚拟私有云ID。 endpoints Array of EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse object 服务器镜像信息。
vpc_id String 实例所在虚拟私有云ID。 endpoints Array of EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse object 服务器镜像信息。
搜索“图像分类-ResNet_v1_50工作流”,单击“订阅”,勾选“我已同意《数据安全与隐私风险承担条款》和《华为云AI Gallery服务协议》”,单击“继续订阅”即可完成工作流的订阅。订阅过的工作流会显示“已订阅”。
购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。
安装方式如下: MindSpore Lite云侧推理包解压缩后,设置LITE_HOME环境变量为解压缩的路径,例如: export LITE_HOME=$some_path/mindspore-lite-2.2.10-linux-aarch64 设置环境变量LD_LIBRARY_PATH
/ / 管理资源池标签 通过给资源池添加标签,可以标识云资源,便于快速搜索资源池。 在资源池详情页,切换到“标签”页签。您可以查看、搜索、添加、修改、删除资源池的标签信息。 最多支持添加20个标签。
SFS Turbo:增加挂载配置,选择SFS名称,云上挂载路径为“/home/ma-user/work”。 为了和Notebook调试时代码路径一致,保持相同的启动命令,因此云上挂载路径需要填写为“/home/ma-user/work”。
目前默认开启此模式,若不开启,目前vllm0.6.0版本与实验室版本权重无法对齐,会导致小模型精度问题。
从本地VSCode连接云上的Notebook实例、提交训练作业等。 按需配置。
如果是首次在AI Gallery发布资产则此处会出现勾选“我已阅读并同意《华为云AI Gallery百模千态社区服务声明 》和《 华为云AI Gallery服务协议 》”选项,需要阅读并勾选同意才能正常发布资产。
约束限制 本文档适配昇腾云ModelArts 6.3.911版本,请参考表2获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。 确保容器可以访问公网。
“云上挂载路径”:输入SFS Turbo对应在训练容器内的云上挂载路径。 “存储位置”:选择SFS Turbo的存储位置。如果用户配置了文件夹控制权限,请选择存储位置;如果用户未配置文件夹控制权限,可以保持默认值“/”或者自定义位置。
如果需要升级或修改,请联系华为云技术支持。 ModelArts Lite Server使用ECS服务器时不支持重装操作系统,部分区域使用裸金属服务器时也不支持重装操作系统,如果您想重装操作系统,您可通过切换操作系统的方式解决。更多信息,请参见Server使用前须知。
目前默认开启此模式,若不开启,目前vllm0.6.0版本与实验室版本权重无法对齐,会导致小模型精度问题。
--use-v2-block-manager:vllm启动时使用V2版本的BlockSpaceManger来管理KVCache索引,如果不使用该功能,则无需配置。注意:如果使用投机推理功能,必须开启此参数。 --served-model-name:vllm服务后台id。
] } } } } } ] } 使用自定义依赖包的模型配置文件示例 如下示例中,定义了1.16.4版本的
以安装515.105.01版本为例。 version=515.105.01 main_version=$(echo $version | awk -F '.'
--use-v2-block-manager:vllm启动时使用V2版本的BlockSpaceManger来管理KVCache索引,若不使用该功能,则无需配置。注意:若使用投机推理功能,必须开启此参数。 --served-model-name:vllm服务后台id。