检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
例只能调度到指定节点,指定节点不存在则失败。preferred表示弱亲和,服务实例倾向于调度到指定节点,指定节点不满足调度条件,则会调度到其他节点。 pool_infos Array of AffinityPoolInfo objects 配置亲和策略到指定的集群,并指定集群的节点。
ADD run.sh /home/mind/ CMD /bin/bash /home/mind/run.sh 完成镜像构建后,将镜像注册至华为云容器镜像服务SWR中,用于后续在ModelArts上部署推理服务。 使用适配后的镜像在ModelArts部署在线推理服务。 在obs中创
自由格式:管理的数据可以为任意格式,目前不支持标注,适用于无需标注或开发者自行定义标注的场景。如果您的数据集需存在多种格式数据,或者您的数据格式不符合其他类型数据集时,可选择自由格式的数据集。 表格 表格:适合表格等结构化数据处理。数据格式支持csv。不支持标注,支持对部分表格数据进行预览,但是最多支持100条数据预览。
USE_PFA_HIGH_PRECISION_MODE=1 # PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。 如果需要增加模型量化功能,启动推理服务前,先参考推理模型量化章节对模型做量化处理。 启动服务与请求。此
flavor_info flavor_info object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表35 billing 参数 参数类型 描述 code String 计费码。 unit_num Integer 计费卡数。 表36
grep Total # 在每个实例节点上运行此命令可以看到总卡数 如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查docker是否安装。 docker -v #检查docker是否安装
殊字符&<>"'/,缺省值为空。 flavor 是 String 实例的机器规格。实际支持规格以具体区域为准。如果您需要使用默认规格之外的其他规格,请提交工单修改规格。 spec 是 Object 实例定义,当前仅支持Notebook,如表3所示。 workspace 否 Object
flavor_info flavor_info object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表35 billing 参数 参数类型 描述 code String 计费码。 unit_num Integer 计费卡数。 表36
flavor_info flavor_info object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表37 billing 参数 参数类型 描述 code String 计费码。 unit_num Integer 计费卡数。 表38
7。runtime可选值与model_type相关,当model_type设置为Image时,不需要设置runtime,当model_type设置为其他常用框架时,请选择您使用的引擎所对应的运行时环境。目前支持的运行时环境列表请参见推理支持的AI引擎。 需要注意的是,如果您的模型需指定CP
# PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。 如果需要增加模型量化功能,启动推理服务前,先参考推理模型量化章节对模型做量化处理。 启动服务与请求。此
grep Total # 在每个实例节点上运行此命令可以看到总卡数 如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装NPU设备和驱动,或释放被挂载的NPU。 检查containerd是否安装。 containerd -v # 检查containerd是否安装
# PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。 若要开启图模式,请配置以下4个环境变量,并且启动服务时不要添加enforce-eager参数。 export
# PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型和Qwen2-57b模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。 若要开启图模式,请配置以下4个环境变量,并且启动服务时不要添加enforce-eager参数。 export
grep Total # 在每个实例节点上运行此命令可以看到总卡数 如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装NPU设备和驱动,或释放被挂载的NPU。 检查containerd是否安装。 containerd -v # 检查containerd是否安装
devel开发包)中。它提供了一组C函数,用于读取、修改和创建ELF文件,而NVIDIA驱动程序需要使用这些函数来解析当前正在运行的内核和其他相关信息。 安装过程中的提示均选OK或YES,安装好后执行reboot重启机器,再次登录后执行命令查看GPU卡信息。 nvidia-smi
建议容器分层构建,单层容量不要超过1G、文件数不大于10w个。分层时,先构建不常变化的层,例如:先OS,再cuda驱动,再Python,再pytorch,再其他依赖包。 如果训练数据和代码经常变动,则不建议把数据、代码放到容器镜像里,避免频繁地构建容器镜像。 容器已经能满足隔离需求,不建议在容器内再创建多个conda
flavor_info FlavorInfoResponse object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表34 FlavorInfoResponse 参数 参数类型 描述 max_num Integer 可以选择的最大节点数量(max_num,为1代表不支持分布式)。
flavor_info FlavorInfoResponse object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表36 FlavorInfoResponse 参数 参数类型 描述 max_num Integer 可以选择的最大节点数量(max_num,为1代表不支持分布式)。
flavor_info FlavorInfoResponse object 资源规格详细信息。 attributes Map<String,String> 其他规格属性。 表33 FlavorInfoResponse 参数 参数类型 描述 max_num Integer 可以选择的最大节点数量(max_num,为1代表不支持分布式)。