检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
注册。 图2 选择镜像源 “架构”和“类型”:根据自定义镜像的实际框架选择。 注册后的镜像会显示在ModelArts“镜像管理”页面。 父主题: 制作自定义镜像用于创建Notebook
22d8a4b204", "enable" : true } 状态码 状态码 描述 201 定时调度信息。 错误码 请参见错误码。 父主题: Workflow工作流管理
/v1/{project_id}/notebooks/{id}/lease modelarts:notebook:updateStopPolicy - √ √ 父主题: 权限策略和授权项
使用。保存镜像,安装的依赖包不会丢失。安装完依赖包后,推荐保存镜像,避免安装的依赖包丢失。具体操作请参见保存Notebook镜像环境。 父主题: Standard镜像相关
抽取kv-cache量化系数生成的json文件路径; 如果只测试推理功能和性能,不需要此json文件,此时scale系数默认为1,但是可能会造成精度下降。 父主题: 推理模型量化
检查本地Vscode是否为最新版,最新版可能有bug,建议使用推荐版本v1.82。 如果以上步骤排查均无问题仍未解决,请联系技术支持定位。 父主题: VS Code连接开发环境失败故障处理
module named xxx”的报错,请添加如下代码安装依赖包: import os os.system('pip install xxx') 父主题: 云上迁移适配故障
单击目标服务名称,进入服务详情页面,单击右上角“删除”按钮进行删除。 删除操作无法恢复,请谨慎操作。 没有委托授权时,无法删除服务。 重启服务 批量服务不支持重启。 父主题: 管理批量推理作业
如果在安装过程中报错提示缺少相应的依赖包,请根据报错提示执行如下命令进行依赖包安装。 pip install xxxx 其中,xxxx为依赖包的名称。 父主题: ModelArts CLI命令参考
"k3", "value" : "v2" } ] } 状态码 状态码 描述 204 添加成功。 错误码 请参见错误码。 父主题: 训练管理
状态码 描述 204 删除成功。 400 参数非法。 401 鉴权失败。 403 权限不足。 404 资源不存在。 错误码 请参见错误码。 父主题: 开发环境管理
状态码 描述 204 标签列表。 400 参数非法。 401 鉴权失败。 403 权限不足。 404 资源不存在。 错误码 请参见错误码。 父主题: 资源标签管理
pytorch_2.1.0 驱动23.0.6 从SWR拉取 不同软件版本对应的基础镜像地址不同,请严格按照软件版本和镜像配套关系获取基础镜像。 父主题: SD1.5&SDXL Kohya框架基于DevServer适配PyTorch NPU训练指导(6.3.908)
问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启。 父主题: 主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.909)
问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910)
下的trainer_log.jsonl文件的最后一行总的训练steps和时间来判断性能。 图3 trainer_log.jsonl文件 父主题: 主流开源大模型基于Lite Server适配LlamaFactory PyTorch NPU训练指导(6.3.909)
可执行下述命令关闭进程,查询进程后显示已无运行中python进程。 pkill -9 python ps -ef 图16 关闭训练进程 父主题: Lite Cluster资源配置
等,这些负载会占用一部分网络带宽,从而影响NVLINK带宽的表现。重新安装软件后,这些负载可能被清除,从而使NVLINK带宽恢复正常。 父主题: Lite Server
"INF-ae2aa85ca9542b46-1700530937026" ] } 状态码 状态码 描述 200 OK 400 参数非法 错误码 请参见错误码。 父主题: 服务管理
使用子账号用户登录ModelArts控制台,选择“模型部署 > 在线服务”,单击“部署”,在部署服务页面,资源池规格只能选择专属资源池。 父主题: 典型场景配置实践