检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
PSQLException: ERROR: syntax error at or near 问题现象 judge历史的原始详情中出现PSQLException: ERROR: syntax error at or near报错。 可能原因 在judge日志的ad-agent日志中
购买这个服务是不是要先购买其他的配套服务? 不需要。 父主题: 关于服务购买
导出ModelArts数据集中的数据为新数据集 针对数据集中的数据,用户可以选中部分数据或者通过条件筛选出需要的数据,导出成新的数据集。用户可以通过任务历史查看数据导出的历史记录。本章主要介绍将ModelArts数据集中的数据为新数据集的方式,新导出的数据集可直接在ModelArts控制台数据集列表中显示。
导出ModelArts数据集中的数据到AI Gallery 针对数据集中的数据,用户可以选中部分数据或者通过条件筛选出需要的数据,导出到AI Gallery。用户可以通过任务历史查看数据导出的历史记录。发布到AI Gallery中的数据集,可以设置是否公开,将数据集公开给其他人使用。
训练预测分析模型 创建自动学习后,将会进行模型的训练,得到预测分析的模型。模型部署步骤将使用预测模型发布在线预测服务。 操作步骤 在新版自动学习页面,单击创建成功的项目名称,查看当前工作流的执行情况。 在“预测分析”节点中,待节点状态由“运行中”变为“运行成功”,即完成了模型的自动训练。
创建Qwen2-0.5B或Qwen2-1.5B模型的LoRA微调类型的调优任务,显示创建失败 问题现象 创建LoRA调优任务,选择支持Modellink框架类型的模型Qwen2-0.5B,数据集选择MOSS格式的jsonl数据,添加超参设置,创建调优任务失败。 关键日志报错: AttributeError:
在WiseDBA中同步Schema WiseDBA上的Schema记录与数据库引擎上的Schema有差异时,可以通过同步Schema功能保持一致。GaussDB、RDS for PostgreSQL数据库会同时同步Database和Schema。 注意事项 在WiseDBA中删除
关联LTS日志组 为组件关联LTS日志组后,就可以将LTS采集到的组件运行日志数据在ServiceStage控制台以简单有序的方式展示、方便快捷的方式进行查询。 前提条件 已创建日志组,请参考创建日志组。 已创建日志流,请参考创建日志流。 主机待采集日志的路径已配置到日志流。 采用“云容器引擎
配置泳道组流量入口网关路由(基于流量配置) 根据实际业务需要,您可以基于流量配置泳道组流量入口网关路由。 前提条件 待操作泳道组已创建成功并关联流量入口网关,请参考创建泳道组。 待操作泳道组下已创建泳道。 创建基线泳道,请参考创建基线泳道。 创建灰度泳道,请参考创建灰度泳道。 配
按条件查询微服务实例 功能介绍 实例注册后可以根据微服务字段条件发现该微服务的实例。 URI GET /v4/{project_id}/registry/instances 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 微服务引擎专业版,
根据微服务引擎ID获取所有泳道 功能介绍 此API用于根据微服务引擎ID获取所有泳道。 URI GET /v3/{project_id}/cas/swimlane 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户项目ID。获取方法,请参考获取项目ID。
手动构建验证 在浏览器地址栏输入http://{安装Jenkins的Linux虚拟机IP}:8080,登录Jenkins。 单击“我的视图”。 选择对应的构建任务,单击构建任务名称进入详情界面。 单击“立即构建”,生成构建任务。 在“构建历史”以及“阶段视图”中会有对应的构建任务
重新安装Sermant Injector 安装Sermant Injector失败后,可以执行本操作重新安装。 使用限制 重新安装Sermant Injector负载过程中无法挂载Sermant Agent,可能会导致在此期间重启的服务实例接入ServiceComb引擎或者注册配置中心失败。
准备工作 准备环境 准备代码 准备镜像 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.911)
日志提示“max_pool2d_with_indices_out_cuda_frame failed with error code 0” 问题现象 pytroch1.3镜像中,去升级了pytroch1.4的版本,导致之前在pytroch1.3跑通的代码报错如下: “Runtim
远程连接出现弹窗报错:Could not establish connection to xxx 问题现象 原因分析 执行VS Code Remote SSH连接失败。 解决方法 单击弹窗右上角关闭弹窗,查看OUTPUT中的具体报错信息,并参考后续章节列举的几种常见报错解决问题。
使用AI市场物体检测YOLOv3_Darknet53算法训练后部署在线服务报错 问题现象 使用AI市场物体检测YOLOv3_Darknet53算法进行训练,将数据集切分后进行部署在线服务报错,日志如下:TypeError: Cannot interpret feed_dict key
精度问题诊断 逐个替换模型,检测有问题的模型 该方式主要是通过模型替换,先定位出具体哪个模型引入的误差,进一步诊断具体的模型中哪个算子或者操作导致效果问题,模型替换原理如下图所示。通过设置开关选项(是否使用onnx模型),控制模型推理时,模型使用的是onnx模型或是mindir的模型。
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: 主流开源大模型基于Lite Server适配PyTorch NPU训练指导(6.3.905)
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。