检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时序预测-time_series_v2算法部署在线服务预测报错 问题现象 在线服务预测报错:ERROR: data is shorter than windows。 原因分析 该报错说明预测使用的数据行数小于window超参值。 在使用订阅算法时序预测-time_series_v
GPU裸金属服务器使用EulerOS内核误升级如何解决 问题现象 GP Vnt1裸金属服务器,操作系统为EulerOS 2.9(基于CentOS制作的Linux发行版),经常遇到服务器重启后,操作系统内核无故升级,导致系统上原安装的nvidia-driver等软件无法使用,只能卸载重新安装。
表名存在乱码导致Camel访问数据库失败 原因分析 访问数据库使用参数不正确,导致组合任务启动失败,任务终止。 解决方案 检查数据库中是否有表名存在乱码的情况,如果存在请和数据库管理员沟通后删除乱码表名的表,然后重新启动任务。 父主题: 数据集成组合任务
灰度发布 weather-beta是weather的新版本,提供了紫外线查询功能。升级weather-beta,需要先将少部分请求引流到新版本做功能验证,功能验证正常的情况下,再下线老版本。在升级过程中,需要保证客户的请求不能出现中断,在部署新版本的过程中不给新版本导流,在下线老版本前已经将老版本的流量全部切走。
FATAL Can't get local ip 问题现象 SLB部署失败,日志详细信息提示如下: step2_install : generate confd conf & templates /opt/huawei/easyconf/sbin/confagent[27688]:
no such file or directory......./ssl/dummy.pem 问题现象 配置同步失败,日志详细信息提示如下: "no such file or directory......./ssl/dummy.pem" 解决方法 登录SLB实例主机,执行命令su
数据连接器 数据连接器是工作流的基础节点之一,包含“json解析”和“cdm解析”两个执行动作。 数据解析连接器用于解析接收到的一个对象或者数组,以获取到用户想要的数据。 json解析 输入参数 json解析执行动作,输入参数说明如表1所示。 表1 json解析输入参数说明 参数
删除微服务引擎 如不再使用微服务引擎专享版,可执行删除操作。 删除引擎后数据无法恢复,请谨慎操作。 对于1.x版本引擎,缺少cse_admin_trust委托时,删除引擎,租户侧资源DNS、VPC、安全组会残留,需要租户自行删除。 背景介绍 支持删除处于如下状态的微服务引擎专享版:
角色管理 除了系统中默认提供的两种角色:管理员(admin)和开发者(developer)无法进行操作外,您可以使用该微服务引擎下关联了admin角色权限的“账号”登录微服务引擎控制台,根据实际的业务需求对角色进行如表1所示的操作。 表1 角色管理操作说明 操作 说明 创建角色
入门案例:快速创建一个物体检测的数据集 本节以准备训练物体检测模型的数据为例,介绍如何针对样例数据,进行数据分析、数据标注等操作,完成数据准备工作。在实际业务开发过程中,可以根据业务需求选择数据管理的一种或多种功能完成数据准备。此次操作分为以下流程: 准备工作 创建数据集 数据分析
使用Cloud Shell调试生产训练作业 ModelArts Standard提供了Cloud Shell,可以登录运行中的容器,用于调试生产环境的训练作业。 约束限制 仅专属资源池支持使用Cloud Shell登录训练容器,且训练作业必须处于“运行中”状态。 前提条件:给子账号配置允许使用Cloud
管理在线服务生命周期 启动服务 您可以对处于“运行完成”、“异常”和“停止”状态的服务进行启动操作,“部署中”状态的服务无法启动。启动服务,当服务处于“运行中”状态后,ModelArts将开始计费。您可以通过如下方式启动服务: 登录ModelArts管理控制台,在左侧菜单栏中选择
主流开源大模型基于Standard+OBS适配ModelLink PyTorch NPU训练指导(6.3.911) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
Cloud Map服务资源介绍 服务发现(Cloud Map)是云服务统一的服务注册发现中心,主要是为解决业务依赖环境配置繁琐的难题。不支持替换业务自己的ZooKeeper、ETCD等配置中心。 服务资源介绍 Cloud Map根据服务注册和发现方式不同,把管理的服务资源分为三种
应用迁移 模型适配 pipeline代码适配 父主题: 基于AIGC模型的GPU推理业务迁移至昇腾指导
使用Notebook进行代码调试 背景信息 Notebook使用涉及到计费,具体收费项如下: 处于“运行中”状态的Notebook,会消耗资源,产生费用。根据您选择的资源不同,收费标准不同,价格详情请参见产品价格详情。当您不需要使用Notebook时,建议停止Notebook,避免产生不必要的费用。
主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.909) 推理场景介绍 准备工作 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 附录:工作负载Pod异常问题和解决方法
推理精度测试 本章节介绍如何进行推理精度测试,请在Notebook的JupyterLab中另起一个Terminal,进行推理精度测试。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evalua
推理精度测试 本章节介绍如何使用lm-eval工具开展语言模型的推理精度测试,数据集包含mmlu、ARC_Challenge、GSM_8k、Hellaswag、Winogrande、TruthfulQA等。 约束限制 确保容器可以访问公网。 当前的精度测试仅适用于语言模型精度验证
主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.911) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 Eagle投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: