检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 管道id pipe_name String 管道名称 pipe_type String 管道类型(system-defined,系统预定义)、1(user-defined,用户自定义) description String 描述信息 storage_period Integer
已订购的包年包月计费的ServiceStage按需资源包是否支持变更规格? 已订购的包年包月计费的ServiceStage按需资源包,不支持变更规格。 但是,您可以根据实际业务需要购买其他规格的ServiceStage资源包,请参考购买资源包。 父主题: 计费FAQ
Hive启用Ranger鉴权后,在Hue页面能查看到没有权限的表和库 问题现象 普通集群(未开启Kerberos认证)中,Hive启用Ranger鉴权后,集群用户在Hue页面能查看到没有被授权的数据表和数据库内容。 本章节仅适用于MRS 3.2.1及之后版本。 原因分析 Hive
配置及验证优雅上下线能力 本章节以Nacos demo应用为例,通过Sermant Agent接入ServiceComb引擎,并在CCE集群上验证优雅上下线功能。 应用基于Sermant Agent会自动接入ServiceComb引擎,接入流程请参考CCE部署场景接入指南。 (可选)自定义优雅上下线配置
微服务日常运维 业务场景 ServiceStage支持应用监控、事件、告警、日志和调用链诊断,内置AI能力,可以实现轻松运维。 用户故事 在实际的使用场景中,用户可以通过图形化指标数据和阈值告警等能力,实时监控应用运行情况,同时结合性能管理与日志策略,快速定位应用的运行问题,分析性能瓶颈等。
cm_server参数 log_dir 参数说明:log_dir决定存放cm_server日志文件的目录。它可以是绝对路径,或者是相对路径(相对于cm_server数据目录的路径)。 取值范围:字符串。修改后需要重启cm_server才能生效。参数修改请参考表2进行设置。 默认值
cm_server参数 log_dir 参数说明:log_dir决定存放cm_server日志文件的目录。它可以是绝对路径,或者是相对路径(相对于cm_server数据目录的路径)。 取值范围:字符串。修改后需要重启cm_server才能生效。参数修改请参考表2进行设置。 默认值
SELECT SELECT 语法格式 1 2 3 4 5 6 SELECT [ ALL | DISTINCT ] { * | projectItem [, projectItem ]* } FROM tableExpression [ WHERE booleanExpression
去重 功能描述 对在列的集合内重复的行进行删除,只保留第一行或最后一行数据。 语法格式 1 2 3 4 5 6 7 SELECT [column_list] FROM ( SELECT [column_list], ROW_NUMBER() OVER ([PARTITION
查询数据库用户列表 功能介绍 查询指定实例中的数据库用户。 调用接口前,您需要了解API 认证鉴权。 调试 您可以在API Explorer中调试该接口。 接口约束 实例在异常或冻结状态下不能执行该操作。 不支持查询只读实例的数据库用户列表。 URI URI格式 GET /v3/
GLOBAL_STATEMENT_COMPLEX_RUNTIME 显示当前用户在各个节点上正在执行的作业的负载管理记录,如表1所示。 表1 GLOBAL_STATEMENT_COMPLEX_RUNTIME的字段 名称 类型 描述 datid oid 连接后端的数据OID。 dbname
STATEMENT_WLMSTAT_COMPLEX_RUNTIME STATEMENT_WLMSTAT_COMPLEX_RUNTIME视图显示和当前用户执行作业正在运行时的负载管理相关信息,如表1所示。 表1 STATEMENT_WLMSTAT_COMPLEX_RUNTIME字段
场景介绍 方案概览 本文档利用训练框架LlamaFactory+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Server上的微调方案,包括sft全参和lora 微调。 本方案目前仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite Server上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite Server上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Server上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成本方案
场景介绍 方案概览 本文档利用训练框架LlamaFactory+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Server上的不同训练阶段方案,包括指令监督微调、DPO偏好训练、RM奖励模型训练、PPO强化训练方案。 DPO(Direct
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Server上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成本方案
准备工作 创建IAM用户并授权使用Fabric 配置Fabric服务委托权限 创建工作空间