检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ThriftServer应用开发示例工程所需的配置文件还需参考准备ThriftServer实例配置文件获取。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的
gdata/audit/tez/tezui”(审计日志)。 日志归档规则:Tez的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过20MB的时候(此日志文件大小可进行配置),会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
”(审计日志)。 日志归档规则:Hue的日志启动了自动压缩归档功能,默认情况下,当“access.log”、“error.log”、“runcpserver.log”和“hue-audits.log”大小超过5MB的时候,会自动压缩。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。
”(审计日志)。 日志归档规则:Hue的日志启动了自动压缩归档功能,默认情况下,当“access.log”、“error.log”、“runcpserver.log”和“hue-audits.log”大小超过5MB的时候,会自动压缩。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。
gdata/audit/tez/tezui”(审计日志)。 日志归档规则:Tez的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过20MB的时候(此日志文件大小可进行配置),会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
配置Doris对接Hive数据源 通过连接Hive Metastore,或者兼容Hive Metatore的元数据服务,Doris可以自动获取Hive的库表信息,并进行数据查询。 除Hive外,很多其他系统也会使用Hive Metastore存储元数据。通过Hive Catalo
/opt/client/conf 准备集群认证用户信息时获取的keytab文件也放置于该目录下。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的
解决鲲鹏机型KuduMaster偶现自动重启问题 解决Ranger界面无法正常搜索问题 解决Ranger界面登出后未重定向到登录页面的问题 补丁兼容关系 MRS 3.0.5.1补丁包中包含所有MRS 3.0.5单点问题修复补丁。 安装补丁的影响 MRS 3.0.5.1补丁安装过程中会自动重启Execu
客户端命令连接ZooKeeper地址错误。 Kafka服务异常Kafka部分节点处于停止状态。 Kafka服务端配置禁止删除。 Kafka配置自动创建,且Producer未停止。 原因分析 客户端命令,打印ZkTimeoutException异常。 [2016-03-09 10:41:45
续费相关的功能 功能 说明 手动续费 包年/包月MRS集群从购买到被自动删除之前,您可以随时在MRS控制台为集群续费,以延长集群的使用时间。 自动续费 开通自动续费后,MRS集群会在每次到期前自动续费,避免因忘记手动续费而导致资源被自动删除。 在一台包年/包月MRS集群生命周期的不同阶段,您
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 204 操作成功。 错误码 请参见错误码。 父主题: 标签管理接口
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 204 删除数据连接成功 错误码 请参见错误码。 父主题: 数据连接管理
普通(非Kerberos)模式下,使用用户名和密码进行登录,如不指定用户,则匿名登录; 在JDBC URL地址中提供登录Kerberos用户的principal,程序自动完成安全登录、建立Impala连接。 执行创建表、查询和删除三类Impala SQL语句。 package com.huawei.bigdata
普通(非Kerberos)模式下,使用用户名和密码进行登录,如不指定用户,则匿名登录; 在JDBC URL地址中提供登录Kerberos用户的principal,程序自动完成安全登录、建立Impala连接。 执行创建表、查询和删除三类Impala SQL语句。 package com.huawei.bigdata
同步Kafka数据至ClickHouse 本章节指导用户通过创建Kafka引擎表将Kafka数据自动同步至ClickHouse集群。 前提条件 已创建Kafka集群。已安装Kafka客户端,详细可以参考安装客户端。 已创建ClickHouse集群,并且ClickHouse集群和K
当part数量超过阈值part_num_threshold时,系统上报此告警。 当part数量低于阈值part_num_threshold时,告警自动消除。 告警属性 告警ID 告警级别 是否可自动清除 45437 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称 服务名 产生告警的服务名称
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 请求成功 错误码 请参见错误码。 父主题: 版本元数据查询
同步Kafka数据至ClickHouse 您可以通过创建Kafka引擎表将Kafka数据自动同步至ClickHouse集群,具体操作详见本章节描述。 前提条件 已创建Kafka集群。已安装Kafka客户端,详细可以参考安装客户端。 已创建ClickHouse集群,并且ClickH
队列中等待时间过长而过期。 自动刷新功能不会自动刷新状态为disable的物化视图。 查询外部Hive数据源使用自动刷新物化视图注意事项 维护实例默认使用HetuEngine内置用户hetuserver/hadoop.<系统域名>作为执行物化视图自动刷新的用户, 当创建物化视图语
损坏,否则关键数据不会丢失。 硬盘亚健康检测和故障处理,对业务不造成实际影响。 自动处理文件系统的故障,自动恢复受影响的业务。 自动处理进程和节点的故障,自动恢复受影响的业务。 自动处理网络故障,自动恢复受影响的业务。 数据备份与恢复 为应对数据丢失或损坏对用户业务造成不利影响,