检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Regions”列的Region分布是否均衡。 是,执行13。 否,执行7。 以omm用户登录故障RegionServer节点。 进入客户端安装目录,配置环境变量。 cd 客户端安装目录 source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase
个数量级。 ClickHouse核心的功能特性介绍如下: 完备的DBMS功能 ClickHouse拥有完备的DBMS数据库管理系统(Database Management System),基本功能如下所示。 DDL (数据定义语言):可以动态地创建、修改或删除数据库、表和视图,而无须重启服务。
Flink服务包含了两个重要的角色:FlinkResource和FlinkServer。 FlinkResource:提供客户端配置管理,是必须安装的角色。包括供客户端下载使用的原始lib包和配置文件,以及FlinkServer提交作业所依赖的原始lib包。无实体进程,作业运行过程不依赖FlinkResource。
在要删除用户所在的行,选择“更多 > 删除”。 图2 删除用户 单击“确定”完成删除操作。 如果删除用户A后,再次准备重新创建同名用户A,如果该用户A已经提交过作业(客户端提交或者MRS console页面提交),那么需要在删除该用户A的同时,删除该用户A残留的文件夹,否则使用重新创建的同名用户A提交作业会失败。
java:937) at KafkaNew.Consumer$ConsumerThread.run(Consumer.java:40) 可能原因 客户端和服务端Jar版本不一致。 解决办法 修改Consumer应用程序中Kafka jar,确保和服务端保持一致。 父主题: 使用Kafka
Doris常见SQL语法说明 CREATE DATABASE CREATE TABLE INSERT INTO ALTER TABLE DROP TABLE 父主题: 使用Doris
Sqoop常见问题 连接postgresql或者gaussdb时报错 使用hive-table方式同步数据报错 导入到Hive表时报错 父主题: 使用Sqoop
将步骤2中的jar包下载到本地。 将下载的jar包替换到本地JDK目录/opt/Bigdata/jdk/jre/lib/security。 执行cd 客户端安装目录/HBase/hbase/bin命令,进入到HBase的bin目录。 执行sh start-hbase.sh命令,重启HBase组件。
ou=People,dc=huawei,dc=com或cn=%s,ou=People,dc=huawei,dc=com --ldap_passwords_in_clear_ok LDPA 密码是否以明文发送 如果设置为true,将允许LDAP密码在网络上明文发送 【取值范围】 true或false
EXPLAIN SELECT (of table) CREATE TABLE CREATE (of database) CREATE TABLE As SELECT CREATE (on database), INSERT (on table), RW on data file, and SELECT
创建CDL作业前准备 开启Kafka高可靠功能 登录CDLService WebUI界面 上传数据库驱动文件 创建CDL数据库连接 管理CDL ENV变量 配置源数据心跳表实现数据判齐功能 父主题: 使用CDL
为什么INSERT INTO CARBON TABLE失败? 为什么含转义字符的输入数据记录到Bad Records中的值与原始数据不同? 为什么Bad Records导致数据加载性能降低? 为什么在off heap时数据加载失败? 为什么创建Hive表失败? 如何在不同的namespaces上逻辑地分割数据
可能原因 HDFS NameNode配置的非堆内存不足。 处理步骤 清除无用文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env。 如果集群采用安全版本,要进行安全认证。 执行kinit
是,执行13。 否,执行14。 根据2中上报告警的磁盘分区,找到数据量较大的Topic,手动调小保存周期,使用Kafka的linux客户端,执行如下操作命令: kafka-topics.sh --zookeeper ZooKeeper地址:24002/kafka --alter
MRS.1010 The RDS instance whose ID is xxx is not found. The status (xxx) of RDS instance xxx is abnormal. 没有找到ID为xxx的RDS实例! RDS实例xxx的状态异常,状态xxx!
查看作业完成情况 进入“Loader WebUI”界面,待“状态”显示“成功”则说明作业完成。 图4 查看作业 使用ClickHouse客户端,查询ClickHouse表数据是否和HDFS导入的数据一致。 父主题: 创建Loader数据导入作业
Hue故障排除 使用Hive输入use database语句失效 使用Hue WebUI访问HDFS文件失败 在Hue页面上传大文件失败 集群未安装Hive服务时Hue原生页面无法正常显示 访问Hue原生页面时间长,文件浏览器报错Read timed out 父主题: 使用Hue
从而产生了deleted状态的文件。 处理步骤 将Spark的executor日志输出目录修改成其他名称: 打开日志配置文件,默认在“<客户端安装目录>/Spark/spark/conf/log4j-executor.properties”。 将日志输出文件改名。 例如: log4j
Bad Records管理,请参见表2。 表2 Bad Records Logger 配置项 默认值 描述 BAD_RECORDS_LOGGER_ENABLE false 如果设置为true,则将创建Bad Records日志文件,其中包含Bad Records的详细信息。 BAD_RECORDS_ACTION
resourceGroupAlarm) ”的值调整每个资源组的阈值。 收集故障信息。 根据故障信息中的HostName登录到集群节点,在presto客户端根据附加信息中的Reource Group查询排队数。 根据故障信息中的HostName登录到集群节点,查看/var/log/Bigdat