检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当客户端所在主机不是集群中的节点时,需要在客户端所在节点的“/etc/hosts”文件中设置主机名和IP地址(业务平面)映射。主机名和IP地址请保持一一对应。 配置HBase上层应用所在主机的时间与备集群的时间保持一致,时间差要小于5分钟。 检查主集群的认证模式。 如果为安全模式,执行8。 如果为普通模式,任务结束。
Hive企业级能力增强 配置Hive表不同分区分别存储至OBS和HDFS 配置Hive目录旧数据自动移除至回收站 配置Hive插入数据到不存在的目录中 配置创建Hive内部表时不能指定Location 配置用户在具有读和执行权限的目录中创建外表 配置基于HTTPS/HTTP协议的REST接口
ConsumerRecords<Integer, String> records = consumer.poll(waitTime); // 消息处理 for (ConsumerRecord<Integer, String> record : records) {
ConsumerRecords<Integer, String> records = consumer.poll(waitTime); // 消息处理 for (ConsumerRecord<Integer, String> record : records) {
select_statement; 参数描述 表1 CREATE TABLE参数描述 参数 描述 db_name Database名称,由字母、数字和下划线(_)组成。 table_name Database中的表名,由字母、数字和下划线(_)组成。 STORED AS 使用CarbonData数据格式存储数据。
表1 SHOW SEGMENTS FOR TABLE参数描述 参数 描述 db_name Database名,如果未指定,则使用当前database。 table_name 在给定database中的表名。 number_of_loads 加载数的限制。 注意事项 无。 示例 create
主OMS节点NTP服务无法同步时间”。 是,执行25。 否,执行35。 排查与主OMS节点NTP服务的同步是否有问题。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 使用root用户登录告警节点,执行ntpq -np命令。 如果显
ZooKeeper客户端的配置,主要涉及如下三个参数: zookeeper.sasl.clientconfig:指定使用jaas.conf文件中的对应配置访问FusionInsight ZooKeeper; zookeeper.server.principal:指定ZooKeeper服务端使用principal;
ZooKeeper客户端的配置,主要涉及如下三个参数: zookeeper.sasl.clientconfig:指定使用jaas.conf文件中的对应配置访问FusionInsight ZooKeeper; zookeeper.server.principal:指定ZooKeeper服务端使用principal;
10003(kafka) 解决办法 MRS Manager界面操作: 登录MRS Manager。 选择“系统设置 > 用户管理”。 在操作用户对应的“操作”列,单击“修改”。 为用户加入kafkaadmin组。 图1 为用户加入kafkaadmin组 通过命令id查询用户组信息。 [root@10-10-144-2
据存储空间下降明显。 在默认的情况下,声明了LowCardinality的字段会基于数据生成一个全局字典,并利用倒排索引建立Key和位置的对应关系。如果数据的基数大于8192,也就是说不同的值多于8192个,则会将一个全局字典拆分成多个局部字典(low_cardinality_m
是,执行4。 否,执行7。 在FusionInsight Manager管理界面,选择“运维 >备份恢复 > 备份管理”。根据“任务名”查找对应备份任务,单击“操作”列的“配置”,检查配置项是否都配置正确。 是,执行7。 否,修改配置后保存,执行5。 选择“更多 > 即时备份”启动该备份任务,查看备份任务是否执行成功。
在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > Loader > 实例”,选择上报告警实例主机名对应的角色,单击图表区域右上角的下拉菜单,选择“定制”,勾选“内存”中的“Loader直接内存使用率统计”,单击“确定”。 图1 Loader直接内存使用率统计
MultiPartKeysValueExtractor --support-timestamp 表1 参数说明 命令 描述 必填 默认值 --database Hive database名称 N default --table Hive表名 Y - --base-file-format 文件格式 (PARQUET或HFILE)
= input.getString(0); String[] words = sentence.split(" "); for (String word : words) { word = word.trim();
= input.getString(0); String[] words = sentence.split(" "); for (String word : words) { word = word.trim();
qop”。该参数值需与“hbase.rpc.protection”的值一一对应。保存配置,重启配置过期节点服务使更改的配置生效。 “hbase.rpc.protection”与“hbase.thrift.security.qop”参数值的对应关系为: "privacy" - "auth-conf"
Structure”窗口。 选择“SDKs”,单击加号选择“JDK”。 在弹出的“Select Home Directory for JDK”窗口,选择对应的JDK目录,然后单击“OK”。 完成JDK选择后,单击“Apply”。 选择“Project”,在“Project SDK”下的下拉菜单
选择“SDKs”,单击加号选择“JDK”。 图3 添加JDK 在弹出的“Select Home Directory for JDK”窗口,选择对应的JDK目录,然后单击“OK”。 完成JDK选择后,单击“Apply”。 选择“Project”,在“Project SDK”下的下拉菜单
否,执行7。 参考ALM-14001 HDFS磁盘空间使用率超过阈值或ALM-14002 DataNode磁盘空间使用率超过阈值进行处理,查看对应告警是否清除。 是,6。 否,7。 等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行7。 对DataNode进行扩容 对DataNode进行扩容。