检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“Mapreduce”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
window_end; 窗口去重语句 Window Deduplication是一种特殊的重复数据删除,它删除在一组列上重复的行,为每个窗口和分区键保留第一个或最后一个。 语法: SELECT [column_list] FROM ( SELECT [column_list], ROW_NUMBER()
对系统的影响 Flink作业的CheckPoint连续失败,超过阈值后Flink作业有失败的风险,需要用户介入查看Flink作业运行状态和日志来确定问题原因,是Flink作业级别的告警,对FlinkServer本身没有影响。 可能原因 失败原因可在具体日志中查看。 处理步骤 使
Manager界面,选择“运维 > 日志 > 下载”。 在“服务”框中勾选待操作集群的“Ranger”。 单击右上角的时间编辑按钮,设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
在“服务”中勾选待操作集群的“ClickHouse”。 在“主机”中选择异常的主机,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
在“服务”中勾选待操作集群的“Doris”。 在“主机”中选择对应角色所在的主机,单击“确定”。 单击右上角的时间编辑按钮,设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
在“服务”中勾选操作集群的“IoTDB”,单击“确定”。 在“主机”勾选对应角色所在的主机,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 查看Consumer客户端日志发现频繁连接Broker节点和断链打印信息,如下所示。 [root@10-10-144-2 client]# kafka-console-consumer.sh --topic
onData。 创建CarbonData Table 连接到CarbonData之后,需要创建CarbonData table用于加载数据和执行查询操作。 加载数据到CarbonData Table 创建CarbonData table之后,可以从CSV文件加载数据到所创建的table中。
terminator”设置一个分隔符,用于分隔Hive中类型为“array”的列的数据集合。例如一个列为array类型,其中一个值需要保存“employee”和“manager”,用户指定分隔符为“:”,则最终的值为“employee:manager”。 在“Map key terminator”设
6及以后版本,用户对于getAcl操作需要有读权限。 前提条件 已安装ZooKeeper客户端。例如安装目录为“/opt/client”。 已获取MRS集群管理员用户和密码。 操作步骤 启动ZooKeeper客户端 以root用户登录安装了ZooKeeper客户端的服务器。 进入客户端安装目录。 cd /opt/client
'ORC', location='/user',external=true); --如果表orders不存在,则创建表orders,并且增加表注释和列注释: CREATE TABLE IF NOT EXISTS new_orders ( orderkey bigint, orderstatus
当前系统时间为2024年4月份,根据TTL策略规则example_table表d列为'2018-10-01'和'2017-10-01'的数据已被删除。 执行以下查询hot data和cold data的存储路径。 select name, partition, active, path
int hiveValue = table1List.get(i).getInt(1); // 根据列簇和列,获取hbase值 String hbaseValue = Bytes.toString(resultData.getValue(columnFamily
t context) { // 在本地保留processor context,因为在punctuate()和commit()时会用到 this.context = context; //
取消作业: bin/flink cancel <JobID> 停止作业(仅流式作业): bin/flink stop <JobID> 取消和停止作业的区别如下: 取消作业:执行“cancel”命令时,指定作业会立即收到cancel()方法调用ASAP。如果调用结束后作业仍然没有停
TimeStampsOfLastAppliedOp=Wed May 25 17:55:21 CST 2016 同时查看replication source和replication sink指标的命令。 hbase(main):018:0> status 'replication' 输出结果如下:
int hiveValue = table1List.get(i).getInt(1); // 根据列簇和列,获取hbase值 String hbaseValue = Bytes.toString(resultData.getValue(columnFamily
TimeStampsOfLastAppliedOp=Wed May 25 17:55:21 CST 2016 同时查看replication source和replication sink指标的命令。 hbase(main):018:0> status 'replication' 输出结果如下:
令中IP替换为2中查询到的故障DataNode的IP地址,其中不能有空格。 如果有两个Master节点,请在Master2节点上同样执行3和4。 在Master1节点执行如下命令初始化环境变量。 source 客户端安装目录/bigdata_env 如果当前集群已启用Kerber