检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ClickHouse系统表日志过大时如何添加定期删除策略? 问题现象 客户使用ClickHouse,系统表产生的日志过大,一次性删除会耗费较长时间,客户可以添加定期删除策略,即添加TTL。 处理步骤 MRS 3.3.0及之后版本,在Manager页面,选择“集群 > 服务 > ClickHouse>
ALM-12087 系统处于升级观察期 告警解释 系统定时在每天零点查看当前系统是否处于升级观察期,同时检查进入升级观察时间是否超过了为客户预留的升级观察期时间(默认为10天)。当系统处于升级观察期,并且进入升级观察期时间超过了为客户预留的升级观察期时间(默认时间为10天)时,系统触发此告警
{ return new Tuple2<>(); } return new Tuple2<>(words[0], words[1]);
跳消息后,系统产生告警。 当心跳恢复后,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 45640 次要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 F
在下拉框中选择“Structure for New Projects”。 图3 Configure 在弹出的“Project Structure for New Projects”页面中,选择“SDKs”,单击加号添加JDK。 图4 Project Structure for New Projects
total += a[i]; return total; } } 如何使用 登录MRS Manager页面,为使用函数的Hive业务用户配置Hive管理员权限。 登录MRS Manager页面,单击“系统配置 > 角色管理 > 添加角色”,添加一个拥有Hive
ALM-19012 HBase系统表目录或文件丢失 告警解释 系统按120秒周期性检测HBase在HDFS上的如下目录和文件是否存在,当检测到文件或者目录不存在时,上报该告警。当文件或目录都恢复后,告警恢复。 检查内容: 命名空间hbase在HDFS上的目录。 hbase.version文件。
// 如果没有副本与客户端处于相同Rack,则返回leader副本 return Optional.of(partitionView.leader()); } else {
{ return new Tuple2<>(); } return new Tuple2<>(words[0], words[1]);
{ return new Tuple2<>(); } return new Tuple2<>(words[0], words[1]);
// 如果没有副本与客户端处于相同Rack,则返回leader副本 return Optional.of(partitionView.leader()); } else {
单击“Apply”后单击“OK”。 在IntelliJ IDEA的菜单栏中,选择“File > Project Structure...”,弹出“Project Structure”窗口。 选择“SDKs”,单击加号选择“JDK”。 在弹出的“Select Home Directory for
'false' -- 关闭Archive操作 Spark离线完成Compaction计划的执行,以及Clean和Archive操作 在调度平台(可以使用华为的DataArts)运行一个定时调度的离线任务来让Spark完成Hudi表的Compaction计划执行以及Clean和Archive操作。
count; } // 获取用户自定义状态 public long geState() { return this.count; } } 带checkpoint的数据源 source算子的代码,该段代码每发送10000条数据休息1秒
count; } // 获取用户自定义状态 public long geState() { return this.count; } } 带checkpoint的数据源 source算子的代码,该段代码每发送10000条数据休息1秒
{ return new Tuple2<>(); } return new Tuple2<>(words[0], words[1]);
单击“Apply”后单击“OK”。 在IntelliJ IDEA的菜单栏中,选择“File > Project Structure...”,弹出“Project Structure”窗口。 选择“SDKs”,单击加号选择“JDK”。 在弹出的“Select Home Directory for
SQLException: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Unable to alter
Flink应用开发常用概念 DataStream 数据流,是指Flink系统处理的最小数据单元。该数据单元最初由外部系统导入,可以通过socket、Kafka和文件等形式导入,在Flink系统处理后,通过Socket、Kafka和文件等输出到外部系统,这是Flink的核心概念。 Data Transformation
String> integerStringTuple2) throws Exception { return integerStringTuple2.f1.getBytes(); }