检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
都不一样。 允许不恢复某个算子的状态 $ bin/flink run -s savepointPath -n [runArgs] 默认情况下,系统将尝试将savepoint的状态全部映射到用户的流应用中,如果用户升级的流应用删除了某个算子,可以通过--allowNonRestoredState(简写-n)恢复状态。
A_HOME}/FusionInsight_Doris_x.x.x/x_x_FE_UPDATE”目录,则需要在“x_x_FE_UPDATE下fe.conf”中也添加该配置。 登录 FusionInsight Manager页面,选择“集群 > 服务 > 实例”,勾选3修改配置的FE节点,选择“更多
除临时表的子任务之前用到该临时表的子任务(不包括创建该临时表的子任务,因为上一次已经执行成功,本次不会再执行,仅可编译)编译失败。这种情况下,建议使用新的batchid执行脚本。 参数说明: zk.cleanup.finished.job.interval:执行清理任务的间隔时间,默认隔60s执行一次。
在图表区域的服务选择框中选择“所有服务”,则“图表”中会显示服务池所有服务的资源使用状态。 “生效的配置组”表示集群服务当前使用的资源控制配置组。默认情况下每天所有时间均使用“default”配置组,表示集群服务可以使用节点全部CPU,以及70%的内存。 查看单个服务资源使用状态。 在图表区域的
是,处理完毕。 否,执行5。 检查磁盘是否有误写入的大文件 以omm用户登录DBService主管理节点。 执行以下命令,查看数据目录磁盘空间下超过500MB的文件,检查该目录下是否有误写入的大文件存在。 source $DBSERVER_HOME/.dbservice_profile
Conditions)、拒绝条件(Deny Conditions)以及拒绝例外条件(Exclude from Deny Conditions),以满足不同场景下的例外需求。 不同条件的优先级由高到低为:拒绝例外条件 > 拒绝条件 > 允许例外条件 > 允许条件。 系统判断流程可参考下图所示,如果组件
ly>又称为列族)。HBase表中的每个列都归属于某个列族。 列族 列族是预定义的列集合,存储在HBase Schema中。如果需要在列族下创建一些列,首先需创建列族。列族将HBase中具有相同性质的数据进行重组,且没有类型的限制。同一列族的每行数据存储在同一个服务器中。每个列族
如果FusionInsight Manager存储所用的GaussDB所在分区的磁盘使用率超过80%时,会清理实时监控数据和周期为5分钟的监控数据。 若为“租户资源”下的“存储资源(HDFS)”,0小时~300小时:每个间隔1小时,要求集群至少安装1小时以上,最多保留3个月监控数据。 MRS 3.3.0之前版本集群:
实例”。查看任意一个Broker角色实例的业务IP地址。例如获取到的IP为“192.168.20.36”。 Kafka集群端口号安全模式下是21007,普通模式下是9092。 客户端ID:可以在登录Kafka客户端后执行以下命令,查看返回结果中“CLIENT-ID”参数值进行获取。例如获取到的客户端ID为“clientA”。
jar,该jar包可在Kafka的客户端目录下获取。 下面代码片段仅为演示,完整代码参见FlinkKafkaJavaExample样例工程下的com.huawei.bigdata.flink.examples.WriteIntoKafka和com.huawei.bigdata.flink
createTopicNode(String topic) throw Exception; /** *将信息注册到某个topic节点(目录)下 * @param topic 需要注册到的目录 * @param registerRecord 需要注册的信息 */ void register(String
都不一样。 允许不恢复某个算子的状态 $ bin/flink run -s savepointPath -n [runArgs] 默认情况下,系统将尝试将savepoint的状态全部映射到用户的流应用中,如果用户升级的流应用删除了某个算子,可以通过--allowNonRestoredState(简写-n)恢复状态。
r create-hive-table 创建Hive表 eval 执行sql并查看结果 import-all-tables 导入某个数据库下的所有表到HDFS中 job 生成一个sqoop任务 list-databases 列举数据库名 list-tables 列举表名 merge
原则二:控制reduce阶段在一轮中完成。 避免以下两种场景: 大部分的reduce在第一轮运行完后,剩下唯一一个reduce继续运行。这种情况下,这个reduce的执行时间将极大影响这个job的运行时间。因此需要将reduce个数减少。 所有的map运行完后,只有个别节点有reduc
MonitorServer:“/var/log/Bigdata/flume/monitor” 日志归档规则:Flume日志启动了自动压缩归档功能,缺省情况下,当日志大小超过50MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
SNMP”。 开启“SNMP服务”开关。 MRS 3.x之前版本 登录MRS Manager,单击“系统设置”。 在“配置”区域“监控和告警配置”下,开启“SNMP配置”开关。 根据表1所示的说明填写对接参数。 表1 对接参数 参数 示例 参数说明 版本 V3 SNMP协议版本号,取值范围:
默认角色的权限将无法生效,需要通过配置Ranger策略为用户组赋权。 HDFS与Yarn的资源请求在Ranger中的策略条件未能覆盖的情况下,组件ACL规则仍将生效。 在“用户”,单击“添加”选择指定的用户并添加。 单击“确定”完成用户组创建。 MRS 2.x及之前版本: 在MRS
estAPI/JavaAPI等接口上不会根据用户角色进行权限控制,任何用户都有权限访问应用和集群的信息,无法满足多租户场景下的隔离要求。 增强: 安全模式下,对开源YARN提供的WebUI/RestAPI/JavaAPI等接口上进行了权限管理上的增强,支持根据不同的用户角色,进行相应的权限控制。
“/var/log/Bigdata/loader/audit”(审计日志) 日志归档规则: Loader的运行日志和审计日志,启动了自动压缩归档功能,默认情况下,当日志大小超过10MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
index cause duplicate keys error 解决Hudi删除外表之后重建报错的问题 解决Hive查询Hudi特殊场景下失败的问题 [Hidden partitioning] Fix Job fails for non-partitioned table for