检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点。 可以调用节点将结果返回给客户端。 Impalad进程通过持续的和StateStore通信来确认自己所在的节点是否健康和是否可以接受新的任务请求。 Impala StateStore 负责检查Impala的所有进程健康状态管理进程,进程名为statestored,当有Imp
才能精确到秒并完成导入。数据中包含比秒更精确的部分不会被导入。 导入到Hive分区表内表时,Hive默认不会扫描新导入的数据,需要执行如下HQL修复表才可以查询到新导入数据: MSCK REPAIR TABLE table_name; 转换步骤配置不正确时,传输的数据将无法转换并成为脏数据,脏数据标记规则如下:
警上报的Kafka消费者组名称,在附加信息中查看Topic名称。 根据实际情况判断消费者组是否为新创建。 是,执行3。 新创建的消费者组,新消费者会从头开始消费Topic中的消息,产生消息积压告警属于正常现象,待下游消费Topic中消息后,告警会自动消除。 否,执行4。 等待一段时间后,查看当前告警是否清除。
Flink > 配置 > 全部配置”,搜索“flink.ha.floatip”,修改参数值为正确浮动IP,保存配置并重启Flink服务。 新的浮动IP请联系网络管理员提供。 重启服务期间,FlinkServer无法对外提供服务,已提交的作业不受影响。 重启FlinkServer实
将“主机IP”设置为ECS的IP地址,设置“主机端口”为“22”,并将“存放路径”设置为“/tmp”。 如果使用SSH登录ECS的默认端口“22”被修改,请将“主机端口”设置为新端口。 “存放路径”最多可以包含256个字符。 “登录用户”设置为“root”。 如果使用其他用户,请确保该用户对保存目录拥有读取、写入和执行权限。
步骤二:添加资源池:通过管理控制台将新增的节点配置为租户资源池。 步骤三:添加租户:新创建一个租户。 步骤四:队列配置:修改租户对应的资源队列配置及资源分布策略,将其与新资源池绑定。 步骤五:创建用户:新创建一个MRS集群用户并绑定租户。 步骤六:使用spark-submit提交任务:使用指定的队列运行作业任务。
重启期间无法访问作业历史页面查看历史任务信息,不影响作业运行 直接重启耗时约5分钟 滚动重启 滚动重启不影响业务 滚动重启耗时约10分钟 Yarn 直接重启 直接重启期间,不可新提交任务,正在运行Spark、Flink任务有重试机制不受影响 直接重启耗时约5分钟 滚动重启 依赖NM的 remote shuffle S
N或CLOSED。CLOSED状态的队列不接受任何新的allocation请求。 eopen_state String 队列的外在状态(父队列状态)。有效状态为队列自身状态及其父队列状态的组合。CLOSED状态的队列不接受任何新的allocation请求。 active_state
N或CLOSED。CLOSED状态的队列不接受任何新的allocation请求。 eopen_state String 队列的外在状态(父队列状态)。有效状态为队列自身状态及其父队列状态的组合。CLOSED状态的队列不接受任何新的allocation请求。 active_state
N或CLOSED。CLOSED状态的队列不接受任何新的allocation请求。 eopen_state String 队列的外在状态(父队列状态)。有效状态为队列自身状态及其父队列状态的组合。CLOSED状态的队列不接受任何新的allocation请求。 active_state
if(args.length >= 2) { //用户更改了默认的keytab文件名,这里需要将新的keytab文件名通过参数传入 conf.put(Config.STORM_CLIENT_KEYTAB_FILE,
在数据同步过程中不可避免会出现数据重复写入、数据乱序问题,例如:异常数据恢复、写入程序异常重启等场景。通过设置合理precombine字段值可以保证数据的准确性,老数据不会覆盖新数据,也就是幂等写入能力。该字段可用选择的类型包括:业务表中更新时间戳、数据库的提交时间戳等。precombine字段不能有null值和空值
Manager作为MRS的统一租户管理平台,用户可以在界面上根据业务需要,在集群中创建租户、管理租户。 创建租户时将自动创建租户对应的角色、计算资源和存储资源。默认情况下,新的计算资源和存储资源的全部权限将分配给租户的角色。 修改租户的计算资源或存储资源,对应的角色关联权限将自动更新。 Manager还提供了多实
jar命令来提交拓扑的一种方式,极大地方便了拓扑的部署和提交,缩短了业务开发周期。 基本语法说明 使用Flux定义拓扑分为两种场景,定义新拓扑和定义已有拓扑。 使用Flux定义新拓扑 使用Flux定义拓扑,即使用yaml文件来描述拓扑,一个完整的拓扑定义需要包含以下几个部分: 拓扑名称 定义拓扑时需要的组件列表
Flume客户端需要单独安装,支持将数据直接导到集群中的HDFS和Kafka等组件上。 本案例中,通过MRS自定义集群中的Flume组件,自动采集指定节点日志目录下新产生的文件并存储到HDFS文件系统中。 方案架构 Flume-NG由多个Agent来组成,而每个Agent由Source、Channel、S
operator="gt"> 定义访问时间的条件。 对于手动迁移规则,不需要条件。 行为列表: 将存储策略设置为给定的数据层名称 迁移到其他文件夹 为文件设置新的副本数 删除文件 设置节点标签(NodeLabel) 表2 行为类型 行为类型 描述 所需参数 MARK 为确定数据的冷热度并设置相应的数据存储策略。
Storm服务可用Supervisor数量小于阈值 集群已经存在的任务无法运行;集群可接收新的Storm任务,但是无法运行。 1 已用Slot比率 26053 Storm Slot使用率超过阈值 用户无法执行新的Storm任务。 80.0% Nimbus堆内存使用率 26054 Nimbus堆内存使用率超过阈值
if(args.length >= 2) { //用户更改了默认的keytab文件名,这里需要将新的keytab文件名通过参数传入 conf.put(Config.STORM_CLIENT_KEYTAB_FILE,
送Agent将会提交Transactions,标识一次数据传输成功可靠地完成。 当接收Agent接收到发送Agent发送的消息时,开始一个新的Transactions,当该数据被成功处理(写入Channel中),那么接收Agent提交该Transactions,并向发送Agent发送成功响应。
3”,在Level 1,每2个segment触发一次Minor合并。在Level2,每3个Level 1合并的segment将被再次合并为新的segment。 合并策略根据实际的数据大小和可用资源决定。 有效值为0-100。 carbon.major.compaction.size