检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
默认值 dfs.datanode.drop.cache.behind.reads 表示是否让DataNode将在缓冲区中的数据传递给客户端后自动清除缓冲区中的所有数据。 true:表示丢弃缓存的数据(需要在DataNode中配置)。 当同一份数据,重复读取的次数较少时,建议设置为true,使得缓存能够被其他操作使用。
add-replicas-reassignment.json --verify 确认处理完成或者告警无影响后,可在FusionInsight Manager页面,手动清除该告警。 观察一段时间,检查告警是否清除或者告警无影响后,可在FusionInsight Manager页面,手动清除该告警。 是,操作结束。
重启sssd/nscd服务。 Red Hat/Euler service sssd restart SUSE sevice nscd restart 重启相关服务后,在节点通过id username命令查看相应用户信息是否已有效。 父主题: 使用Kafka
单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。 父主题: MRS集群告警处理参考
默认值 dfs.datanode.drop.cache.behind.reads 表示是否让DataNode将在缓冲区中的数据传递给客户端后自动清除缓冲区中的所有数据。 true:表示丢弃缓存的数据(需要在DataNode中配置)。 当同一份数据,重复读取的次数较少时,建议设置为true,使得缓存能够被其他操作使用。
Manager界面选择“系统设置 > 用户管理”,在用户名中选择hbaseuser,然后在右侧“操作”列中选择“更多 >下载认证凭据”,保存后解压得到用户的user.keytab文件与krb5.conf文件,用于在样例工程中进行安全认证,如图4所示。 图4 下载认证凭据 参考信息
yarn.security.credentials.hbase.enabled”设置为“true”(该参数值默认为“false”,改为“true”后对已有业务没有影响。如果要卸载HBase服务,卸载前请将此参数值改回“false”)。 spark-submit --master yarn
息积压(Lag)的总和,可以参考使用KafkaUI查看当前消费情况,查看消费者组中Topic所有分区的消息积压情况,如下图所示: 创建完成后,可以在“Lag Alarms”界面查看、修改、删除Kafka消息积压告警的规则信息。 父主题: Kafka运维管理
左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 单击“保存”,在弹出窗口中单击“确定”使配置生效。 配置完成后立即生效,不需要重启服务。 日志格式 ZooKeeper的日志格式如下所示: 表3 日志格式 日志类型 组件 格式 示例 运行日志 zookeeper
产生告警的队列指标名。 Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 应用任务结束时间变长。 新应用提交后长时间无法运行。 可能原因 告警上报机制需要调整。(仅适用于MRS 3.3.1及之后版本 ) NodeManager节点资源过小。 队列最大资源容量设置过小。
KafkaConsumer中定义的接口,在使用“kafka-console-consumer.sh”时,默认会调用此API。 MRS 3.x后,Kafka不支持旧Producer API和旧Consumer API。 Kafka访问协议说明 请参考修改集群服务配置参数查看或配置参数。
单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。 父主题: MRS集群告警处理参考
单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 父主题: MRS集群告警处理参考
提高--spark-memory,否则会导致executor内存溢出。 当前clean不支持清理Clustering失败后的垃圾文件。 Clustering后可能出现新文件大小不等引起数据倾斜的情况。 cluster不支持和upsert并发。 如果clustering处于infl
左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 单击“保存”,在弹出窗口中单击“确定”使配置生效。 配置完成后立即生效,不需要重启服务。 日志格式 ZooKeeper的日志格式如下所示: 表3 日志格式 日志类型 组件 格式 示例 运行日志 zookeeper
可以在MRS Manager修改健康检查报告保存的文件数。健康检查报告保存的文件数不区分集群、服务或主机类型的健康检查报告。健康检查完成后,报告文件默认保存在主管理节点的“$BIGDATA_DATA_HOME/Manager/healthcheck”,备管理节点将自动同步。 选择“系统设置
连接设置。 安全模式(开启Kerberos认证的集群): 在创建新连接页面的“常规”页签,输入2中创建的用户名和密码,单击“测试链接”,连接成功后,单击“确定”,再单击“完成”。可单击“连接详情(名称、类型...)”修改连接名称。 图3 安全模式“常规”参数设置 普通模式(未开启Kerberos认证的集群):
send(ProducerRecord<K,V> record, Callback callback) 带回调函数的发送接口,通常用于异步发送后,通过回调函数实现对发送结果的处理。 void onCompletion(RecordMetadata metadata, Exception
单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无。 父主题: MRS集群告警处理参考
kafka; 作业3:FlinkSQL流式读取MOR和COW表并合并数据输出到Kafka。注意作业3需要等待作业1和作业2均启动后,状态显示为“运行中”后再执行SQL校验和启动作业(否则SQL校验可能提示错误,找不到Hudi表目录)。 CREATE TABLE stream_mor(